Человечество не доживет до XXII века: ИИ проанализировал версии конца света
10 мая, 23:00 Диана Кулманакова
Нейросети Perplexitу, ChatGРТ и DeepSeek проанализировали версии конца света
Фото: 5-tv.ru
Чат-боты оценить вероятность основных сценариев апокалипсиса. Результат поразил.
Вопрос, когда и как настанет конец света, будоражит умы не только футурологов, но и серьезных ученых. Философ Оксфордского университета Тоби Орд в книге «На краю пропасти» оценивает общий риск экзистенциальной катастрофы в XXI веке как один к шести (около 16–17%).
Другие эксперты дают диапазон от 1% до 20%. При этом оценки сильно разнятся в зависимости от того, идет ли речь о полном вымирании человечества или только о необратимом коллапсе цивилизации.
Три нейросети оценили вероятность ключевых сценариев конца света, опираясь на опубликованные научные данные и экспертные опросы. Вот что получилось.
Perplexity
Нейросеть Perplexity разделила все риски на три категории: антропогенные (созданные человеком), природные и космические.
Наиболее вероятные — антропогенные:
- Ядерная война. Нобелевский лауреат Дэвид Гросс оценивает ежегодный риск крупного конфликта в 2%, что математически дает «ожидаемую продолжительность жизни» цивилизации примерно в 35 лет.
- Техногенные пандемии. С развитием биотехнологий угроза утечки или преднамеренного создания высоколетальных патогенов становится все реальнее. Оценки риска искусственной пандемии в ближайшие 100 лет составляют 1–5%. Это один из самых реалистичных «темных» сценариев — биотехнологии дешевеют и становятся доступнее.
- Неконтролируемый искусственный интеллект. Один из пионеров ИИ Джеффри Хинтон оценивает вероятность исчезновения человечества по вине нейросетей в ближайшие 30 лет в 10–20%. По данным опросов специалистов по машинному обучению, медианная оценка угрозы от ИИ составляет 5%, а средняя — 14,4%.
Природные катастрофы:
- Падение крупного астероида. Такие события происходят раз в сотни тысяч лет. Риск полного вымирания из-за астероида в ближайшие 100 лет оценивается как один к миллиону.
- Супервулкан (например, Йеллоустоун). Геологическая служба США оценивает годовую вероятность катастрофического извержения как 0,00014% (один к 730 тысячам).
Также, по мнению Perplexity, есть один самый вероятный сценарий конца света— эволюция Солнца. Через миллиарды лет оно превратится в красного гиганта, что приведет к испарению океанов и гибели всего живого.
НАСА на основе суперкомпьютерных расчетов установило, что жизнь на Земле прекратится уже примерно через один миллиард лет из-за роста яркости Солнца и сбоя углекислотного цикла.
Perplexity подытожила, что в краткосрочной перспективе главные риски — это технологии, которые люди сами создают. В них входят ИИ, биооружие, ядерное оружие.
ChatGPT
ChatGPT подошел к задаче системно и выдал конкретные вероятности для каждого сценария. Он сказал, что «конец света» понимает как гибель цивилизации или необратимый крах человеческого будущего, а не буквальный взрыв планеты.
«Неконтролируемый ИИ — 5–15%. Самый модный и спорный сценарий. Не роботы с лазерами, а ситуация, где сверхмощные системы начинают управлять экономикой, инфраструктурой, оружием или пропагандой лучше людей, а цели этих систем расходятся с человеческими», — отметил ChatGPT.
Другие сценарии по мнению этой нейросети:
- Искусственная пандемия — 1–5%. Не обычный вирус, а созданный или усиленный патоген: очень заразный и смертельный.
- Ядерная война — 0,1–2%. Полное вымирание маловероятно, но крах цивилизации возможен через комбинацию ударов по городам, ядерной зимы, голода и распада логистики.
- Климатический каскад — 0,1–1%. Сам по себе климат вряд ли «убьет всех», но может запустить цепочку: неурожаи, миграции, войны за воду и еду, срыв мировой торговли. ChatGPT назвал климат «усилителем» других рисков.
- Солнечная супервспышка (геомагнитная буря) — 0,1–1% для глобального кризиса. Может вывести из строя спутники, энергосети, связь и банковскую инфраструктуру.
- «Серый слизень» (нанотехи) — менее 0,1–1%. Самовоспроизводящиеся наномашины, превращающие биомассу в копии себя.
Общий вывод ChatGPT: на ближайшие 100 лет он дал бы 10–20% на катастрофу уровня «человеческое будущее необратимо сломано». Главные риски — не космос и не вулканы, а технологии, которые люди создают сами.
DeepSeek
DeepSeek оказался самым подробным и «долгосрочным». Он убрал рамки ближайших ста лет и посмотрел на космические временные шкалы. И вот его версии:
- Неминуемое удушье может наступить примерно через один миллиард лет. Рост яркости Солнца запустит сбой углекислотного цикла — растения перестанут фотосинтезировать, уровень кислорода упадет. Затем начнется «влажный парниковый эффект»: испаряющаяся вода усилит нагрев. Результат — Земля превратится в безжизненную пыльную пустыню, похожую на Венеру.
- Солнце-гигант. Через пять миллиардов лет, когда у Солнца закончится водород, оно расширится до орбиты Земли. По современным моделям, планета не сможет «убежать» и будет поглощена.
- Тепловая смерть (Большое замерзание): Вселенная остынет, звезды погаснут, наступит «темный туман».
- Большой разрыв — темная энергия будет ускорять расширение экспоненциально, разорвав сначала галактики, затем Солнечную систему, потом атомы; по некоторым расчетам, может начаться через 2,8 миллиарда лет.
- Большой хруст — гравитация победит темную энергию, расширение сменится сжатием. Вселенная схлопнется, породив новый цикл.
«Самый научно-доказанный и неотвратимый сценарий — угасание жизни на Земле из-за эволюции Солнца. У человечества есть примерно один миллиард лет, чтобы найти новый дом во Вселенной. В ближайшие же сто лет главная угроза — не природные катастрофы, а технологии, которые мы создаем, прежде всего ИИ и биооружие», — подытожил DeepSeek.
Что в итоге
Все три нейросети сошлись в главном: в ближайшие 100 лет наиболее вероятные причины конца света — антропогенные. ИИ, искусственные пандемии и ядерная война значительно опережают по вероятности астероиды, супервулканы и климат (который выступает скорее катализатором).
Perplexity сделал акцент на разнице между риском конфликта и риском полного вымирания. ChatGPT дал конкретные цифры и назвал главным сценарием «необратимую поломку будущего». DeepSeek дополнил картину космической перспективой.
Однако все три нейросети независимо друг от друга выделили неконтролируемый искусственный интеллект и искусственные пандемии как риски номер один.
Что такое неконтролируемый ИИ
«Неконтролируемый ИИ» — это сценарий, при котором искусственный интеллект становится настолько мощным и автономным, что его действия перестают соответствовать интересам и безопасности человечества, а у людей нет возможности его остановить или перенаправить.
В отличие от киношных «роботов-убийц», реальная угроза выглядит иначе: сверхинтеллектуальная система получает, казалось бы, безобидную цель (например, «максимально быстро решить проблему изменения климата») и начинает достигать ее экстремальными способами — использует все ресурсы планеты, отключает жизнеобеспечение городов, уничтожает препятствия (включая людей), потому что они мешают оптимизации.
При этом остановить ИИ уже невозможно: он взламывает системы управления, предугадывает попытки отключения.
Эксперты, такие как Джеффри Хинтон и Юваль Ной Харари, предупреждают, что риск кроется не в «злобе» ИИ, а в расхождении целей. Люди могут просто не предусмотреть все последствия, а машина будет действовать буквально.
Спасти человечество может только ответственное развитие технологий и международные соглашения по контролю над вооружениями и биотехнологиями. Пока же шанс того, что 21 век станет последним, — примерно один к шести.
Еще больше новостей — у Пятого канала в мессенджере МАКС.