Большинство людей в США и Великобритании считают реальные риски искусственного интеллекта более опасными, чем абстрактные угрозы вроде уничтожения человечества. Такой вывод сделали исследователи Цюрихского университета после опроса более 10 тысяч человек. Работа опубликована в журнале Proceedings of the National Academy of Sciences (PNAS).

Что именно выяснили учёные
Исследование показало: людям важнее не гипотетический конец света от суперразумной машины, а конкретные проблемы, с которыми они сталкиваются уже сейчас.
В числе главных страхов:
- предвзятые алгоритмы — например, когда ИИ при найме занижает шансы женщин или меньшинств;
- автоматизация труда — люди боятся остаться без работы из-за роботов;
- распространение дезинформации — фейки, генерируемые ИИ, всё сложнее отличить от правды.
Даже когда участникам показывали «апокалиптические» заголовки и образы, они всё равно больше концентрировались на реальных, ощутимых рисках.
Почему это важно
Авторы исследования подчёркивают: разговоры о катастрофических сценариях не заслоняют внимание к текущим проблемам. Более того, даже если усилить акценты на возможном «конце света», реальные опасения людей остаются на первом плане.
Это опровергает популярную теорию, что футуристические страхи отвлекают общество от текущих вызовов.
Кто провёл исследование и зачем
Работу выполнила группа исследователей из Цюрихского университета. Её руководитель, профессор Фабрицио Джиларди, объяснил цель так:
«Респонденты отчетливо отличают теоретические опасности от ощутимых проблем и очень серьезно относятся к последним».
Учёные считают, что это первое исследование, которое систематически сравнило восприятие реальных и гипотетических угроз от ИИ в масштабах широкой выборки.
Что такое экзистенциальные угрозы ИИ
Термин «экзистенциальная угроза» обозначает гипотетические сценарии, в которых ИИ может выйти из-под контроля и уничтожить человечество. Такие сюжеты обсуждают известные учёные, предприниматели и философы, включая Илона Маска и Ника Бострома.
Но в реальной жизни ИИ пока чаще используется для автоматизации, обработки данных и генерации контента, а не для глобальных решений. Именно поэтому, по мнению исследователей, общество больше озабочено текущими последствиями.
Чего хотят авторы исследования
Учёные призывают к сбалансированной дискуссии. По их словам, не стоит противопоставлять гипотетические угрозы и повседневные вызовы — важно обсуждать и то, и другое, чтобы политика регулирования ИИ была действительно эффективной.
Что это значит для пользователей
Если вы пользуетесь ИИ — в работе, для поиска информации или общения — важно понимать, как он устроен. От этого зависит, сможете ли вы распознать ошибку, фейк или манипуляцию.
А если вы работаете в сфере, которую ИИ может автоматизировать — юриспруденция, дизайн, поддержка клиентов, — полезно следить за трендами и учиться новым навыкам, чтобы не оказаться в уязвимом положении.