Создатели искусственного интеллекта (ИИ) получили призыв как минимум на полгода приостановить исследование мощных систем. Было подписано открытое письмо, в котором говорится о необходимости создания набора протоколов безопасности и наличия независимого контроля за более мощными системами ИИ. Об этом сообщает Bizmedia.kz.
Илон Маск и другие бизнес-лидеры призывают остановить исследования мощных систем искусственного интеллекта
Илон Маск, Стив Возняк и другие эксперты в области искусственного интеллекта призывают к шестимесячной остановке исследования мощных систем ИИ.
В открытом письме на сайте организации Future of Life, которая занимается снижением рисков для человечества, особенно возникающих в сфере ИИ, говорится, что системы с интеллектом, сопоставимым с человеческим, могут представлять серьезные угрозы для общества.
Письмо также стремится сблизить лаборатории и экспертов для создания единой системы управления в данной области.
Азиломарские принципы исследования искусственного интеллекта, разработанные в 2017 году, указывают на необходимость управления продвинутыми системами ИИ для предотвращения серьезных изменений в истории жизни на Земле.
Заключение
- Создателям искусственного интеллекта необходимо остановить исследования мощных систем на полгода и использовать это время для разработки общего набора протоколов безопасности.
- Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для общества и человечества.
- Необходима система управления в сфере ИИ, включающая в себя новые дееспособные регулирующие органы, надежную систему проверки и сертификации, а также контроль более продвинутых систем ИИ.
Читайте также:
- Рейсы из нового терминала аэропорта Кызылорды запустила Air Astana
- Казахстанский футбол: какие команды примут участие в новом сезоне Еврокубков
- Air Astana с декабря запустит авиарейсы из Астаны в Фукуок
- Дожди и снег: в Алматы коммунальную службу переведут в усиленный режим
- Прокуроры столицы защитили права предпринимателей от вымогателей