Создатели искусственного интеллекта (ИИ) получили призыв как минимум на полгода приостановить исследование мощных систем. Было подписано открытое письмо, в котором говорится о необходимости создания набора протоколов безопасности и наличия независимого контроля за более мощными системами ИИ. Об этом сообщает Bizmedia.kz.
Илон Маск и другие бизнес-лидеры призывают остановить исследования мощных систем искусственного интеллекта
Илон Маск, Стив Возняк и другие эксперты в области искусственного интеллекта призывают к шестимесячной остановке исследования мощных систем ИИ.
В открытом письме на сайте организации Future of Life, которая занимается снижением рисков для человечества, особенно возникающих в сфере ИИ, говорится, что системы с интеллектом, сопоставимым с человеческим, могут представлять серьезные угрозы для общества.
Письмо также стремится сблизить лаборатории и экспертов для создания единой системы управления в данной области.
Азиломарские принципы исследования искусственного интеллекта, разработанные в 2017 году, указывают на необходимость управления продвинутыми системами ИИ для предотвращения серьезных изменений в истории жизни на Земле.
Заключение
- Создателям искусственного интеллекта необходимо остановить исследования мощных систем на полгода и использовать это время для разработки общего набора протоколов безопасности.
- Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для общества и человечества.
- Необходима система управления в сфере ИИ, включающая в себя новые дееспособные регулирующие органы, надежную систему проверки и сертификации, а также контроль более продвинутых систем ИИ.
Читайте также:
- Наказание за превышение скорости будет ужесточено в Казахстане
- Как будет развиваться новый город Алатау
- День тишины: что запрещается делать перед референдумом
- Эксперты прогнозируют значительный рост объема складской недвижимости в Центральной Азии
- Сумма инвестиций в туризм Казахстана стремительно растет