Создатели искусственного интеллекта (ИИ) получили призыв как минимум на полгода приостановить исследование мощных систем. Было подписано открытое письмо, в котором говорится о необходимости создания набора протоколов безопасности и наличия независимого контроля за более мощными системами ИИ. Об этом сообщает Bizmedia.kz.
Илон Маск и другие бизнес-лидеры призывают остановить исследования мощных систем искусственного интеллекта
Илон Маск, Стив Возняк и другие эксперты в области искусственного интеллекта призывают к шестимесячной остановке исследования мощных систем ИИ.
В открытом письме на сайте организации Future of Life, которая занимается снижением рисков для человечества, особенно возникающих в сфере ИИ, говорится, что системы с интеллектом, сопоставимым с человеческим, могут представлять серьезные угрозы для общества.
Письмо также стремится сблизить лаборатории и экспертов для создания единой системы управления в данной области.
Азиломарские принципы исследования искусственного интеллекта, разработанные в 2017 году, указывают на необходимость управления продвинутыми системами ИИ для предотвращения серьезных изменений в истории жизни на Земле.
Заключение
- Создателям искусственного интеллекта необходимо остановить исследования мощных систем на полгода и использовать это время для разработки общего набора протоколов безопасности.
- Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для общества и человечества.
- Необходима система управления в сфере ИИ, включающая в себя новые дееспособные регулирующие органы, надежную систему проверки и сертификации, а также контроль более продвинутых систем ИИ.
Читайте также:
- Казахстан и Россия обсудили устранение торговых барьеров
- Ложное сообщение о минировании подняло тревогу в Талгарском районе
- В Казахстане пересмотрят приказы Минобороны
- Фильм «Нам нужен доктор» откроет XVII Международный кинофестиваль «Евразия»
- Выездное заседание Общественного совета АФМ состоялось в Алматы