Создатели искусственного интеллекта (ИИ) получили призыв как минимум на полгода приостановить исследование мощных систем. Было подписано открытое письмо, в котором говорится о необходимости создания набора протоколов безопасности и наличия независимого контроля за более мощными системами ИИ. Об этом сообщает Bizmedia.kz.

Илон Маск и другие бизнес-лидеры призывают остановить исследования мощных систем искусственного интеллекта
Илон Маск, Стив Возняк и другие эксперты в области искусственного интеллекта призывают к шестимесячной остановке исследования мощных систем ИИ.
В открытом письме на сайте организации Future of Life, которая занимается снижением рисков для человечества, особенно возникающих в сфере ИИ, говорится, что системы с интеллектом, сопоставимым с человеческим, могут представлять серьезные угрозы для общества.
Письмо также стремится сблизить лаборатории и экспертов для создания единой системы управления в данной области.
Азиломарские принципы исследования искусственного интеллекта, разработанные в 2017 году, указывают на необходимость управления продвинутыми системами ИИ для предотвращения серьезных изменений в истории жизни на Земле.
Заключение
- Создателям искусственного интеллекта необходимо остановить исследования мощных систем на полгода и использовать это время для разработки общего набора протоколов безопасности.
- Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для общества и человечества.
- Необходима система управления в сфере ИИ, включающая в себя новые дееспособные регулирующие органы, надежную систему проверки и сертификации, а также контроль более продвинутых систем ИИ.
Читайте также:
- ВМС Казахстана впервые проводят учебные сборы с офицерами запаса
- Любая соцпомощь должна доходить до тех, кто в ней нуждается — Бозумбаев
- Более 8 тысяч трудоустроенных: в Астане снижается уровень безработицы
- Алтын нарығы: Жаңа ойыншылардың қатары нақтыланды
- В Атырау строительные компании привлечены к ответственности за незаконное привлечение дольщиков