Создатели искусственного интеллекта (ИИ) получили призыв как минимум на полгода приостановить исследование мощных систем. Было подписано открытое письмо, в котором говорится о необходимости создания набора протоколов безопасности и наличия независимого контроля за более мощными системами ИИ. Об этом сообщает Bizmedia.kz.
Илон Маск и другие бизнес-лидеры призывают остановить исследования мощных систем искусственного интеллекта
Илон Маск, Стив Возняк и другие эксперты в области искусственного интеллекта призывают к шестимесячной остановке исследования мощных систем ИИ.
В открытом письме на сайте организации Future of Life, которая занимается снижением рисков для человечества, особенно возникающих в сфере ИИ, говорится, что системы с интеллектом, сопоставимым с человеческим, могут представлять серьезные угрозы для общества.
Письмо также стремится сблизить лаборатории и экспертов для создания единой системы управления в данной области.
Азиломарские принципы исследования искусственного интеллекта, разработанные в 2017 году, указывают на необходимость управления продвинутыми системами ИИ для предотвращения серьезных изменений в истории жизни на Земле.
Заключение
- Создателям искусственного интеллекта необходимо остановить исследования мощных систем на полгода и использовать это время для разработки общего набора протоколов безопасности.
- Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для общества и человечества.
- Необходима система управления в сфере ИИ, включающая в себя новые дееспособные регулирующие органы, надежную систему проверки и сертификации, а также контроль более продвинутых систем ИИ.
Читайте также:
- Фильм «Нам нужен доктор» откроет XVII Международный кинофестиваль «Евразия»
- Выездное заседание Общественного совета АФМ состоялось в Алматы
- В Алматы обсуждают двойное увеличение тарифа на обслуживание домов
- Двое казахстанцев выиграли финалы B на этапе Кубка мира по конькобежному спорту
- Сколько нефти за 10 месяцев 2024 года добыл «КазМунайГаз»