Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли призывают к шестимесячной паузе в обучении систем, более мощных, чем недавно запущенная модель GPT-4 от OpenAI. Об этом они заявили они в своем открытом письме, ссылаясь на потенциальные риски для общества и человечества, передает Bizmedia.kz со ссылкой на Reuters.
Все призывают приостановить обучение систем ИИ, более мощных, чем GPT-4
Письмо, выпущенное некоммерческим институтом Future of Life Institute и подписанное более чем 1 000 человек. Его подписали Маск, генеральный директор Stability AI Эмад Мостак, исследователи из принадлежащей Alphabet компании Stability AI. (GOOGL.O) DeepMind, а также тяжеловесы ИИ Йошуа Бенгио и Стюарт Рассел. Они призывают приостановить разработку передового ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами общие протоколы безопасности для таких разработок.
«Мощные системы ИИ должны разрабатываться только тогда, когда мы уверены, что их влияние будет положительным, а риски — управляемыми», — говорится в письме.
В письме также подробно описаны потенциальные риски для общества и цивилизации со стороны конкурирующих с человеком систем ИИ в виде экономических и политических потрясений, а также содержится призыв к разработчикам сотрудничать с политиками в вопросах управления и регулирования.
Письмо пришло в понедельник, когда полиция ЕС Европол присоединилась к группе этических и юридических опасений по поводу продвинутого ИИ, такого как ChatGPT, предупреждая о потенциальном использовании системы в попытках фишинга, дезинформации и киберпреступности. Маск, чей автопроизводитель Tesla (TSLA.O) использует ИИ для системы автопилота, открыто высказывал свои опасения по поводу ИИ.
С момента своего выпуска в прошлом году ChatGPT, разработанный OpenAI при поддержке Microsoft, побудил конкурентов ускорить разработку аналогичных больших языковых моделей, а компании — интегрировать генеративные модели ИИ в свои продукты.
Сэм Альтман, исполнительный директор OpenAI, не подписал письмо, сообщил агентству Reuters представитель компании Future of Life. OpenAI не сразу ответил на просьбу о комментарии.
«Письмо не идеально, но дух его верен: нам нужно притормозить, пока мы лучше не поймем последствия», — сказал Гэри Маркус, профессор Нью-Йоркского университета, подписавший письмо. «Они могут причинить серьезный вред… крупные игроки становятся все более скрытными в своих действиях, что затрудняет защиту общества от любого вреда, который может проявиться».
Читайте также:
- В 15 регионах Казахстана зафиксировано ускорение инфляции в феврале
- Marketing & Reputation Day 2025: Конференция о маркетинге и управлении репутацией в Алматы
- Завершилось голосование жюри премии Metaratings Top Awards 2025
- Бектенов представил Токаеву отчет о противопаводковых мероприятиях
- Несколько новых штрафов введут в Казахстане