OpenAI, американская компания, провела обновление правил использования своего AI-чат-бота, ChatGPT, убрав прямое ограничение на использование своей технологии в военных целях, как замечено изданием The Intercept, передает Bizmedia.kz.
До 10 января старая версия директив OpenAI запрещала использование AI для «деятельности, связанной с высоким риском физического вреда», включая «разработку оружия» и «военные действия». Это ограничение исключало возможность использования ChatGPT армейскими и другими военизированными государственными организациями.
Однако, в обновленной версии правил, произошло смягчение ограничений. Теперь запрещено использовать технологии OpenAI для причинения вреда, включая создание или использование оружия, но запрет на использование в армиейской сфере и военных делах удален. Представители OpenAI пояснили, что изменения в правилах использования ChatGPT были сделаны с целью упрощения набора правил и принципов.
Представители OpenAI уточнили, что «любое использование наших технологий, включая военное, для ‘[разработки] или [использования] оружия, [причинения вреда] другим людям или [уничтожения] собственности’ или [участие] в несанкционированной деятельности, нарушающей безопасность любой службы или системы, запрещено».
Эксперты, опрошенные изданием, отмечают, что OpenAI, кажется, идет навстречу Пентагону и американскому разведывательному сообществу.
«Похоже, что новая политика использования ChatGPT старается избегать ассоциаций с военными контрактами и боевыми операциями, особое внимание уделяется оружию», — заявила профессор Ланкастерского университета и член Международного комитета по контролю над роботизированным вооружением, Люси Сучман.
По мнению специалистов, даже если ChatGPT не будет прямо задействован в боевых операциях, его работа поможет военным решать задачи, связанные с военными действиями и применением насилия.