Alphabet Inc (GOOGL.O) предупреждает сотрудников о том, чтобы они были внимательны при использовании чат-ботов, включая свой собственный Bard, в рамках расширения программы по всему миру, сообщили четыре источника, знакомых с ситуацией, агентству Reuters, передает Bizmedia.kz.
Материнская компания Google рекомендовала сотрудникам не вводить конфиденциальную информацию в чат-боты на базе искусственного интеллекта (ИИ), подтвердила компания, ссылаясь на свою давнюю политику по защите данных.
Чат-боты, включая Bard и ChatGPT, представляют собой программы, которые с помощью генеративного искусственного интеллекта имитируют человеческие разговоры и предоставляют ответы на различные запросы. Поскольку эти чат-боты могут усваивать информацию во время обучения, существует риск утечки данных, что было обнаружено исследователями, которые проанализировали диалоги. Эти беседы также могут быть прочитаны людьми, которые выполняют задачи рецензирования.
Кроме того, Alphabet предупредила своих инженеров о том, что они должны избегать прямого использования компьютерного кода, который может быть создан чат-ботами, подтвердили некоторые источники.
По просьбе прокомментировать ситуацию компания ответила, что Bard может предложить нежелательный код, но тем не менее он помогает программистам. Google также заявила, что стремится быть прозрачной в отношении ограничений своей технологии.
Эти опасения показывают, как Google стремится избежать ущерба для своего бизнеса от программного обеспечения, которое конкурирует с ChatGPT. В этой гонке между Google и сторонниками ChatGPT — OpenAI и Microsoft Corp (MSFT.O) — на кону стоят миллиарды долларов инвестиций и огромные доходы от рекламы и облачных вычислений, связанные с новыми программами искусственного интеллекта.
Предупреждение Google также отражает стандарт безопасности, который становится все более распространенным среди корпораций, а именно предупреждение сотрудников об использовании общедоступных чат-программ.
Растущее количество компаний по всему миру вводят ограничения на использование чат-ботов на базе искусственного интеллекта, включая Samsung (005930.KS), Amazon.com (AMZN.O) и Deutsche Bank (DBKGn.DE), сообщили представители этих компаний агентству Reuters. По информации, Apple (AAPL.O) также не использует чат, но не ответила на запрос о комментарии.
Согласно данным опроса, в котором приняли участие почти 12 000 респондентов, включая сотрудников ведущих американских компаний, проведенного на сайте Fishbowl, около 43% специалистов использовали ChatGPT и другие инструменты искусственного интеллекта в январе, часто не информируя об этом своих начальников.
В февраля Google попросил своих сотрудников, которые тестировали Bard перед его запуском, не передавать внутреннюю информацию о нем, сообщает Insider. Теперь Google предоставляет доступ к Bard в более чем 180 странах и на 40 языках в качестве платформы для творчества, и его предупреждения относятся к предложениям кода.
Google сообщил агентству Reuters, что провел подробные переговоры с Комиссией по защите данных Ирландии и отвечает на вопросы регуляторов после того, как во вторник издание Politico сообщило, что компания откладывает запуск Bard в Европейском союзе на этой неделе, в ожидании дополнительной информации о влиянии чат-бота на конфиденциальность.
БЕСПОКОЙСТВО ПО ПОВОДУ КОНФИДЕНЦИАЛЬНОЙ ИНФОРМАЦИИ
Такая технология может использоваться для создания электронных писем, документов и даже программного обеспечения, обещая существенно ускорить выполнение задач. Однако в такой контент может быть включена дезинформация, конфиденциальные данные или даже защищенные авторским правом отрывки из романа «Гарри Поттер».
Обновленное уведомление Google о конфиденциальности от 1 июня также содержит следующую фразу: «Не включайте конфиденциальную или секретную информацию в свои разговоры с помощью Барда».
Некоторые компании разработали программное обеспечение для решения подобных проблем. Например, компания Cloudflare (NET.N), которая обеспечивает защиту веб-сайтов от кибератак и предлагает другие облачные услуги, предлагает предприятиям возможность помечать и ограничивать передачу определенных данных извне.
Google и Microsoft также предлагают своим бизнес-клиентам инструменты для общения, которые будут иметь более высокую стоимость, но не будут использовать данные в публичных моделях искусственного интеллекта. По умолчанию Bard и ChatGPT сохраняют историю разговоров пользователей, которую пользователи могут удалить.
«Логично», — отметил Юсуф Мехди, директор по маркетингу потребительских товаров в Microsoft, что компании не желают, чтобы их сотрудники использовали общедоступные чат-боты для работы.
«Компании занимают довольно консервативную позицию», — пояснил Мехди, сравнивая бесплатный чат-бот Bing от Microsoft с корпоративным программным обеспечением. «В нашей политике это намного строже».
Microsoft отказалась комментировать, существует ли полный запрет на ввод конфиденциальной информации сотрудниками в общедоступные программы искусственного интеллекта, включая собственные продукты. Однако один из руководителей компании заявил Reuters, что лично ограничивает их использование.
Мэтью Принс, генеральный директор компании Cloudflare, отметил, что ввод конфиденциальных данных в чат-боты эквивалентен «доверить свои личные дела группе студентов-аспирантов».
Читайте также:
- Юношеский чемпионат Азии пройдет в Казахстане
- Курсы валют на 22 декабря в обменных пунктах Алматы и Астаны
- Избиение медработника в Костанае: Минздрав обещает не оставить инцидент без внимания
- Погода в Казахстане на 22 декабря: штормовые предупреждения
- Касым-Жомарт Токаев выразил соболезнование Франку-Вальтеру Штайнмайеру