Согласно опросу Reuters/Ipsos, многие работники в США обращаются к ChatGPT за помощью в решении базовых задач, несмотря на ограничения, введенные такими компаниями, как Microsoft и Google, передает Bizmedia.kz.
Вопрос о наилучшем использовании ChatGPT, программы-чатбота, использующей генеративный искусственный интеллект для общения с пользователями и отвечающей на множество запросов, активно обсуждается компаниями по всему миру. Тем не менее, фирмы и компании, занимающиеся вопросами безопасности, выражают опасения относительно возможных утечек интеллектуальной собственности и стратегий.
Анекдотические примеры использования ChatGPT в повседневной работе включают составление электронных писем, конспектирование документов и проведение предварительного исследования.
По данным онлайн-опроса, проведенного Reuters/Ipsos среди 2625 взрослых жителей США с 11 по 17 июля, около 28% респондентов заявили, что регулярно используют ChatGPT на работе, в то время как только 22% сообщили, что их работодатели прямо разрешают использование таких внешних инструментов.
Исследование имеет достоверность в интервале около 2 процентных пунктов. Более 10% опрошенных заявили, что их руководство запрещает использование внешних средств искусственного интеллекта, а примерно 25% не знают, разрешено ли использование таких технологий в их компаниях.
С момента запуска в ноябре ChatGPT стал самым быстрорастущим приложением в истории. Однако, он вызывает как восторг, так и тревогу, что привело к конфликтам разработчика OpenAI с регулирующими органами, особенно в Европе, где сбор массовых данных компанией стал предметом критики защитников конфиденциальности.
Также исследователи обнаружили, что люди из других компаний могут прочитать любые созданные чаты, и что аналогичный искусственный интеллект способен воспроизводить данные, которые он усвоил в процессе обучения, что создает потенциальный риск для конфиденциальной информации.
«Люди не осознают, как используются их данные при использовании генеративного искусственного интеллекта», — сказал Бен Кинг, вице-президент по работе с клиентами в компании Okta (OKTA.O), специализирующейся на корпоративной безопасности.
«Это очень важно для предприятий, поскольку с многими системами искусственного интеллекта пользователи не заключают контрактов, так как они являются бесплатными услугами. Поэтому корпорации не будут подвергать себя риску в рамках обычной процедуры оценки», — добавил Кинг.
OpenAI отказалась комментировать последствия использования ChatGPT индивидуальными сотрудниками, но отметила, что недавно в блоге компании было опубликовано заверение корпоративных партнеров о том, что их данные не будут использоваться для дальнейшего обучения чат-бота без прямого разрешения.
При использовании «Барда» Google собираются данные, такие как текст, местоположение и другая информация об использовании. Компания предоставляет возможность пользователям удалить прошлые действия из своих учетных записей и запрашивать удаление контента, передаваемого в ИИ. Компания Google, принадлежащая Alphabet (GOOGL.O), отказалась комментировать, когда ее попросили предоставить более подробную информацию.
Компания Microsoft (MSFT.O) пока не ответила на запрос о комментарии.
БЕЗОБИДНЫЕ ЗАДАЧИ
Один из сотрудников Tinder, работающий в США, утверждает, что сотрудники приложения для знакомств используют ChatGPT для «безобидных задач», таких как написание электронных писем, несмотря на то, что это неофициально запрещено в компании.
«Это обычные письма, несерьезные, например, забавные приглашения на командные мероприятия или прощальные письма, когда кто-то уходит… Мы также используем его для общих исследований», — сообщил сотрудник, отказавшийся назвать свое имя, так как не имел разрешения общаться с журналистами.
Согласно сотруднику, в Tinder существует «правило, запрещающее использование ChatGPT», но сотрудники все равно обходят это правило «в общих чертах, не раскрывая, что мы работаем в Tinder».
Reuters не смогла получить независимую информацию о том, как сотрудники Tinder используют ChatGPT. В компании Tinder заявили, что «регулярно предоставляют сотрудникам рекомендации по обеспечению безопасности и работы с данными».
В мае Samsung Electronics запретила сотрудникам использовать ChatGPT и аналогичные инструменты искусственного интеллекта после того, как один из сотрудников загрузил на платформу секретный код.
«Мы принимаем меры для создания безопасной среды использования генеративного ИИ, чтобы повысить производительность и эффективность сотрудников», — говорится в заявлении Samsung от 3 августа.
«Однако пока эти меры не будут готовы, мы временно ограничиваем использование генеративного ИИ на устройствах компании».
В июне Reuters сообщило, что Alphabet предупредила сотрудников о том, как использовать чат-боты, включая Google Bard, в то время как она активно продвигала эту программу на мировом рынке.
Представители Google заявили, что хотя Bard может предлагать нежелательные кодовые решения, он помогает программистам. Компания также подчеркнула свою стремление быть прозрачной в отношении ограничений своей технологии.
ЗАПРЕТ НА БЛАНКИ
Некоторые компании сообщили Reuters, что они используют ChatGPT и аналогичные платформы, при этом обеспечивая безопасность.
Представитель компании Coca-Cola из Атланты, штат Джорджия, сообщил, что они начали тестировать и изучать, как искусственный интеллект может повысить операционную эффективность. Он подчеркнул, что данные остаются в пределах брандмауэра. Корпоративная версия Coca-Cola ChatGPT была внедрена с целью повысить производительность и эффективность команды.
Финансовый директор компании Tate & Lyle, Доун Аллен, сообщила, что они также тестируют ChatGPT и находят способ его безопасного использования. Различные команды в настоящее время проводят эксперименты, чтобы определить, как они могут использовать эту платформу для работы с инвесторами и управления знаниями, а также для более эффективного выполнения задач.
Однако некоторые сотрудники компании Procter & Gamble (PG.N) сообщают, что они не могут получить доступ к платформе на своих компьютерах. Один из сотрудников заявил, что платформа полностью запрещена в офисной сети.
Пол Льюис, директор по информационной безопасности компании Nominet, отмечает важность осторожного подхода, поскольку информация не всегда полностью защищена и может быть сконструирована. Он считает, что полный запрет пока не оправдан, но необходимо принимать меры предосторожности.