Холдинговая компания Alphabet Inc, глядя на чат-бота, который «стер» 100 миллиардов долларов из ее рыночной стоимости, осознает, что возникла еще одна проблема для добавления генеративного искусственного интеллекта (ИИ) в свой популярный поиск Google — стоимость, сообщает Bizmedia.kz, ссылаясь на Reuters.
Расходы на ИИ
Руководители технологического сектора ищут способы, как сделать ИИ, такой как ChatGPT, и исключить при этом высокие расходы. Дико популярный чат-бот от OpenAI, который может составлять прозу и отвечать на поисковые запросы, имеет большие вычислительные затраты в пару или более центов за разговор, заявил в Twitter исполнительный директор стартапа Сэм Альтман.
В интервью председатель Alphabet Джон Хеннесси сказал Reuters, что запрос в ИИ, вероятно, стоит в 10 раз дороже, чем стандартный поиск по ключевым словам, хотя тонкая настройка поможет быстро сократить расходы.
Запросы станут очень дорогими
Даже с дохода от потенциальных поисковых объявлений на основе чат-бота, по словам аналитиков, технология может войти в нижнюю строку Alphabet с несколькими миллиардами долларов дополнительных затрат. При том, что ее чистая прибыль составила почти 60 миллиардов долларов в 2022 году.
Morgan Stanley подсчитал, что 3,3 триллиона поисковых запросов Google в прошлом году стоили примерно пятую часть цента каждый. Это число будет увеличиваться в зависимости от того, сколько текста должен генерировать ИИ. Google, например, может столкнуться с увеличением расходов на 6 миллиардов долларов к 2024 году, если ИИ, подобный ChatGPT, будет обрабатывать половину запросов, которые он получает, с ответами из 50 слов, прогнозируют аналитики. Google вряд ли понадобится чат-бот для обработки навигационных поисков таких сайтов, как Википедия.
Другие компании пришли к аналогичному ответу. Например, SemiAnalysis, исследовательская и консалтинговая фирма, специализирующаяся на технологии чипов, заявила, что добавление ИИ в стиле ChatGPT для поиска может стоить Alphabet 3 миллиарда долларов. Эта сумма ограничена собственными чипами Google под названием Tensor Processing Units или TPU, наряду с другими оптимизациями.
Что делает эту форму ИИ дороже, чем обычный поиск, так это вычислительная мощность. Такой ИИ зависит от миллиардов долларов, которые выливаются в чипы. Их стоимость должна быть распределена в течение их срока службы в несколько лет, говорят аналитики. Электричество также увеличивает затраты и давление на компании.
Как работает запрос ИИ и Google сейчас
Процесс обработки поисковых запросов на основе ИИ известен как «вывод», в котором «нейронная сеть», слабо смоделированная на биологии человеческого мозга, выводит ответ на вопрос из предыдущего обучения.
В традиционном поиске, напротив, веб-сканеры Google сканируют Интернет, чтобы составить индекс информации. Когда пользователь вводит запрос, Google предоставляет наиболее релевантные ответы, хранящиеся в индексе.
Alphabet принимает вызов
Alphabet сталкивается с давлением — и принимает вызов — несмотря на расходы. Ранее в этом месяце его конкурент Microsoft Corp провел громкое мероприятие в своей штаб-квартире в Редмонде, штат Вашингтон, чтобы продемонстрировать планы по внедрению технологии чата ИИ в свою поисковую систему Bing. При этом, топ-менеджеры нацелились на долю поискового рынка Google в 91%, по оценкам Similarweb.
Днем позже Alphabet рассказала о планах по улучшению своей поисковой системы, но рекламное видео чат-бота Bard показало, что система неточно отвечает на вопрос. Этот факт сократил рыночную стоимость компании на 100 миллиардов долларов.
Проблемы с ИИ
Позже привлекло пристальное внимание Microsoft, как сообщается, к тому, что ИИ делал угрозы или признавался в любви при тестировании пользователями. Компанию это побудило ограничить длительные сеансы чата, которые, по ее словам, «провоцировали» непреднамеренные ответы.
Финансовый директор Microsoft Эми Худ сказала аналитикам, что рост от привлечения пользователей и доходов от рекламы перевешивает расходы, поскольку новый Bing доступен для миллионов потребителей.
А другой конкурент Google, и ее генеральный директор поисковой системы You.com Ричард Сочер, сказал, что добавление опыта чата ИИ, а также приложений для диаграмм, видео и других генеративных технологий увеличило расходы от 30% до 50%.
Неизвестно, сколько боты с ИИ будут стоить
Источник, близкий к Google, предупредил, что еще рано точно определять, сколько могут стоить чат-боты, потому что эффективность их использования широко варьируется в зависимости от используемой технологии, а ИИ уже поддерживает такие продукты, как поиск.
Тем не менее, оплата счета является одной из двух основных причин, по которым гиганты поиска и социальных сетей, а также миллионы пользователей не развернули чат-бота ИИ в одночасье, сказал Пол Догерти, главный технический директор Accenture.
Заставить математику работать
В течение многих лет исследователи из Alphabet и других корпорации изучали, как обучать и запускать большие языковые модели дешевле.
Более крупные модели требуют больше чипов для вывода и, следовательно, это стоит дороже. ИИ, который ослепляет потребителей своей человекоподобной властью, раздулся в размерах, достигнув 175 миллиардов так называемых параметров или различных значений, которые учитывают алгоритм модели OpenAI, обновленной в ChatGPT. Стоимость также варьируется в зависимости от длины запроса пользователя, измеряемой в «токенах» или фрагментах слов.
Один высокопоставленный технический руководитель сказал Reuters, что такой ИИ остается непомерно дорогостоящим, чтобы отдать его в руки миллионов потребителей.
В OpenAI нашли, как сделать чат-бота дешевле
На данный момент компьютерные ученые в OpenAI выяснили, как оптимизировать затраты на вывод с помощью сложного кода, который делает чипы более эффективными, сказал специалист компании. Однако представитель OpenAI не ответил на запрос.
Более долгосрочный вопрос заключается в том, как сократить количество параметров в модели ИИ в 10 или даже 100 раз, не теряя точности.
«Как отбирать параметры наиболее эффективно — все еще открытый вопрос», — сказал Навин Рао, который ранее руководил усилиями Intel Corp по чипам ИИ, а теперь работает над снижением затрат на вычисления ИИ в своем стартапе MosaicML.
В то же время некоторые рассматривают возможность взимания платы за доступ для улучшения сервиса ChatGPT, например, подписка OpenAI на 20 долларов в месяц. Эксперты по технологиям также заявили, что обходным путем можно использовать небольшие модели ИИ по простым задачам. Их сейчас и изучает Alphabet.
В этом месяце компания заявила, что «уменьшенная модель» ее массивной технологии LaMDA AI будет питать ее чат-бота Bard, требуя «значительно меньше вычислительной мощности, что позволит масштабироваться для большего количества пользователей».
Отвечая на вопрос о чат-ботах, таких как ChatGPT и Bard, Хеннесси сказал на конференции под названием TechSurge на прошлой неделе, что более целенаправленные модели, а не одна система, делающая все, помогут «укротить стоимость».