САН-ФРАНЦИСКО (Рейтер) — Alphabet Inc (GOOGL.O) предупреждает сотрудников о том, как они используют свои чат-боты, включая Bard, в то же время продавая программное обеспечение по всему миру, по словам четырех человек, знакомых с этим вопросом. . Рейтер.
Материнская компания Google посоветовала сотрудникам не вводить свои конфиденциальные материалы в умные чат-боты, сообщили люди, и компания подтвердила это, сославшись на давнюю политику защиты информации.
Чат-боты, в том числе Bard и ChatGPT, представляют собой человекоподобные программы, которые используют так называемый генеративный искусственный интеллект для общения с пользователями и ответов на бесчисленные запросы. Люди-рецензенты могут читать чаты и Исследователи обнаружили Подобный ИИ может воспроизводить данные, полученные им во время обучения, что приводит к риску утечки.
Некоторые люди говорят, что Alphabet также предупредила своих инженеров, чтобы они избегали прямого использования компьютерного кода, который могут генерировать чат-боты.
На вопрос о комментариях компания заявила, что Bard может вносить незапрошенные предложения по коду, но, тем не менее, это помогает программистам. Google также заявил, что стремится быть прозрачным в отношении ограничений своей технологии.
Опасения показывают, как Google хочет избежать вреда для бизнеса от программ, которые он запустил для конкуренции с ChatGPT. На карту в гонке Google против сторонников ChatGPT OpenAI и Microsoft Corp (MSFT.O) стоят миллиарды долларов инвестиций и все еще неисчислимые доходы от рекламы и облачных вычислений от нового программного обеспечения ИИ.
Предупреждение Google также отражает то, что стало стандартом безопасности для компаний, предостерегая людей от использования общедоступных чат-ботов.
Все большее число компаний по всему миру устанавливают брандмауэры для интеллектуальных чат-ботов, сообщили Reuters компании, в том числе Samsung (005930.KS), Amazon.com (AMZN.O) и Deutsche Bank (DBKGn.DE). Сообщается, что Apple (AAPL.O), которая не ответила на запросы о комментариях, также сделала это.
Согласно опросу почти 12 000 респондентов, в том числе из крупных американских компаний, проведенному сетевым сайтом Fishbowl, по состоянию на январь около 43% профессионалов использовали ChatGPT или другие инструменты искусственного интеллекта, часто не сообщая об этом своему начальству.
К февралю Google попросила сотрудников, тестирующих Bard перед его запуском, не предоставлять инсайдерскую информацию. я упомянул внутри. Теперь Google запускает Bard более чем в 180 странах и на 40 языках в качестве трамплина для творчества, и его предостережения распространяются на его предложения по коду.
Google сообщил агентству Reuters, что провел подробные переговоры с Комиссией по защите данных Ирландии, поскольку она отвечает на вопросы регулирующих органов после сообщения Politico во вторник о том, что компания откладывает запуск Bard в ЕС на этой неделе в ожидании получения дополнительной информации о влиянии чат-бота на конфиденциальность.
Опасения по поводу конфиденциальной информации
Такая технология может создавать электронные письма, документы и даже сами программы, обещая экспоненциальное ускорение выполнения задач. Однако этот контент может содержать ложную информацию, конфиденциальные данные или даже отрывки из романа «Гарри Поттер», защищенные авторским правом.
В уведомлении о конфиденциальности Google, обновленном 1 июня, также говорится: «Не включайте конфиденциальную или конфиденциальную информацию в свои разговоры с Bard».
Некоторые компании разработали программное обеспечение для решения таких проблем. Например, Cloudflare (NET.N), защищающий веб-сайты от кибератак и предлагающий другие облачные сервисы, продает возможности компаний помечать и ограничивать утечку определенных данных.
Google и Microsoft также предлагают диалоговые инструменты для бизнес-клиентов, которые берут более высокую цену, но воздерживаются от ввода данных в общие модели ИИ. По умолчанию в Bard и ChatGPT сохраняется история чатов пользователей, которую пользователи могут удалить.
Юсеф Махди, директор по потребительскому маркетингу Microsoft, сказал, что «имеет смысл» то, что компании не хотят, чтобы их сотрудники использовали общедоступные чат-боты на работе.
«Компании должным образом придерживаются консервативной точки зрения», — сказал Мехди, объясняя, как бесплатный чат-бот Microsoft Bing сравнивается с корпоративным программным обеспечением. «Там наша политика намного строже».
Microsoft отказалась комментировать, существует ли полный запрет на ввод конфиденциальной информации сотрудниками в общедоступные программы искусственного интеллекта, в том числе в ее собственные, хотя другой руководитель сообщил Reuters, что лично ограничил ее использование.
По словам генерального директора Cloudflare Мэтью Принса, записывать конфиденциальные вопросы в чат-боты было все равно, что «забрасывать кучу аспирантов в свои личные записи».
Репортаж Джеффри Дастина и Анны Тонг в Сан-Франциско. Редактирование Кеннета Ли и Ника Зимински.
Наши стандарты: Принципы доверия Thomson Reuters.
«Наркоман поп-культуры. Поклонник телевидения. Ниндзя алкоголика. Абсолютный фанат пива. Профессиональный знаток твиттера».
More Stories
Крупнейшая в Америке компания по водоснабжению и водоотведению борется с кибератаками
Аналитики рассуждают, чего ожидать
Лучшие предложения, которые мы можем найти во время октябрьских дней больших сделок.