ЛОНДОН/ВАШИНГТОН, 11 августа (Рейтер) — Многие работники в Соединенных Штатах обращаются к ChatGPT за помощью в решении важных задач, показал опрос Reuters/Ipsos, несмотря на опасения, которые вынуждают таких работодателей, как Microsoft и Google, ограничивать его, а не использовать.
Компании по всему миру изучают, как наилучшим образом использовать ChatGPT, чат-бота, который использует генеративный ИИ для общения с пользователями и ответов на бесчисленные запросы. Однако охранные фирмы и фирмы выразили обеспокоенность тем, что это может привести к утечке интеллектуальной собственности и стратегии.
Неподтвержденные примеры людей, использующих ChatGPT для помощи в своей повседневной работе, включают составление электронных писем, реферирование документов и проведение предварительных исследований.
Около 28% респондентов онлайн-опроса по искусственному интеллекту (ИИ) в период с 11 по 17 июля заявили, что регулярно используют ChatGPT на работе, и только 22% заявили, что их работодатели явно разрешают такие сторонние инструменты.
Опрос Reuters/Ipsos, в котором приняли участие 2625 взрослых жителей США, имел интервал достоверности, меру точности, около двух процентных пунктов.
Около 10% опрошенных заявили, что их начальство прямо запрещало сторонние инструменты искусственного интеллекта, а около 25% не знали, разрешает ли их компания использовать эту технологию.
ChatGPT стал самым быстрорастущим приложением в истории после его запуска в ноябре. Это вызвало как волнение, так и тревогу, в результате чего разработчик OpenAI вступил в конфликт с регулирующими органами, особенно в Европе, где массовый сбор данных компанией вызвал критику со стороны наблюдателей за конфиденциальностью.
Люди-рецензенты из других компаний могут читать любые сгенерированные чаты, и исследователи обнаружили, что аналогичный ИИ может воспроизводить данные, которые он получил во время обучения, создавая потенциальный риск для конфиденциальной информации.
«Люди не понимают, как используются данные, когда они используют сервисы генеративного ИИ, — сказал Бен Кинг, вице-президент по доверию клиентов в фирме по корпоративной безопасности Okta (OKTA.O).
«Для компаний это имеет решающее значение, потому что у пользователей нет контракта со многими системами ИИ — потому что это бесплатная услуга — поэтому компании не будут подвергаться рискам в ходе обычного процесса оценки», — сказал Кинг.
OpenAI отказался комментировать, когда его спросили о последствиях использования ChatGPT отдельными сотрудниками, но подчеркнул недавнее сообщение в блоге компании, заверяющее партнеров компании, что их данные не будут использоваться для дальнейшего обучения чат-бота, если они не дадут явного разрешения.
Когда люди используют Google Bard, он собирает такие данные, как текст, местоположение и другую информацию об использовании. Компания позволяет пользователям удалять прошлые действия из своих учетных записей и запрашивать удаление контента, который загружается в ИИ. Компания Google, принадлежащая Alphabet (GOOGL.O), отказалась от комментариев, когда ее попросили предоставить более подробную информацию.
Microsoft (MSFT.O) не сразу ответила на запрос о комментарии.
безобидные задачи
Сотрудник Tinder в США сказал, что сотрудники приложения для знакомств использовали ChatGPT для «безобидных задач», таких как написание электронных писем, хотя компания официально не разрешает это.
сказал сотрудник, который отказался назвать свое имя, потому что он не был уполномочен говорить с журналистами.
Сотрудник сказал, что в Tinder есть «правило No ChatGPT», но сотрудники по-прежнему используют его «в общем, что ничего не говорит о нашем присутствии в Tinder».
Reuters не смогло независимо подтвердить, как сотрудники Tinder используют ChatGPT. Tinder заявил, что предоставляет «регулярные рекомендации сотрудникам по безопасности и передовым методам работы с данными».
В мае Samsung Electronics запретила сотрудникам во всем мире использовать ChatGPT и аналогичные инструменты искусственного интеллекта после того, как было обнаружено, что один из сотрудников загрузил на платформу конфиденциальный код.
«Мы рассматриваем меры по созданию безопасной среды для генеративного использования искусственного интеллекта, повышающего производительность и эффективность сотрудников», — говорится в заявлении Samsung от 3 августа.
«Однако, пока эти меры не будут приняты, мы временно ограничиваем использование генеративного ИИ на устройствах компании».
Агентство Reuters сообщило в июне, что Alphabet предупредила сотрудников о том, как они используют программное обеспечение для чата, включая Google Bard, в то же время продвигая это программное обеспечение по всему миру.
В Google заявили, что, хотя Bard может вносить незапрошенные предложения по коду, он действительно помогает программистам. Он также заявил, что стремится быть прозрачным в отношении ограничений своей технологии.
Бан одеяло
Некоторые компании сообщили Reuters, что они используют ChatGPT и аналогичные платформы с учетом требований безопасности.
«Мы начали тестирование и изучение того, как ИИ может повысить эффективность работы», — сказал представитель Coca-Cola в Атланте, штат Джорджия, добавив, что данные остаются внутри его брандмауэра.
«Внутренне мы недавно запустили нашу корпоративную версию Coca-Cola ChatGPT для повышения производительности», — сказал представитель компании, добавив, что Coca-Cola планирует использовать искусственный интеллект для повышения эффективности и производительности своих команд.
Тем временем финансовый директор Tate & Lyle (TATE.L) Дон Аллен сообщил агентству Reuters, что глобальный производитель компонентов тестирует ChatGPT после того, как «нашел способ использовать его безопасным образом».
«У нас есть разные команды, которые решают, как они хотят использовать его, посредством серии экспериментов. Должны ли мы использовать его в отношениях с инвесторами? Должны ли мы использовать его в управлении знаниями? Как мы можем использовать его для более эффективного выполнения задач?»
Некоторые сотрудники говорят, что вообще не могут получить доступ к платформе на компьютерах компании.
«Это полностью запрещено для офисной сети, потому что она не работает», — сказал сотрудник Procter & Gamble (PG.N), пожелавший остаться неизвестным, поскольку он не уполномочен общаться с прессой.
Procter & Gamble отказалась от комментариев. Reuters не смогло независимо подтвердить, что сотрудники P&G не могут использовать ChatGPT.
Пол Льюис, директор по информационной безопасности компании Nominet, занимающейся кибербезопасностью, сказал, что компании были правы, проявляя осторожность.
«Все получают выгоду от этой расширенной возможности, но информация не является полностью защищенной и может быть изменена», — сказал он, сославшись на «злонамеренные заявления», которые могут быть использованы для того, чтобы чат-боты с искусственным интеллектом раскрывали информацию.
«Полный запрет еще не оправдан, но нам нужно действовать осторожно», — сказал Льюис.
Дополнительные отчеты Ричи Найду, Мартина Коултера и Джейсона Ланга; Под редакцией Александра Смита
Наши стандарты: Принципы доверия Thomson Reuters.
More Stories
Решение Банка Японии, PMI Китая, прибыль Samsung
Илон Маск купил жилой комплекс в Техасе для своих детей и их матерей: отчет
Starbucks пытается восстановиться после падения продаж в США на 6%: NPR