Авторы изображений: Оливье Даульери/AFP/Getty Images
OpenAI сталкивается с еще одной жалобой на конфиденциальность в Европейском Союзе. Это дело было возбуждено некоммерческой организацией, занимающейся правами на неприкосновенность частной жизни. нойб От имени отдельного заявителя он критикует неспособность чат-бота ChatGPT с искусственным интеллектом исправлять дезинформацию, которую он генерирует о отдельных лицах.
Тенденция инструментов GenAI выдавать ложную информацию хорошо документирована. Но это также ставит технологию в противоречие с Общим регламентом защиты данных блока (GDPR), который регулирует обработку персональных данных региональных пользователей.
Штрафы за несоблюдение GDPR могут составлять до 4% от общего объема мировых годовых продаж. Что еще более важно для такого богатого ресурсами гиганта, как OpenAI: регуляторы защиты данных могут потребовать изменения в способах обработки информации, поэтому введение GDPR может изменить то, как работают генеративные инструменты искусственного интеллекта в ЕС.
OpenAI уже была вынуждена внести некоторые изменения после раннего вмешательства итальянского управления по защите данных, которое ненадолго заставило ChatGPT закрыть локально в 2023 году.
Теперь noyb подал свою последнюю жалобу GDPR на ChatGPT в Австрийское управление по защите данных от имени неназванного заявителя (описанного как «общественный деятель»), который обнаружил, что их чат-бот на базе искусственного интеллекта предоставил ему неправильную дату рождения.
В соответствии с Общим положением о защите данных люди в ЕС имеют ряд прав, связанных с информацией о них, включая право на исправление неточных данных. Noyb утверждает, что OpenAI не выполняет это обязательство в отношении результатов своего чат-бота. Она рассказала, что компания отклонила просьбу заявителя исправить неверную дату рождения, посчитав исправить ее технически невозможным.
Вместо этого он предлагал фильтровать или блокировать данные на основе определенных запросов, таких как имя заявителя.
ОпенАИ политика конфиденциальности В нем говорится, что пользователи, заметившие, что их чат-бот с искусственным интеллектом сгенерировал «неточную информацию о вас», могут отправить «запрос на исправление» через Privacy.openai.com Или по электронной почте [email protected]. Однако в этой строке он делает оговорку: «Из-за технической сложности работы наших моделей мы не всегда сможем исправить неточности».
В этом случае OpenAI предлагает пользователям запросить полное удаление их личной информации из вывода ChatGPT — заполнив форму. Веб-форма.
Проблема ИИ-гиганта в том, что его права GDPR не являются избирательными. Люди в Европе имеют право просить исправления. Они также имеют право потребовать удаления своих данных. Но, как указывает Ноиб, OpenAI не имеет права выбирать ни одно из этих доступных прав.
Другие элементы жалобы касаются проблем прозрачности GDPR: Noib утверждает, что OpenAI не может определить источник данных, которые он генерирует о людях, а также данных, которые чат-бот хранит о людях.
Это важно, поскольку Регламент опять-таки дает физическим лицам право запрашивать такую информацию путем подачи так называемого запроса на доступ к субъекту (SAR). Однако OpenAI не отреагировала должным образом на SAR заявителя и не раскрыла никакой информации об обработанных данных, их источниках или получателях.
Комментируя жалобу в своем заявлении, Маартье де Грааф, юрист по защите данных в noyb, сказал: «Придумывание ложной информации само по себе является большой проблемой. Но когда дело касается ложной информации о людях, это может иметь серьезные последствия. ясно, что компании в настоящее время не могут заставить чат-ботов, таких как ChatGPT, соответствовать законодательству ЕС: при обработке данных о физических лицах, если система не может давать точные и прозрачные результаты, ее нельзя использовать для генерации данных о физических лицах. Технология должна соответствовать требованиям законодательства, а не требованиям законодательства. наоборот.
Компания заявила, что просит австрийское DPA расследовать жалобу на обработку данных OpenAI, а также призывает наложить штраф для обеспечения соблюдения требований в будущем. Но она добавила, что «вероятно», что этот вопрос будет решен посредством сотрудничества с Европейским Союзом.
OpenAI сталкивается с очень похожей жалобой в Польше. В сентябре прошлого года местный орган по защите данных начал расследование в отношении ChatGPT после жалобы исследователя конфиденциальности и безопасности, который также был признан неспособным исправить неверную информацию о нем OpenAI. В этой жалобе ИИ-гигант также обвиняется в несоблюдении требований прозрачности, изложенных в постановлении.
Между тем, Управление по защите данных Италии все еще проводит открытое расследование в отношении ChatGPT. В январе компания опубликовала проект решения, в котором говорилось, что, по ее мнению, OpenAI нарушила GDPR несколькими способами, в том числе в отношении склонности чат-бота предоставлять вводящую в заблуждение информацию о людях. Выводы также касаются других существенных вопросов, таких как законность лечения.
Итальянские власти дали OpenAI месяц на то, чтобы отреагировать на свои выводы. Окончательное решение еще не принято.
Теперь, когда в чат-боте была подана еще одна жалоба на GDPR, риск того, что OpenAI столкнется с рядом мер по обеспечению соблюдения GDPR в разных государствах-членах, увеличился.
Осенью прошлого года компания открыла региональный офис в Дублине, что, по-видимому, направлено на снижение регуляторных рисков за счет перенаправления жалоб на конфиденциальность со стороны Ирландской комиссии по защите данных благодаря механизму GDPR, направленному на упрощение трансграничного надзора за жалобы. Направляя их в один орган власти государства-члена, где компания является «основным предприятием».
More Stories
Решение Банка Японии, PMI Китая, прибыль Samsung
Илон Маск купил жилой комплекс в Техасе для своих детей и их матерей: отчет
Starbucks пытается восстановиться после падения продаж в США на 6%: NPR