21 мая, 2024

Orsk.today

Будьте в курсе последних событий в России благодаря новостям Орска, эксклюзивным видеоматериалам, фотографиям и обновленным картам.

«60 Minutes» сделали шокирующе ложное заявление о чат-боте Google AI.

«60 Minutes» сделали шокирующе ложное заявление о чат-боте Google AI.

С тех пор, как OpenAI выпустил ChatGPT в мир, мы видели, как он принимает людей, которым вы не поверите. Некоторые люди утверждают, что у чат-ботов есть пробужденная повестка дня. Сенатор США Крис Мерфи написал в Твиттере, что ChatGPT «обучил» себя продвинутой химии. Даже опытные технические журналисты писали истории о том, как это работает. Чат-бот влюбился в них. Кажется, что мир реагирует на ИИ так же, как пещерные люди, вероятно, реагировали, когда впервые увидели огонь: полной растерянностью и бессвязным лепетом.

Один из самых свежих примеров взят из 60 минут, который бросил свой голос на ринг с новым эпизодом, посвященным инновациям в области искусственного интеллекта, который транслировался в воскресенье на канале CBS. В эпизоде ​​были интервью с такими людьми, как Сундар Пичаи, генеральный директор Google, и содержался сомнительный контент. Заявления об одной из больших языковых моделей компании (LLM).

Сегмент посвящен эмерджентному поведению, которое описывает неожиданный побочный эффект системы ИИ, который не обязательно был задуман разработчиками модели. Мы уже видели появление нового поведения в других недавних проектах ИИ. Например, исследователи недавно использовали ChatGPT для создания цифровых персонажей с целями и предысторией в исследовании, опубликованном онлайн на прошлой неделе. Они отмечают, что система выполняет различные эмерджентные действия, такие как обмен новой информацией от одного персонажа к другому и даже формирование отношений друг с другом — то, что авторы изначально не планировали для системы.

Возникающее поведение, безусловно, достойная тема для обсуждения в новостной программе. где 60 минут Тем не менее, видео меняется, когда мы узнаем об утверждениях о том, что чат-бот Google действительно смог выучить язык, которого он раньше не знал, после того, как его спросили на этом языке. «Например, одна программа искусственного интеллекта Google адаптировалась самостоятельно после того, как ей сказали сделать это на языке Бангладеш, который она не знала», — сказал в видео репортер CBS News Скотт Пелли.

READ  Чат-бот Google Bard получил серьезное обновление с помощью Gemini, модели искусственного интеллекта Google следующего поколения.

Оказывается, она была полной чушью. Робот не только не мог выучить иностранный язык, который он «никогда не учил», но и никогда не научился новому навыку. Весь клип побудил исследователей и экспертов в области искусственного интеллекта раскритиковать вводящее в заблуждение оформление новостного шоу в Твиттере.

«Я, конечно, надеюсь, что некоторые журналисты рассмотрят весь сегмент @60Minute на Google Bard как пример того, как *не* освещать ИИ», — сказала Мелани Митчелл, исследователь ИИ и профессор Института Санта-Фе. он написал в твиттере.

«Перестаньте думать о технологиях как о чем-то магическом! ИИ не может отвечать на бенгальском языке, если только обучающие данные не были загрязнены бенгали или не обучены языку, который пересекается с бенгальским, например, ассамскому, ория или хинди», — сказала г-жа. Алекс О. научный сотрудник Массачусетского технологического института, Добавлено в другом посте.

Стоит отметить 60 минут В ролике не сказано, какой именно ИИ они использовали. Однако представитель CBS сообщил The Daily Beast, что в этом сегменте речь шла не о Барде, а об отдельной программе искусственного интеллекта под названием PaLM, основная технология которой позже была интегрирована в Барда.

Причина, по которой эта часть так разочаровала этих экспертов, заключается в том, что она игнорирует и играет с реальностью того, что на самом деле может сделать генеративный ИИ. Он не может «научить» себя языку, если у него изначально нет к нему доступа. Это было бы похоже на попытку выучить китайский язык, но вы услышали это только после того, как кто-то однажды спросил вас о китайском языке.

В конце концов, язык невероятно сложен — с нюансами и правилами, которые требуют невероятной степени контекста для понимания и общения. Даже самый продвинутый LLM не сможет справиться и изучить все это с помощью нескольких подсказок.

READ  Порт iPhone 15 USB-C имеет ограничение скорости для несертифицированных кабелей.

PaLM уже обучен бенгали, доминирующему языку Бангладеш. Маргарет Митчелл (не родственница), исследователь Startup Lab в AT HuggingFace и ранее в Google, объяснила это в Твитнуть тему Аргументируйте, почему 60 минут был неправ.

Митчелл отметил, что на демонстрации 2022 года Google показала, что PaLM может общаться и отвечать на подсказки на бенгальском языке. в Бумага за PaLM В таблице данных указано, что модель фактически была обучена языку с примерно 194 миллионами символов в бенгальском алфавите.

Так что он не узнал ничего волшебным образом с помощью одной подсказки. Он уже знал язык.

Непонятно, почему Пичаи, генеральный директор Google, сел на интервью и позволил этим обвинениям остаться без сопротивления. (Google не ответил на запросы о комментариях.) С момента выхода эпизода в эфир он хранил молчание, несмотря на то, что эксперты указывали на вводящие в заблуждение и ложные заявления, сделанные в клипе. В Твиттере Маргарет Митчелл Предложение Причиной этого может быть сочетание того, что лидеры Google не знают, как работают их продукты, а также то, что это позволяет распространять плохие сообщения, чтобы развеять текущую шумиху вокруг генеративного ИИ.

«Я подозреваю [Google executives] Я буквально не понимаю, как это работает, Митчелл. чирикать. «То, что я написал выше, скорее всего, является для них новостью. И они мотивированы не понимать (ПОСМОТРИТЕ СВОИМИ ГЛАЗАМИ В ЭТОТ ТЕХНИЧЕСКИЙ ЛИСТ!!)».

Вторую половину видео также можно рассматривать как проблематичную, поскольку Пичаи и Билли обсуждают рассказ, созданный Бардом, который «звучал очень по-человечески», оставив двух мужчин несколько потрясенными.

Правда в том, что эти продукты не волшебные. Они не могут быть «людьми», потому что они не люди. Это текстовые предикторы, подобные тем, что есть в вашем телефоне, обученные придумывать наиболее вероятные слова и фразы после ряда слов во фразах. Сказать, что они существуют, может дать им уровень силы, который может быть невероятно опасным.

READ  Apple наконец-то продает наушники EarPods USB-C

В конце концов, пользователи могут использовать эти генеративные системы искусственного интеллекта, например, для распространения дезинформации. Мы уже видели, как это манипулирует внешностью людей и даже их голосами.

Даже чат-бот сам по себе может причинить вред, если в конечном итоге даст предвзятые результаты — это мы уже видели с такими программами, как ChatGPT и Bard. Зная склонность этих чат-ботов к галлюцинациям и фабрикации результатов, они могут распространять дезинформацию среди ничего не подозревающих пользователей.

Это подтверждают и исследования. Недавнее исследование Опубликовано в Научные отчеты Он обнаружил, что на ответы людей на этические вопросы могут легко повлиять аргументы, выдвинутые ChatGPT, и даже то, что пользователи сильно недооценивают, насколько сильно на них влияют боты.

Ложные утверждения о 60 минут На самом деле это просто симптом большей потребности в цифровой грамотности в то время, когда мы в ней больше всего нуждаемся. Многие эксперты по ИИ говорят, что сейчас, как никогда ранее, людям необходимо знать, что ИИ может, а что нет. Эти основные факты о робототехнике также должны быть эффективно доведены до широкой общественности.

Это означает, что люди с самыми большими платформами и самыми громкими голосами (такие как СМИ, политики и руководители крупных технологических компаний) несут наибольшую ответственность за обеспечение более безопасного и более образованного будущего ИИ. Если мы этого не сделаем, мы можем закончить, как вышеупомянутые пещерные люди, играющие с магией огня и обгоревшие в процессе.