В конце марта более 1000 технологических лидеров, исследователей и других экспертов, работающих с искусственным интеллектом и связанных с ним, подписали открытое письмо с предупреждением о том, что технологии ИИ представляют «серьезную опасность для общества и человечества».
Группа, в которую входил Илон Маск, генеральный директор Tesla и владелец Twitter, призвала лаборатории искусственного интеллекта приостановить разработку своих самых мощных систем на шесть месяцев, чтобы они могли лучше понять риски, связанные с технологией.
«Сильные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными и что их риски можно контролировать», — говорится в письме.
Письмо, которое сейчас собрало более 27 000 подписей, было кратким. Ее язык был широким. И некоторые из имен, стоящих за письмом, похоже, имеют двойственное отношение к ИИ.Г-н Маск, например, строит свою собственную компанию по искусственному интеллекту и является крупным спонсором организации, написавшей письмо.
Но письмо отражает растущую обеспокоенность экспертов по ИИ тем, что новейшие системы, в первую очередь GPT-4, технология, представленная стартапом OpenAI из Сан-Франциско, могут нанести вред обществу. Они считали, что будущие режимы будут более опасными.
Некоторые ставки прибыли. Другие не будут месяцами или годами. Третьи — просто предположения.
«Наша способность понять, что может пойти не так в сильных системах искусственного интеллекта, очень слаба», — сказал Йошуа Бенжио, профессор и исследователь искусственного интеллекта в Университете Монреаля. «Поэтому нам нужно быть очень осторожными».
Почему они беспокоятся?
Доктор Бенжио, пожалуй, самый важный человек, подписавший это письмо.
Работая с другими учеными — Джеффри Хинтоном, до недавнего времени исследователем в Google, и Яном ЛеКуном, ныне главным научным сотрудником по искусственному интеллекту в Meta, владельце Facebook, — д-р Бенжио провел последние четыре десятилетия, разрабатывая технологию, которая управляет такими системами, как GPT-4. . В 2018 году исследователи были удостоены премии Тьюринга, часто известной как «Нобелевская премия в области вычислительной техники», в знак признания их работы над нейронными сетями.
Нейронная сеть — это математическая система, которая обучается навыкам путем анализа данных. Около пяти лет назад такие компании, как Google, Microsoft и OpenAI, начали создавать нейронные сети, которые обучались на огромном количестве цифрового текста, называемые моделями больших языков или LLM.
Выявляя шаблоны в этом тексте, LLM учится создавать текст самостоятельно, включая сообщения в блогах, стихи и компьютерные программы. Они даже могут поддержать беседу.
Эта технология может помочь программистам, писателям и другим работникам быстрее генерировать идеи и делать что-то. Но доктор Бенжио и другие эксперты также предупреждают, что LLM могут научиться нежелательному и неожиданному поведению.
Эти системы могут генерировать ложную, предвзятую и другую токсичную информацию. Такие системы, как GPT-4, ошибочно принимают факты и кадрируют информацию, что называется «галлюцинациями».
Компании работают над решением этих проблем. Но такие эксперты, как доктор Бенжио, опасаются, что по мере того, как исследователи сделают эти системы более мощными, они привнесут новые риски.
Краткосрочные риски: дезинформация
Поскольку эти системы представляют информацию с полной достоверностью, при их использовании может быть трудно отделить факты от вымысла. Эксперты опасаются, что люди будут полагаться на эти системы для получения медицинских советов, эмоциональной поддержки и необработанной информации, которую они используют для принятия решений.
«Нет никакой гарантии, что эти системы будут корректны в любой задаче, которую вы им поручите», — сказал Суббарао Камбхампати, профессор компьютерных наук в Университете штата Аризона.
Эксперты также обеспокоены тем, что люди будут злоупотреблять этими системами для распространения дезинформации. Поскольку они могут говорить по-человечески, они могут быть удивительно убедительными.
«Теперь у нас есть системы, которые могут взаимодействовать с нами посредством естественного языка, и мы не можем отличить настоящее от подделки», — сказал доктор Бенжио.
Среднесрочные риски: потеря работы
Эксперты опасаются, что новый искусственный интеллект может убить рабочие места. В настоящее время такие технологии, как GPT-4, как правило, дополняют людей. Но OpenAI признает, что может заменить некоторых работников, в том числе тех, кто модерирует онлайн-контент.
Они пока не могут копировать работу юристов, бухгалтеров или врачей. Но они могут заменить параюристов, личных помощников и переводчиков.
Документ, написанный исследователями OpenAI Было подсчитано, что 80 процентов рабочей силы в США могут иметь по крайней мере 10 процентов своих рабочих задач, затронутых LLM, и что 19 процентов работников могут столкнуться с тем, что по крайней мере 50 процентов их задач будут затронуты.
«Есть признаки того, что рутинная работа уходит», — сказал Орен Этциони, основатель и генеральный директор Института искусственного интеллекта Аллена, исследовательской лаборатории в Сиэтле.
Долгосрочные риски: потеря контроля
Некоторые из людей, подписавших письмо, также считают, что искусственный интеллект может выйти из-под нашего контроля или уничтожить человечество. Но многие эксперты говорят, что это сильно преувеличено.
Письмо было написано группой из Института будущего жизни, организации, занимающейся изучением экзистенциальных рисков для человечества. Они предупреждают, что, поскольку системы ИИ часто изучают неожиданное поведение из огромных объемов анализируемых ими данных, они могут вызвать серьезные и неожиданные проблемы.
Они обеспокоены тем, что, поскольку компании подключают LLM к другим службам Интернета, эти системы могут получить неожиданные возможности, поскольку они могут писать свой собственный компьютерный код. Они говорят, что разработчики создадут новые риски, если позволят мощным системам искусственного интеллекта запускать свой код.
— сказал Энтони Агирре, космолог-теоретик и физик из Калифорнийского университета в Санта-Круз и соучредитель Института будущей жизни.
«Если вы возьмете менее вероятный сценарий — когда дела действительно пойдут в гору, где нет реального управления, когда эти системы станут сильнее, чем мы думали, — тогда все станет действительно сумасшедшим», — сказал он.
Доктор Эциони сказал, что разговоры об экзистенциальном риске были гипотетическими. Но он сказал, что другие риски, прежде всего дезинформация, больше не являются спекуляциями.
«Теперь у нас есть некоторые реальные проблемы», сказал он. «Они добросовестны. Они требуют определенного ответственного реагирования. Они могут потребовать правил и законодательства».
«Энтузиаст социальных сетей. Пивной ботаник. Злой коммуникатор. Любитель поп-культуры. Склонен к приступам апатии».
More Stories
Nintendo запускает музыкальное приложение с темами из Марио и Зельды и, что более важно, канал Wii Shop.
Загрузки Call of Duty: Black Ops 6 позволяют максимально эффективно использовать Интернет
Интересные факты M4 Mac mini: изменения в дизайне, поддержка внешнего дисплея и многое другое