13 января, 2025

Orsk.today

Будьте в курсе последних событий в России благодаря новостям Орска, эксклюзивным видеоматериалам, фотографиям и обновленным картам.

Каковы именно риски, связанные с искусственным интеллектом?

Каковы именно риски, связанные с искусственным интеллектом?

В конце марта более 1000 технологических лидеров, исследователей и других экспертов, работающих с искусственным интеллектом и связанных с ним, подписали открытое письмо с предупреждением о том, что технологии ИИ представляют «серьезную опасность для общества и человечества».

Группа, в которую входил Илон Маск, генеральный директор Tesla и владелец Twitter, призвала лаборатории искусственного интеллекта приостановить разработку своих самых мощных систем на шесть месяцев, чтобы они могли лучше понять риски, связанные с технологией.

«Сильные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными и что их риски можно контролировать», — говорится в письме.

Письмо, которое сейчас собрало более 27 000 подписей, было кратким. Ее язык был широким. И некоторые из имен, стоящих за письмом, похоже, имеют двойственное отношение к ИИ.Г-н Маск, например, строит свою собственную компанию по искусственному интеллекту и является крупным спонсором организации, написавшей письмо.

Но письмо отражает растущую обеспокоенность экспертов по ИИ тем, что новейшие системы, в первую очередь GPT-4, технология, представленная стартапом OpenAI из Сан-Франциско, могут нанести вред обществу. Они считали, что будущие режимы будут более опасными.

Некоторые ставки прибыли. Другие не будут месяцами или годами. Третьи — просто предположения.

«Наша способность понять, что может пойти не так в сильных системах искусственного интеллекта, очень слаба», — сказал Йошуа Бенжио, профессор и исследователь искусственного интеллекта в Университете Монреаля. «Поэтому нам нужно быть очень осторожными».

Доктор Бенжио, пожалуй, самый важный человек, подписавший это письмо.

Работая с другими учеными — Джеффри Хинтоном, до недавнего времени исследователем в Google, и Яном ЛеКуном, ныне главным научным сотрудником по искусственному интеллекту в Meta, владельце Facebook, — д-р Бенжио провел последние четыре десятилетия, разрабатывая технологию, которая управляет такими системами, как GPT-4. . В 2018 году исследователи были удостоены премии Тьюринга, часто известной как «Нобелевская премия в области вычислительной техники», в знак признания их работы над нейронными сетями.

Нейронная сеть — это математическая система, которая обучается навыкам путем анализа данных. Около пяти лет назад такие компании, как Google, Microsoft и OpenAI, начали создавать нейронные сети, которые обучались на огромном количестве цифрового текста, называемые моделями больших языков или LLM.

Выявляя шаблоны в этом тексте, LLM учится создавать текст самостоятельно, включая сообщения в блогах, стихи и компьютерные программы. Они даже могут поддержать беседу.

Эта технология может помочь программистам, писателям и другим работникам быстрее генерировать идеи и делать что-то. Но доктор Бенжио и другие эксперты также предупреждают, что LLM могут научиться нежелательному и неожиданному поведению.

Эти системы могут генерировать ложную, предвзятую и другую токсичную информацию. Такие системы, как GPT-4, ошибочно принимают факты и кадрируют информацию, что называется «галлюцинациями».

Компании работают над решением этих проблем. Но такие эксперты, как доктор Бенжио, опасаются, что по мере того, как исследователи сделают эти системы более мощными, они привнесут новые риски.

Поскольку эти системы представляют информацию с полной достоверностью, при их использовании может быть трудно отделить факты от вымысла. Эксперты опасаются, что люди будут полагаться на эти системы для получения медицинских советов, эмоциональной поддержки и необработанной информации, которую они используют для принятия решений.

«Нет никакой гарантии, что эти системы будут корректны в любой задаче, которую вы им поручите», — сказал Суббарао Камбхампати, профессор компьютерных наук в Университете штата Аризона.

Эксперты также обеспокоены тем, что люди будут злоупотреблять этими системами для распространения дезинформации. Поскольку они могут говорить по-человечески, они могут быть удивительно убедительными.

«Теперь у нас есть системы, которые могут взаимодействовать с нами посредством естественного языка, и мы не можем отличить настоящее от подделки», — сказал доктор Бенжио.

Эксперты опасаются, что новый искусственный интеллект может убить рабочие места. В настоящее время такие технологии, как GPT-4, как правило, дополняют людей. Но OpenAI признает, что может заменить некоторых работников, в том числе тех, кто модерирует онлайн-контент.

Они пока не могут копировать работу юристов, бухгалтеров или врачей. Но они могут заменить параюристов, личных помощников и переводчиков.

Документ, написанный исследователями OpenAI Было подсчитано, что 80 процентов рабочей силы в США могут иметь по крайней мере 10 процентов своих рабочих задач, затронутых LLM, и что 19 процентов работников могут столкнуться с тем, что по крайней мере 50 процентов их задач будут затронуты.

«Есть признаки того, что рутинная работа уходит», — сказал Орен Этциони, основатель и генеральный директор Института искусственного интеллекта Аллена, исследовательской лаборатории в Сиэтле.

Некоторые из людей, подписавших письмо, также считают, что искусственный интеллект может выйти из-под нашего контроля или уничтожить человечество. Но многие эксперты говорят, что это сильно преувеличено.

Письмо было написано группой из Института будущего жизни, организации, занимающейся изучением экзистенциальных рисков для человечества. Они предупреждают, что, поскольку системы ИИ часто изучают неожиданное поведение из огромных объемов анализируемых ими данных, они могут вызвать серьезные и неожиданные проблемы.

Они обеспокоены тем, что, поскольку компании подключают LLM к другим службам Интернета, эти системы могут получить неожиданные возможности, поскольку они могут писать свой собственный компьютерный код. Они говорят, что разработчики создадут новые риски, если позволят мощным системам искусственного интеллекта запускать свой код.

— сказал Энтони Агирре, космолог-теоретик и физик из Калифорнийского университета в Санта-Круз и соучредитель Института будущей жизни.

«Если вы возьмете менее вероятный сценарий — когда дела действительно пойдут в гору, где нет реального управления, когда эти системы станут сильнее, чем мы думали, — тогда все станет действительно сумасшедшим», — сказал он.

Доктор Эциони сказал, что разговоры об экзистенциальном риске были гипотетическими. Но он сказал, что другие риски, прежде всего дезинформация, больше не являются спекуляциями.

«Теперь у нас есть некоторые реальные проблемы», сказал он. «Они добросовестны. Они требуют определенного ответственного реагирования. Они могут потребовать правил и законодательства».

سكس سمينات مصرى porn-loop.net سكس ونيك مصري stl result 2pm today tvteleserye.net the marriage broken vow may 31 2022 full episode sridevi ki blue film indianpornfeed.com desi49 bhabhi nude sex tubzolina.mobi gonzomoves palalimin superpinoy.net to have and to hold november 12 desi hard fuck porngalstube.com xviedos indian bihar xxx video com alexporn.mobi xnxx rape.com 3gp king indian video justerporn.mobi russian xxx blue film porn 妻が友人の結婚式で家にいない間に爆乳で美人の妻の姉を犯し中出ししまくった5日間の調教記録 織田真子 sakurajav.mobi お姉さんの爆乳が卑猥過ぎて秒殺で悩殺!! 音海里奈 قصص سكس محارم مصريه porn724.com واحد بينيك واحدة kashmiri hot girls kings-porno.com videossix hentai stranded island freecartoonporn.info hemtaifox bnha yaoi hentai savehentai.info completely naked at home جسم شويكار esarabe.com سكس كيم xxxbanglavideo hotindianporn.mobi you poron