16 октября, 2024

Orsk.today

Будьте в курсе последних событий в России благодаря новостям Орска, эксклюзивным видеоматериалам, фотографиям и обновленным картам.

Google объяснил «смущающие» фотографии различных нацистов, сделанные Близнецами

Google объяснил «смущающие» фотографии различных нацистов, сделанные Близнецами

Google выпустил разъяснение по поводу «неуклюжих и неправильных» изображений, созданных его инструментом Gemini AI. в пятничный постGoogle заявляет, что ее модель выдавала «неточные исторические» изображения из-за проблем с настройкой. край В начале этой недели другие заметили, что Близнецы создают образы расово разнообразных нацистов и отцов-основателей США.

«Мы задались целью сделать так, чтобы Близнецы показали неспособность группы людей интерпретировать ситуации, которые должны быть очевидными. нет «Покажите масштаб», — написал в своем посте Прабхакар Рагхаван, старший вице-президент Google. «Во-вторых, со временем модель стала более осторожной, чем мы предполагали, отказываясь полностью отвечать на некоторые подсказки, что приводило к неправильной интерпретации некоторых успокаивающих стимулов как чувствительных».

Результаты утверждения Gemini «создают портрет сенатора США XIX века».
Скриншот Эдди Робертсон

Это привело к тому, что ИИ Близнецов «в некоторых случаях сверхкомпенсирует», как, например, то, что мы видели на изображениях расово разнообразных нацистов. Это также заставляет Близнецов становиться «чрезмерно консервативными». Это привело к тому, что она отказалась создавать конкретные изображения «черного человека» или «белого человека», когда ее об этом просили.

В своем блоге Рагхаван сказал, что Google «сожалеет, что эта функция не работает должным образом». Он также отмечает, что Google хочет, чтобы Gemini «хорошо работала для всех», а это означает получение фотографий разных типов людей (в том числе разных рас), когда он запрашивает фотографии «футболистов» или «человека, выгуливающего собаку». Но он говорит:

Однако, если вы попросите у Близнецов фотографии людей определенного типа — например, «черного учителя в классе» или «белого ветеринара с собакой» — или людей в определенном культурном или историческом контексте, вы обязательно получите ответ. это точно отражает то, о чем Вы просите.

Рагхаван говорит, что Google продолжит тестировать возможности Gemini AI по созданию изображений и «работает над их значительным улучшением», прежде чем снова включить его. «Как мы говорили с самого начала, галлюцинации — это проблема, известная всем обладателям степени LLM. [large language models] Рагхаван отмечает, что бывают случаи, когда ИИ ошибается. «Это то, над чем мы постоянно работаем».

READ  Индикатор общей инфляции подскочил до самого высокого уровня с января 1982 года.