Google выпустил разъяснение по поводу «неуклюжих и неправильных» изображений, созданных его инструментом Gemini AI. в пятничный постGoogle заявляет, что ее модель выдавала «неточные исторические» изображения из-за проблем с настройкой. край В начале этой недели другие заметили, что Близнецы создают образы расово разнообразных нацистов и отцов-основателей США.
«Мы задались целью сделать так, чтобы Близнецы показали неспособность группы людей интерпретировать ситуации, которые должны быть очевидными. нет «Покажите масштаб», — написал в своем посте Прабхакар Рагхаван, старший вице-президент Google. «Во-вторых, со временем модель стала более осторожной, чем мы предполагали, отказываясь полностью отвечать на некоторые подсказки, что приводило к неправильной интерпретации некоторых успокаивающих стимулов как чувствительных».
Это привело к тому, что ИИ Близнецов «в некоторых случаях сверхкомпенсирует», как, например, то, что мы видели на изображениях расово разнообразных нацистов. Это также заставляет Близнецов становиться «чрезмерно консервативными». Это привело к тому, что она отказалась создавать конкретные изображения «черного человека» или «белого человека», когда ее об этом просили.
В своем блоге Рагхаван сказал, что Google «сожалеет, что эта функция не работает должным образом». Он также отмечает, что Google хочет, чтобы Gemini «хорошо работала для всех», а это означает получение фотографий разных типов людей (в том числе разных рас), когда он запрашивает фотографии «футболистов» или «человека, выгуливающего собаку». Но он говорит:
Однако, если вы попросите у Близнецов фотографии людей определенного типа — например, «черного учителя в классе» или «белого ветеринара с собакой» — или людей в определенном культурном или историческом контексте, вы обязательно получите ответ. это точно отражает то, о чем Вы просите.
Рагхаван говорит, что Google продолжит тестировать возможности Gemini AI по созданию изображений и «работает над их значительным улучшением», прежде чем снова включить его. «Как мы говорили с самого начала, галлюцинации — это проблема, известная всем обладателям степени LLM. [large language models] Рагхаван отмечает, что бывают случаи, когда ИИ ошибается. «Это то, над чем мы постоянно работаем».
More Stories
Решение Банка Японии, PMI Китая, прибыль Samsung
Илон Маск купил жилой комплекс в Техасе для своих детей и их матерей: отчет
Starbucks пытается восстановиться после падения продаж в США на 6%: NPR