- Meta, материнская компания Facebook, разделила свое подразделение Responsible AI, команду, занимающуюся регулированием безопасности своих проектов AI.
- Большая часть ответственного персонала по искусственному интеллекту была переведена в команду разработки продуктов Generative AI.
- Этот шаг произошел после серии увольнений и изменений в составе команды в компании в этом году.
Генеральный директор Meta Марк Цукерберг принимает участие в двухпартийном форуме Сената США по искусственному интеллекту в Капитолии США в Вашингтоне, округ Колумбия, 13 сентября 2023 года.
Стефани Рейнольдс | АФП | Гетти Изображения
По словам представителя Meta, Meta распустила свой отдел ответственного ИИ, команду, занимающуюся регулированием безопасности своих проектов ИИ по мере их разработки и развертывания.
По словам представителя, большинство членов команды RAI были переведены в подразделение продуктов генеративного искусственного интеллекта компании, а остальные теперь будут работать в команде инфраструктуры искусственного интеллекта. Впервые новость опубликовало издание информация.
Команда Geneative AI, созданная в феврале, занимается разработкой продуктов, которые генерируют язык и изображения, имитирующие искусственный эквивалент. Это произошло потому, что компании всей технологической отрасли вложили деньги в разработку машинного обучения, чтобы не отставать в гонке ИИ. Meta входит в число крупных технологических компаний, которые пытаются наверстать упущенное с момента начала бума искусственного интеллекта.
Реструктуризация RAI происходит в то время, когда материнская компания Facebook приближается к концу «года эффективности», как описал ее генеральный директор Марк Цукерберг во время февральского отчета о прибылях и убытках. До сих пор это была волна увольнений, консолидаций команд и перераспределений по всей компании.
Обеспечение безопасности ИИ стало заявленным приоритетом для крупных игроков в этой области, особенно потому, что регулирующие органы и другие официальные лица уделяют больше внимания потенциальному вреду новой технологии. В июле Anthropic, Google, Microsoft и OpenAI сформировали отраслевую группу, специально занимающуюся установлением стандартов безопасности по мере развития ИИ.
Хотя сотрудники RAI теперь разбросаны по всей организации, представитель отметил, что они будут продолжать поддерживать «разработку и использование ответственного ИИ».
«Мы продолжаем уделять первоочередное внимание и инвестировать в разработку безопасного и ответственного ИИ», — сказал представитель.
More Stories
Решение Банка Японии, PMI Китая, прибыль Samsung
Илон Маск купил жилой комплекс в Техасе для своих детей и их матерей: отчет
Starbucks пытается восстановиться после падения продаж в США на 6%: NPR