- Meta, материнская компания Facebook, разделила свое подразделение Responsible AI, команду, занимающуюся регулированием безопасности своих проектов AI.
- Большая часть ответственного персонала по искусственному интеллекту была переведена в команду разработки продуктов Generative AI.
- Этот шаг произошел после серии увольнений и изменений в составе команды в компании в этом году.
Генеральный директор Meta Марк Цукерберг принимает участие в двухпартийном форуме Сената США по искусственному интеллекту в Капитолии США в Вашингтоне, округ Колумбия, 13 сентября 2023 года.
Стефани Рейнольдс | АФП | Гетти Изображения
По словам представителя Meta, Meta распустила свой отдел ответственного ИИ, команду, занимающуюся регулированием безопасности своих проектов ИИ по мере их разработки и развертывания.
По словам представителя, большинство членов команды RAI были переведены в подразделение продуктов генеративного искусственного интеллекта компании, а остальные теперь будут работать в команде инфраструктуры искусственного интеллекта. Впервые новость опубликовало издание информация.
Команда Geneative AI, созданная в феврале, занимается разработкой продуктов, которые генерируют язык и изображения, имитирующие искусственный эквивалент. Это произошло потому, что компании всей технологической отрасли вложили деньги в разработку машинного обучения, чтобы не отставать в гонке ИИ. Meta входит в число крупных технологических компаний, которые пытаются наверстать упущенное с момента начала бума искусственного интеллекта.
Реструктуризация RAI происходит в то время, когда материнская компания Facebook приближается к концу «года эффективности», как описал ее генеральный директор Марк Цукерберг во время февральского отчета о прибылях и убытках. До сих пор это была волна увольнений, консолидаций команд и перераспределений по всей компании.
Обеспечение безопасности ИИ стало заявленным приоритетом для крупных игроков в этой области, особенно потому, что регулирующие органы и другие официальные лица уделяют больше внимания потенциальному вреду новой технологии. В июле Anthropic, Google, Microsoft и OpenAI сформировали отраслевую группу, специально занимающуюся установлением стандартов безопасности по мере развития ИИ.
Хотя сотрудники RAI теперь разбросаны по всей организации, представитель отметил, что они будут продолжать поддерживать «разработку и использование ответственного ИИ».
«Мы продолжаем уделять первоочередное внимание и инвестировать в разработку безопасного и ответственного ИИ», — сказал представитель.
«Наркоман поп-культуры. Поклонник телевидения. Ниндзя алкоголика. Абсолютный фанат пива. Профессиональный знаток твиттера».
More Stories
Директора 23andMe уходят в отставку после того, как генеральный директор компании по генетическому тестированию пытается сделать ее частной
Решение Amazon ввести пятидневную неделю не будет иметь неприятных последствий, но оно показывает неиспользованный потенциал
Ставки по ипотеке 19 сентября 2024 г.