Инженер заявил, что роботы Figure способны навредить человеку и лишился работы

Когда инженер предупредил руководство, что их робот не прошел проверку на безопасность, ему ответили, что компания и так отстает по продажам и сейчас не до переделок.
робот Figure
робот Figure
Google Ai

Стартап Figure AI, создающий человекоподобных роботов, оказался в центре громкого судебного скандала. Бывший руководитель отдела безопасности продукции Роберт Грюндель подал иск, обвиняя компанию в незаконном увольнении после того, как он прямо заявил руководству: их роботы достаточно сильны, чтобы случайно проломить человеку череп.

Бывший глава отдела безопасности продукции Роберт Грюндель требует компенсации за незаконное увольнение и утверждает, что компания сознательно игнорировала риски, способные привести к тяжелым травмам и даже смертям.

Стартап Figure AI по производству роботов всего за год увеличил свою оценку с 2,6 млрд долларов до 39 млрд. Такой скачок произошел после раунда финансирования Series в сентябре 2025 года, который возглавила Parkway Venture Capital при участии Nvidia, Microsoft, Intel Capital, OpenAI и Джеффа Безоса лично. 

Робот, который может навредить

Грюндель пришел в Figure в июле 2024-го и сразу начал тестировать гуманоидные модели Figure 02. По его расчетам, манипуляторы робота развивают усилие более 180 кг и скорость до 1,8 м/с. В одном из внутренних отчетов он написал буквально:

«Этого достаточно, чтобы проломить человеческий череп или переломать ребра одним случайным движением».

В качестве доказательства он привел инцидент лета 2025 года: во время сбоя робот в лаборатории Redwood City прошел сквозь стальную дверь промышленного холодильника и оставил в ней рваную рану глубиной 6 см. Видео и фотографии этого случая приложены к иску.

Безопасность — помеха для продаж

По словам Грюнделя, когда он отправил подробный отчет гендиректору Бретту Эдкоку и главному инженеру Кайлу Эдельбергу, ему ответили:

«Мы и так отстаем от Tesla Optimus и Boston Dynamics Atlas, давайте решим это после следующих продаж».

Через неделю после неприятной переписки, где Грюндель прямо назвал подход «безответственным и опасным», его вызвали в HR и уволили «в связи со сменой приоритетов компании».

Что скрыли от инвесторов

Самый тяжелый пункт иска — обвинение в мошенничестве с инвесторами. Летом 2025 года Грюндель готовил 47-страничный план безопасности для Parkway Venture Capital и OpenAI. После того как раунд закрылся на 1,9 миллиарда долларов, из финальной версии исчезли целые разделы о рисках травм, случайных ударов и отказа тормозов.

По мнению адвоката Роберта Оттингера, это может быть расценено как мошенничество с ценными бумагами — когда компания предоставляет инвесторам заведомо ложную или неполную информацию, чтобы те вложили деньги, полагая, что все в порядке.

Реакция Figure

В официальном комментарии CNBC компания заявила:

«Грюндель был уволен исключительно за низкие результаты и неспособность работать в команде. Все его обвинения — ложь, которую мы полностью опровергнем в суде».

Однако адвокат Грюнделя подчеркивает, что до сентября 2025 года его клиент получал только похвалы и даже повышение, а никаких выговоров не было. Увольнение произошло ровно через несколько дней после самых жестких письменных предупреждений о безопасности, что, по их версии, выглядит как классическое «ответное увольнение» за поднятую тревогу, особенно перед стартом продаж.

Почему это важно именно сейчас

робот Figure
Фото: Figure Ai

Figure уже подписала контракты с BMW на поставку тысяч роботов в 2026–2027 годах. Если суд признает, что компания сознательно замалчивала риски, это может стать прецедентом для всей индустрии гуманоидных роботов: от Agility Robotics до 1X Technologies. Регуляторы США и Европы уже начали интересоваться физической безопасностью человекоподобных машин, а не только этикой ИИ.

Дело принято к производству. Первое слушание назначено на февраль 2026 года. Figure AI пока отказывается от подробных комментариев, но ясно одно — гонка за «роботом в каждый дом» только что получила первый серьезный тормоз в виде судебного иска на миллионы долларов и репутационные риски.

Подписывайтесь и читайте «Науку» в Telegram