Только что ознакомился с одним из самых поразительных расследований о руководстве OpenAI за последнее время, и честно говоря, трудно отвлечься от последствий этого.



Итак, в 2023 году Илья Сутскевер — главный ученый OpenAI — подготовил обширную записку, в которой изложены опасения по поводу доверия к Сэму Альтману. Мы говорим о 70 страницах, основанных на логах Slack, кадровых записях, внутренних встречах. Открывающая строка была прямо: Сэм демонстрирует постоянную модель лжи. Перенесемся в настоящее время, и расследование The New Yorker (Ронана Фарроу и Эндрю Маранца ) опубликовало эту записку вместе с более чем 200 страницами личных заметок Дарио Амодеи, который был руководителем отдела безопасности OpenAI до основания Anthropic.

Вот что меня поражает: OpenAI буквально была структурирована как некоммерческая организация именно для того, чтобы безопасность шла впереди прибыли. Вся идея заключалась в том, что кто-то должен был иметь возможность закрыть компанию, если ситуация станет опасной. Вся архитектура основывалась на одном предположении — что руководитель должен быть радикально честным.

Но согласно записке и интервью с более чем 100 людьми, так не произошло. Есть конкретные примеры: Альтман говорил совету, что функции GPT-4 прошли проверки безопасности, хотя это было не так. Члены совета узнали об этом на собственном опыте. Был случай с Microsoft и Индией, когда ChatGPT запустили без завершения обязательных проверок безопасности. Когда его спросили, Альтман заявил, что это одобрил главный юрисконсульт — тот сказал, что он понятия не имеет, откуда взялось это утверждение.

Заметки Амодеи рисуют картину компании, которая постепенно отказывается от своей первоначальной миссии под давлением коммерческих интересов. Он зафиксировал, как Microsoft вставила пункт в сделку о инвестициях 2019 года — по сути, говоря, что если кто-то найдет более безопасный путь к AGI, OpenAI поможет им, а не будет конкурировать. Это был самый важный для него аспект безопасности. Затем он обнаружил, что Microsoft договорилась о вето на этот самый пункт. На бумаге всё выглядело хорошо. На практике — мертворожденное решение.

Есть еще один дикий момент о команде Superalignment. OpenAI объявила, что выделит 20% своих вычислительных мощностей — потенциально более миллиарда долларов. Риторика была тяжелая: без решения вопроса выравнивания, AGI может привести к исчезновению человечества. Но люди, реально работавшие над этим, говорили, что реальное распределение — всего 1-2% от общей мощности, при использовании самой старой аппаратуры. Команда была распущена, ничего не завершив.

Когда журналисты спросили OpenAI о их команде по исследованию экзистенциальной безопасности, PR-ответ был почти комичным: «Это не настоящая команда». Сам Альтман заявил, что его интуиция не совпадает с традиционными подходами к безопасности ИИ.

Между тем, развивается и другая история. Финансовый директор OpenAI, Сара Фрайар, якобы сказала коллегам, что считает, что компания не готова к IPO в этом году — слишком много процедурной работы, слишком большой финансовый риск из-за обязательств Альтмана по расходам на вычислительные мощности в размере $600 миллиардов за пять лет. Она даже не уверена, что рост доходов сможет это поддержать. Но Альтман хочет провести IPO в Q4. И тут есть нюанс: Фрайар больше не подчиняется Альтману. По состоянию на август 2025 года, она подчиняется генеральному директору бизнес-подразделения приложений OpenAI, который недавно ушел в медицинский отпуск. Так что у компании есть гонка к IPO на $850 миллиардов, при этом CEO и CFO в разногласиях, CFO не подчиняется CEO, а его руководитель в отпуске. Даже руководители Microsoft, по слухам, были разочарованы, один из них сказал, что есть реальный шанс, что Альтман запомнят как Берни Мэдофф или SBF.

Один из бывших членов совета дал, возможно, самое острое описание характера: у Альтмана есть редкое сочетание — он отчаянно хочет нравиться в каждом личном контакте, одновременно показывая почти социопатическую безразличность к обману людей. Это идеальный профиль для продавца. У Джобса была его «искаженная реальность», но даже он никогда не говорил клиентам, что не покупка его продукта убьет их любимых. Альтман фактически сказал это о ИИ.

Что делает это действительно важным: если бы это было просто драма в обычной технологической компании, это было бы сплетней. Но OpenAI — не обычная компания. Они разрабатывают, возможно, самую мощную технологию в истории человечества. Ту же технологию, которая может изменить глобальную экономику или создать биологическое оружие. Все механизмы безопасности уничтожены. Миссия некоммерческой организации исчезла. Бывший главный ученый и бывший руководитель безопасности не доверяют CEO. Партнеры сравнивают его с мошенниками.

И под всем этим один человек единолично решает, когда выпускать модели, способные изменить будущее человечества.

Гэри Маркус, профессор AI в NYU, давно выступающий за безопасность, после прочтения отчета сказал прямо: если OpenAI создаст что-то, способное производить биологическое оружие или запускать кибератаки, вы готовы доверить Альтману единоличное решение о выпуске?

Ответ OpenAI был примерно таким: «Это переработанные истории с анонимными источниками и личными мотивами». Альтман не опроверг конкретные обвинения и не опроверг сам меморандум. Он лишь усомнился в мотивах.

Арка кажется почти слишком аккуратной: идеалисты создают некоммерческую организацию, озабоченную рисками ИИ. Они создают прорывные технологии. Вливание капитала. Требования к прибыли. Миссия трещит по швам. Команда по безопасности сокращается. Несогласные уходят. Некоммерческая организация превращается в коммерческую. Совет превращается из проверяющего безопасность в союзников CEO. Компания, которая обещала выделить 20% вычислительных мощностей для безопасности человечества, теперь в PR заявляет, что этого не было.

Более ста человек использовали одно слово: «неограниченно в отношении правды».

И он выводит это на публику при (миллиардной оценке.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить