OpenAI был разоблачен до основания!

Доклад указывает на то, что OpenAI систематически и преднамеренно завершила основополагающий переход от «блага для человечества» к «прибыли для инвесторов», CEO Сэм Альтман демонстрирует долгосрочные и документально подтвержденные несоответствия в своих словах и действиях, манипуляцию информацией и уклонение от контроля, а также глубокую связь личных инвестиций с бизнесом компании. OpenAI проявляет несоответствие в области безопасности и прозрачности, ее публичные обязательства серьезно расходятся с внутренней практикой.

Автор: Чжао Ин

Источник: Отраслевое наблюдение

Интерактивный отчет длиной более 50 страниц и более 10 000 слов раскрывает весь процесс превращения OpenAI из некоммерческой исследовательской лаборатории в прибыльного гиганта.

Недавно две крупные некоммерческие технологические организации — Midas Project и Tech Oversight Project — совместно выпустили углубленный отчет под названием «Архивы OpenAI».

Этот отчет был подготовлен исполнительным директором Midas Project Тайлером Джонсоном, в ходе сбора публичной информации, который длился почти год, и месячной интенсивной работы над написанием. Отчет называется «Самая полная компиляция зафиксированных на сегодняшний день опасений по поводу практики корпоративного управления OpenAI, честности руководства и организационной культуры».

Анализируя множество открытых данных, таких как документы, раскрываемые компанией, судебные иски, открытые письма и материалы СМИ, этот интерактивный отчет объемом более десяти тысяч слов выявил, что OpenAI систематически и преднамеренно завершила коренные изменения от "блага человечества" к "прибыли для инвесторов". Генеральный директор Сэм Альтман демонстрирует долгосрочный, документально подтвержденный диссонанс между словами и действиями, манипуляцию информацией и уклонение от надзора, а также глубокую связь между личными инвестициями и бизнесом компании. OpenAI демонстрирует несоответствие между словами и делами в области безопасности и прозрачности, ее публичные обязательства серьезно расходятся с внутренней практикой.

Доклад делится на четыре основные темы: первая - реорганизация, вторая - честность генерального директора, третья - прозрачность и безопасность, четвертая - конфликты интересов.

В частности, вызывает внимание степень, в которой руководители и члены совета директоров OpenAI получают прямую или косвенную выгоду от успеха компании. Это включает в себя анализ портфолио CEO Сэм Альтман, в которое входят Retro Biosciences, Helion Energy, Reddit, Stripe и другие компании, сотрудничающие с OpenAI.

Реконструкция: тщательно спланированная «измена миссии»

Доклад указывает на то, что OpenAI систематически и преднамеренно разрушает свои основные моральные и структурные опоры, заложенные при его создании. Его действия противоречат публичным заявлениям и являются по сути коренной трансформацией от «блага человечества» к «прибыли инвесторов».

Во-первых, отчет раскрывает синхронный крах двух основных столпов OpenAI — «предел прибыли» и «некоммерческий надзор».

Изначальная модель «потолка прибыли» (Capped-Profit) является ее основной философией, направленной на то, чтобы гарантировать, что огромное богатство, создаваемое AGI, будет разделено со всем человечеством, предотвращая чрезмерную концентрацию богатства. Однако это обязательство постепенно было подорвано: от на первый взгляд усиления миссии, снижения множителя прибыли, до тайного введения условия «автоматический рост на 20% в год», которое фактически делает его бесполезным, и в конечном итоге полного удаления потолка, что знаменует собой окончательное прекращение идеи распределения богатства.

В то же время его механизм надзора был искусно ослаблен. OpenAI преобразовалась из сущности, полностью контролируемой некоммерческой организацией, в общественную компанию штата Делавэр. Юридическая обязанность изменилась с «приоритета миссии» на «баланс интересов акционеров и общественных интересов». В отчете отмечается, что исторически «не было прецедентов, когда акционеры успешно подавали иски для защиты общественных интересов», что делает обязательства в области общественного блага практически неисполняемыми на практике. Это указывает на то, что обязательства PBC по «общественному благу» в реальности могут оказаться пустой оболочкой, предоставляющей огромную юридическую защиту для максимизации прибыли.

!

Источник изображения: openaifiles.org/ сайт

Доклад далее опровергает официальное заявление OpenAI о том, что они отказались от своих обязательств, ссылаясь на «жесткую конкуренцию в отрасли». Ссылаясь на ранние «Устав» компании и внутренние письма, доклад доказывает, что OpenAI уже в самом начале своего существования полностью предвидела и подготовилась к жесткой конкуренции в отрасли. Таким образом, использование конкуренции в качестве причины для отказа от обязательств является несостоятельным «ревизионистским историческим» подходом. Истинная мотивация заключается в том, что как инвесторы, так и руководство компании верят в ее огромный потенциал для получения прибыли, поэтому снятие ограничений становится критически важным.

CEO Честность: Модель поведения CEO вызывает кризис доверия

Доклад также указывает на то, что у CEO Сэма Альтмана существует долгосрочный, документально подтвержденный паттерн поведения, включающий несоответствие слов и дел, манипуляцию информацией и уклонение от контроля, а также ставление личных интересов выше организационной ответственности.

Доклад перечисляет несколько примеров того, как Сэм Альтман открыто лгал или вводил в заблуждение по важным вопросам. Например:

По вопросу о соглашении о недопустимости унижения сотрудников, Альтман публично заявил, что не знает о пункте «лишение акций уволенных сотрудников», но документы показывают, что он явно санкционировал этот пункт.

Во время дачи показаний в Сенате он заявил, что не имеет акций OpenAI, но позже признал, что ранее косвенно владел ими через фонд.

Долгосрочно скрывал от совета директоров факт своего личного владения венчурным фондом OpenAI.

Бывший член совета директоров Хелен Тонер прямо обвинила Альтмана в том, что он препятствовал выполнению обязанностей совета директоров, «скрывая информацию, искажая факты и даже прямо лгя». В отчете также показано, что эта модель поведения прослеживается на протяжении всей его карьеры:

В период Loopt старшие сотрудники дважды пытались заставить совет директоров уволить его, указывая на «обманное и запутанное» поведение.

Во время работы в Y Combinator он пренебрегал своими обязанностями из-за сосредоточенности на личных проектах и в конечном итоге был «пожалован» основателем Полом Грэмом.

Самым драматическим проявлением стало то, что после увольнения его советом директоров OpenAI он использовал свое влияние для обратного маневра, поставив в качестве условия своего возвращения "отстранение членов совета директоров, уволивших его, и назначение своих союзников", что успешно привело к "обратному удару" по системе надзора.

Операционные и безопасностные риски: систематический провал обязательств по безопасности

Отчет показывает, что у OpenAI существует систематическое несоответствие между словами и действиями в области безопасности и прозрачности, причем их публичные обязательства сильно расходятся с внутренней практикой. Корпоративная культура демонстрирует склонность к «быстрому результату любой ценой», и в погоне за коммерческими интересами и конкурентными преимуществами систематически ослабляет, избегает или даже наказывает внутренний контроль за безопасностью и инакомыслие.

Доклад выявил систематическую непоследовательность в действиях и заявлениях OpenAI в отношении безопасности и прозрачности. Компания когда-то обещала выделить 20% вычислительных ресурсов для команды безопасности «супер-согласования», но, по словам бывшего руководителя Яна Лейке, эти ресурсы никогда не были выделены. При разработке GPT-4o от команды безопасности потребовали «быстро завершить» тестирование перед выпуском продукта, компания даже заранее запланировала праздничные мероприятия до начала оценки.

Более серьезно то, что компания угрожает уволенным сотрудникам строгими соглашениями о расторжении, заявляя, что в случае критики компании они потеряют миллионы долларов в акциях. Сотрудник Леопольд Ашенбреннер был уволен за то, что представил в правление меморандум о рисках национальной безопасности; компания ясно дала понять, что причиной его увольнения стало то, что он «перепрыгнул» уровни и сообщил о проблемах безопасности.

В отчете также отмечается, что в 2023 году у OpenAI произошел серьезный инцидент безопасности, в результате которого были взломаны и украдены данные технологии искусственного интеллекта, но они не сообщали об этом властям или общественности в течение года. Многие нынешние и бывшие сотрудники обвинили компанию в «культуре безрассудства и конфиденциальности», которая ставит «прибыль и рост» выше своей миссии в области безопасности.

Риск конфликта интересов: Глубина личных инвестиций CEO и бизнеса компании

Отчет подробно раскрывает, как Сэм Альтман создал огромную и взаимосвязанную сеть личных инвестиций, которые имеют глубокие и прямые конфликты интересов с бизнесом, технологиями и стратегическими партнерствами OpenAI, что в корне ставит под сомнение заявленную миссию OpenAI «служить благу всего человечества».

Вот несколько типичных случаев:

Helion (ядерная энергия): Сэм Альтман является как председателем правления Helion, так и основным инвестором, а также CEO OpenAI. Он лично курировал сделку, в рамках которой OpenAI приобрела большое количество энергии у Helion. Уместно задаться вопросом, была ли эта сделка в первую очередь направлена на защиту его личных крупных инвестиций в Helion.

Worldcoin (криптовалютный проект): Сэм Альтман является соучредителем Worldcoin. OpenAI установила официальные партнерские отношения с Worldcoin (например, предоставив бесплатные услуги GPT-4). Люди ставят под сомнение, является ли это равноправным коммерческим сотрудничеством или Сэм Альтман использует ресурсы и бренд OpenAI для поддержки и продвижения своего другого высокорискованного проекта.

Humane (AI оборудование): Сэм Альтман является крупнейшим акционером Humane, а продукты Humane сильно зависят от моделей OpenAI. В качестве CEO OpenAI у него есть сильный личный финансовый стимул обеспечить Humane выгодные условия или приоритетную техническую поддержку, что может нанести ущерб интересам других клиентов и справедливости на рынке.

Эти запутанные взаимосвязи интересов серьезно подрывают доверие, которое Сэм Альтман, как CEO, должен выполнять. Его решения предназначены для миссии OpenAI или для увеличения его личного богатства? В конечном итоге отчет рисует картину: Сэм Альтман больше похож на хитроумного капиталиста, который ловко помещает OpenAI в центр своей личной бизнес-империи и, используя свою позицию CEO, систематически превращает технологии, ресурсы и стратегические связи OpenAI в двигатель роста своего личного инвестиционного портфеля.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить