Звіт вказує на те, що OpenAI систематично та з наміром завершила фундаментальну трансформацію від "служіння благополуччю людства" до "забезпечення прибутку інвесторам", CEO Сем Альтман має тривалу, документально підтверджену поведінку, що включає суперечливі заяви, маніпуляцію інформацією та ухилення від нагляду, а також глибоку прив'язку особистих інвестицій до бізнесу компанії. OpenAI демонструє суперечливість у питаннях безпеки та прозорості, її публічні зобов'язання серйозно не відповідають внутрішній практиці.
Автор: Чжао Ін
Джерело: Галузеве спостереження
Інтерактивний звіт на понад 50 сторінок і більше ніж 10 тисяч слів, який розкриває весь процес еволюції OpenAI з неприбуткової дослідницької лабораторії в прибутковий гігант.
Нещодавно дві великі неприбуткові технологічні наглядові організації — Midas Project та Tech Oversight Project — спільно опублікували глибокий звіт під назвою «OpenAI архіви».
Цей звіт був підготовлений виконавчим директором Midas Project Тайлером Джонсоном, процес збору відкритої інформації тривав майже рік, а його написання зайняло місяць. Звіт називається «найбільш повним зібранням занепокоєнь, зафіксованих до цього часу щодо практики корпоративного управління OpenAI, чесності керівництва та організаційної культури».
Прочісуючи велику кількість публічних матеріалів, таких як документи про розкриття інформації, судові провадження, відкриті листи та повідомлення ЗМІ, цей інтерактивний звіт із понад 10 000 слів виявив, що OpenAI систематично та заздалегідь спланована, щоб завершити фундаментальну трансформацію від «для благополуччя людства» до «для прибутку інвесторів». Слова та дії OpenAI непослідовні, коли йдеться про безпеку та прозорість, і існує серйозний розрив між її публічними зобов'язаннями та внутрішніми практиками.
Звіт складається з чотирьох основних тем: по-перше, реорганізація; по-друге, чесність генерального директора; по-третє, прозорість та безпека; по-четверте, конфлікт інтересів.
Серед них викликає занепокоєння ступінь, в якій керівники та члени правління OpenAI отримують прямі або непрямі вигоди від успіху компанії. Сюди входить аналіз інвестиційного портфеля генерального директора Сем Альтман, який охоплює кілька компаній, що мають партнерські відносини з OpenAI, зокрема Retro Biosciences, Helion Energy, Reddit, Stripe.
Ребрендинг: ретельно сплановане «зраду місії»
Звіт вказує на те, що OpenAI систематично і з наміром демонтує свої основні етичні та структурні опори, закладені під час його заснування, його дії серйозно суперечать відкритим заявам, по суті, це є радикальною зміною від «піклування про людство» до «піклування про прибуток інвесторів».
По-перше, звіт виявив синхронний розпад двох основних стовпів OpenAI — «обмеження прибутку» та «некомерційний нагляд».
Оригінальна модель «Capped-Profit» була її основною філософією, яка була спрямована на забезпечення того, щоб величезне багатство, створене AGI, було спільним з усім людством і запобігало надмірній концентрації багатства. Однак ця обіцянка була поступово вичерпана: від начебто багаторазового скорочення прибутку, що нібито сприяло досягненню місії, до прихованого введення пункту про «20% щорічного автоматичного зростання», який робить його функціонально нефункціональним, і до кінцевого плану повного зняття обмеження, що ознаменувало кінець ідеї розподілу багатства.
У той же час її механізми нагляду були дещо ослаблені. OpenAI перетворилася з організації, повністю контрольованої некомерційною організацією, на некомерційну корпорацію штату Делавер. Юридичний обов'язок змінився з «пріоритету місії» на «баланс інтересів акціонерів та суспільних інтересів». У звіті наголошується, що «немає жодного прецеденту в історії, коли акціонери успішно подали позови для захисту суспільних інтересів», що робить зобов'язання в інтересах суспільства майже нездійсненними в юридичній практиці. Це свідчить про те, що обіцянка НСТУ про «суспільний добробут» насправді може бути зведена до порожньої оболонки, забезпечуючи величезне юридичне прикриття для прагнення до максимізації прибутку.
!
Джерело зображення: openaifiles.org/ сайт
Звіт також спростовує офіційний наратив OpenAI про те, що вона відмовляється від своїх зобов'язань на тій підставі, що «галузь є висококонкурентною». Посилаючись на ранні статути компанії та внутрішні електронні листи, звіт доводить, що OpenAI була добре очікуваною та готовою впоратися з жорсткою конкуренцією в галузі з самого початку. Тому використання конкуренції як виправдання для відмови від обіцянок є неспроможною «ревізіоністською історією». Справжня мотивація цього полягає саме в тому, що інвестори та керівники компаній вірять у його величезний потенціал заробітку, тому зняття обмеження має вирішальне значення.
CEO Чесність: Модель поведінки CEO викликала кризу довіри
Звіт також зазначає, що у CEO Сем Альтман є тривалий, документально підтверджений шаблон поведінки, що включає в себе суперечливі висловлювання, маніпуляцію інформацією та ухилення від контролю, а також ставлення особистих інтересів вище організаційної відповідальності.
Звіт наводить кілька прикладів, коли Сем Альтман публічно брешучи або вводив в оману з важливих питань. Наприклад:
Щодо питання угоди про невикористання приниження працівників, Альтман відкрито заявив, що не знає про положення "позбавлення акцій звільнених працівників", але документи показують, що він чітко уповноважив це положення.
Під час свідчення в Сенаті він заявив, що не має акцій OpenAI, але згодом визнав, що колись через фонд мав їх опосередковано.
Протягом тривалого часу приховував від ради директорів факт свого особистого володіння венчурним фондом OpenAI.
Колишня членкиня правління Хелен Тонер прямо звинуватила Алтмана в тому, що він заважає виконанню обов'язків правління шляхом «приховування інформації, спотворення фактів і навіть прямої брехні». Звіт також показав, що ця модель поведінки пронизує його кар'єру:
Під час епохи Loopt досвідчені співробітники двічі намагалися змусити правління звільнити його, вказуючи на "обманні та заплутані" дії.
Під час Y Combinator він нехтував своїми обов'язками через зосередження на особистих проектах і в результаті був «проханий піти» засновником Полом Гремом.
Найдраматичнішим проявом стало те, що після звільнення його радою OpenAI він використав свій вплив, щоб зворотно вплинути на ситуацію, вимагаючи "усунення членів правління, які його звільнили, та призначення своїх союзників" як умову для повернення, успішно досягнувши "відплати" над системою нагляду.
Операційні та безпекові ризики: системне невиконання зобов'язань щодо безпеки
Звіт виявляє, що OpenAI має систематичну невідповідність між своїми публічними зобов'язаннями та внутрішніми практиками в питаннях безпеки та прозорості. Корпоративна культура демонструє тенденцію «лише швидко, без зупинок», що в погоні за комерційними інтересами та конкурентними перевагами систематично послаблює, обходить або навіть карає внутрішній контроль безпеки та інакомислення.
Звіт виявляє систематичну невідповідність між словами та діями OpenAI в питаннях безпеки та прозорості. Компанія обіцяла виділити 20% обчислювальних ресурсів для команди безпеки «суперузгодження», але, за словами колишнього керівника Яна Лейке, ці ресурси ніколи не були розподілені. Під час розробки GPT-4o команду безпеки попросили «швидко завершити» тестування перед випуском продукту, і компанія навіть вже спланувала святкування випуску до початку оцінювання.
Більш серйозно, компанія використовує жорсткі угоди про звільнення, щоб погрожувати звільненим працівникам, що у разі критики компанії вони втратять мільйони доларів акцій. Працівник Леопольд Ашенбреннер був звільнений за те, що подав до ради директорів меморандум про ризики національної безпеки, при цьому компанія чітко повідомила, що причиною звільнення є те, що він «перевищив повноваження» у звітуванні про проблеми безпеки.
Звіт також вказує на те, що в 2023 році в OpenAI сталася серйозна безпекова подія, пов'язана з хакерським вторгненням та викраденням деталей технології штучного інтелекту, але протягом року компанія не повідомляла про це владі чи громадськості. Кілька нинішніх і колишніх співробітників звинувачують компанію у «безтурботній та конфіденційній культурі», яка ставить «прибуток і зростання» вище місії безпеки.
Ризик конфлікту інтересів: Глибина особистих інвестицій CEO та бізнесу компанії
Звіт детально розкриває, як Сем Альтман створив величезну та взаємопов'язану мережу особистих інвестицій, які мають глибокі та безпосередні конфлікти інтересів з бізнесом, технологіями та стратегічними партнерствами OpenAI, що по суті ставить під сумнів місію OpenAI, яка проголошує «прагнення на благо всього людства».
Ось кілька典型案例:
Helion (ядерна енергетика): Сем Альтман є як головою ради директорів Helion, так і основним інвестором, а також CEO OpenAI. Він особисто очолював угоду OpenAI про купівлю великої кількості енергії у Helion. Є підстави ставити під сумнів, чи була ця угода переважно для забезпечення його особистих величезних інвестицій у Helion.
Worldcoin (криптовалютний проєкт): Сем Альтман є співзасновником Worldcoin. OpenAI встановила офіційне партнерство з Worldcoin (наприклад, надаючи безкоштовні послуги GPT-4). Люди ставлять під сумнів, чи це насправді рівноправне комерційне партнерство, чи Сем Альтман використовує ресурси та бренд OpenAI для підтримки та просування свого іншого високоризикового проєкту.
Humane (апаратне забезпечення штучного інтелекту): Сем Альтман є найбільшим акціонером Humane, а продукція Humane серйозно залежить від моделей OpenAI. Як генеральний директор OpenAI, він має сильні особисті фінансові мотиви забезпечити Humane вигідні умови або пріоритетну технічну підтримку, що може зашкодити інтересам інших клієнтів та справедливості на ринку.
Ці переплетені інтереси серйозно підірвали фідуціарні обов'язки Альтмана як генерального директора. Його рішення для місії OpenAI чи для зростання його особистого багатства? Остаточна картина звіту полягає в тому, що Альтман є скоріше проникливим трейдером капіталу, який вміло поставив OpenAI в центр своєї особистої бізнес-імперії та використовував свою посаду генерального директора для систематичного перетворення технологій, ресурсів і стратегічних відносин OpenAI на драйвери зростання для свого особистого портфеля.
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
OpenAI було викрито!
Автор: Чжао Ін
Джерело: Галузеве спостереження
Інтерактивний звіт на понад 50 сторінок і більше ніж 10 тисяч слів, який розкриває весь процес еволюції OpenAI з неприбуткової дослідницької лабораторії в прибутковий гігант.
Нещодавно дві великі неприбуткові технологічні наглядові організації — Midas Project та Tech Oversight Project — спільно опублікували глибокий звіт під назвою «OpenAI архіви».
Цей звіт був підготовлений виконавчим директором Midas Project Тайлером Джонсоном, процес збору відкритої інформації тривав майже рік, а його написання зайняло місяць. Звіт називається «найбільш повним зібранням занепокоєнь, зафіксованих до цього часу щодо практики корпоративного управління OpenAI, чесності керівництва та організаційної культури».
Прочісуючи велику кількість публічних матеріалів, таких як документи про розкриття інформації, судові провадження, відкриті листи та повідомлення ЗМІ, цей інтерактивний звіт із понад 10 000 слів виявив, що OpenAI систематично та заздалегідь спланована, щоб завершити фундаментальну трансформацію від «для благополуччя людства» до «для прибутку інвесторів». Слова та дії OpenAI непослідовні, коли йдеться про безпеку та прозорість, і існує серйозний розрив між її публічними зобов'язаннями та внутрішніми практиками.
Звіт складається з чотирьох основних тем: по-перше, реорганізація; по-друге, чесність генерального директора; по-третє, прозорість та безпека; по-четверте, конфлікт інтересів.
Серед них викликає занепокоєння ступінь, в якій керівники та члени правління OpenAI отримують прямі або непрямі вигоди від успіху компанії. Сюди входить аналіз інвестиційного портфеля генерального директора Сем Альтман, який охоплює кілька компаній, що мають партнерські відносини з OpenAI, зокрема Retro Biosciences, Helion Energy, Reddit, Stripe.
Ребрендинг: ретельно сплановане «зраду місії»
Звіт вказує на те, що OpenAI систематично і з наміром демонтує свої основні етичні та структурні опори, закладені під час його заснування, його дії серйозно суперечать відкритим заявам, по суті, це є радикальною зміною від «піклування про людство» до «піклування про прибуток інвесторів».
По-перше, звіт виявив синхронний розпад двох основних стовпів OpenAI — «обмеження прибутку» та «некомерційний нагляд».
!
Джерело зображення: openaifiles.org/ сайт
Звіт також спростовує офіційний наратив OpenAI про те, що вона відмовляється від своїх зобов'язань на тій підставі, що «галузь є висококонкурентною». Посилаючись на ранні статути компанії та внутрішні електронні листи, звіт доводить, що OpenAI була добре очікуваною та готовою впоратися з жорсткою конкуренцією в галузі з самого початку. Тому використання конкуренції як виправдання для відмови від обіцянок є неспроможною «ревізіоністською історією». Справжня мотивація цього полягає саме в тому, що інвестори та керівники компаній вірять у його величезний потенціал заробітку, тому зняття обмеження має вирішальне значення.
CEO Чесність: Модель поведінки CEO викликала кризу довіри
Звіт також зазначає, що у CEO Сем Альтман є тривалий, документально підтверджений шаблон поведінки, що включає в себе суперечливі висловлювання, маніпуляцію інформацією та ухилення від контролю, а також ставлення особистих інтересів вище організаційної відповідальності.
Звіт наводить кілька прикладів, коли Сем Альтман публічно брешучи або вводив в оману з важливих питань. Наприклад:
Під час свідчення в Сенаті він заявив, що не має акцій OpenAI, але згодом визнав, що колись через фонд мав їх опосередковано.
Колишня членкиня правління Хелен Тонер прямо звинуватила Алтмана в тому, що він заважає виконанню обов'язків правління шляхом «приховування інформації, спотворення фактів і навіть прямої брехні». Звіт також показав, що ця модель поведінки пронизує його кар'єру:
Операційні та безпекові ризики: системне невиконання зобов'язань щодо безпеки
Звіт виявляє, що OpenAI має систематичну невідповідність між своїми публічними зобов'язаннями та внутрішніми практиками в питаннях безпеки та прозорості. Корпоративна культура демонструє тенденцію «лише швидко, без зупинок», що в погоні за комерційними інтересами та конкурентними перевагами систематично послаблює, обходить або навіть карає внутрішній контроль безпеки та інакомислення.
Звіт виявляє систематичну невідповідність між словами та діями OpenAI в питаннях безпеки та прозорості. Компанія обіцяла виділити 20% обчислювальних ресурсів для команди безпеки «суперузгодження», але, за словами колишнього керівника Яна Лейке, ці ресурси ніколи не були розподілені. Під час розробки GPT-4o команду безпеки попросили «швидко завершити» тестування перед випуском продукту, і компанія навіть вже спланувала святкування випуску до початку оцінювання.
Більш серйозно, компанія використовує жорсткі угоди про звільнення, щоб погрожувати звільненим працівникам, що у разі критики компанії вони втратять мільйони доларів акцій. Працівник Леопольд Ашенбреннер був звільнений за те, що подав до ради директорів меморандум про ризики національної безпеки, при цьому компанія чітко повідомила, що причиною звільнення є те, що він «перевищив повноваження» у звітуванні про проблеми безпеки.
Звіт також вказує на те, що в 2023 році в OpenAI сталася серйозна безпекова подія, пов'язана з хакерським вторгненням та викраденням деталей технології штучного інтелекту, але протягом року компанія не повідомляла про це владі чи громадськості. Кілька нинішніх і колишніх співробітників звинувачують компанію у «безтурботній та конфіденційній культурі», яка ставить «прибуток і зростання» вище місії безпеки.
Ризик конфлікту інтересів: Глибина особистих інвестицій CEO та бізнесу компанії
Звіт детально розкриває, як Сем Альтман створив величезну та взаємопов'язану мережу особистих інвестицій, які мають глибокі та безпосередні конфлікти інтересів з бізнесом, технологіями та стратегічними партнерствами OpenAI, що по суті ставить під сумнів місію OpenAI, яка проголошує «прагнення на благо всього людства».
Ось кілька典型案例:
Ці переплетені інтереси серйозно підірвали фідуціарні обов'язки Альтмана як генерального директора. Його рішення для місії OpenAI чи для зростання його особистого багатства? Остаточна картина звіту полягає в тому, що Альтман є скоріше проникливим трейдером капіталу, який вміло поставив OpenAI в центр своєї особистої бізнес-імперії та використовував свою посаду генерального директора для систематичного перетворення технологій, ресурсів і стратегічних відносин OpenAI на драйвери зростання для свого особистого портфеля.