OpenAI a été complètement exposé !

Le rapport indique qu'OpenAI a systématiquement et délibérément achevé une transformation fondamentale, passant de "travailler pour le bien-être de l'humanité" à "travailler pour le profit des investisseurs". Le PDG Sam Altman présente un modèle de comportement à long terme et documenté d'incohérence, de manipulation de l'information et d'évitement de la supervision, avec un lien profond entre ses investissements personnels et les activités de l'entreprise. OpenAI fait preuve d'incohérence en matière de sécurité et de transparence, avec un décalage grave entre ses engagements publics et ses pratiques internes.

Rédaction : Zhao Ying

Source : Observatoire de l'industrie

Un rapport interactif de plus de 50 pages et de plus de dix mille mots, qui révèle le processus par lequel OpenAI est passé d'un laboratoire de recherche à but non lucratif à un géant lucratif.

Récemment, deux grandes organisations de surveillance technologique à but non lucratif - le Midas Project et le Tech Oversight Project - ont publié un rapport d'enquête approfondi intitulé "Dossiers OpenAI".

Ce rapport est dirigé par Tyler Johnston, directeur exécutif du Midas Project, et a nécessité près d'un an de collecte d'informations publiques et un mois de rédaction concentrée. Le rapport est intitulé « jusqu'à présent, la compilation la plus complète des préoccupations enregistrées concernant OpenAI en matière de pratiques de gouvernance d'entreprise, d'intégrité de la direction et de culture organisationnelle ».

En examinant un grand nombre de documents publics tels que les documents de divulgation de l'entreprise, les litiges juridiques, les lettres ouvertes et les reportages médiatiques, ce rapport interactif de plus de dix mille mots révèle qu'OpenAI a systématiquement et délibérément achevé une transformation fondamentale, passant de "travailler pour le bien-être de l'humanité" à "travailler pour le profit des investisseurs". Le PDG Sam Altman présente un modèle de comportement à long terme, documenté, d'incohérence entre ses paroles et ses actes, de manipulation de l'information et d'évitement de la surveillance, avec un lien profond entre ses investissements personnels et les activités de l'entreprise. OpenAI affiche un discours et des pratiques contradictoires en matière de sécurité et de transparence, avec un décalage grave entre ses promesses publiques et ses pratiques internes.

Le rapport se divise en quatre grands thèmes : premièrement, la restructuration ; deuxièmement, l'intégrité du directeur général ; troisièmement, la transparence et la sécurité ; quatrièmement, les conflits d'intérêts.

Parmi eux, le degré de bénéfice direct ou indirect des dirigeants et des membres du conseil d'administration d'OpenAI provenant du succès de l'entreprise suscite des inquiétudes. Cela inclut une analyse du portefeuille du PDG Sam Altman, impliquant plusieurs entreprises ayant des relations de coopération avec OpenAI, telles que Retro Biosciences, Helion Energy, Reddit, Stripe, etc.

Restructuration : Une trahison de mission soigneusement planifiée

Le rapport indique qu'OpenAI démantèle systématiquement et de manière délibérée les piliers éthiques et structurels qui étaient au cœur de sa création, et que ses actions sont en contradiction flagrante avec ses déclarations publiques, représentant essentiellement un changement fondamental d'"agir pour le bien de l'humanité" à "agir pour le profit des investisseurs".

Tout d'abord, le rapport révèle la déliquescence simultanée des deux piliers fondamentaux d'OpenAI : « limite de profit » et « supervision non lucrative ».

Le modèle initial de "plafonnement des bénéfices" (Capped-Profit) est sa philosophie centrale, visant à garantir que la richesse immense générée par l'AGI puisse être partagée avec toute l'humanité, empêchant une concentration excessive de la richesse. Cependant, cet engagement a été progressivement vidé de son sens : des réductions de multiples de profit qui semblaient renforcer la mission, à l'introduction secrète d'une clause "augmentation automatique de 20 % par an" qui la rendait pratiquement inefficace, jusqu'à la décision finale de supprimer complètement le plafond, marquant ainsi la fin définitive de l'idée de partage de la richesse.

Dans le même temps, ses mécanismes de contrôle ont été subtilement affaiblis. OpenAI est passée d’une entité entièrement contrôlée par une organisation à but non lucratif à une société à but non lucratif du Delaware. L’obligation légale est passée de la « priorité de la mission » à « l’équilibre entre les intérêts des actionnaires et l’intérêt public ». Le rapport note qu’il n’y a « aucun précédent dans l’histoire pour que des actionnaires aient réussi à intenter des actions en justice pour protéger l’intérêt public », ce qui rend les engagements d’intérêt public presque inapplicables dans la pratique juridique. Cela montre que la promesse de « bien-être public » de la PBC peut être réduite à une coquille vide dans la réalité, fournissant une énorme couverture juridique à la poursuite de la maximisation des profits.

Source de l'image : openaifiles.org/ site

Le rapport réfute en outre la déclaration officielle d'OpenAI selon laquelle elle abandonne ses engagements en raison d'une "concurrence intense dans l'industrie". En citant les premiers "statuts" de l'entreprise et des courriels internes, le rapport prouve qu'OpenAI avait pleinement anticipé et se préparait à faire face à une concurrence intense dès ses débuts. Par conséquent, utiliser la concurrence comme justification pour renier ses engagements est une "histoire révisionniste" qui ne tient pas debout. La véritable motivation derrière cela est que les investisseurs et la direction de l'entreprise croient en son immense potentiel de profit, ce qui rend donc essentiel de lever les plafonds.

CEO Intégrité : Le comportement du CEO suscite une crise de confiance

Le rapport souligne en outre que le PDG Sam Altman présente un modèle de comportement à long terme, documenté, de contradiction entre ses paroles et ses actes, de manipulation de l'information et d'évitement de la supervision, ainsi que de mise des intérêts personnels au-dessus des responsabilités organisationnelles.

Le rapport énumère plusieurs exemples où Sam Altman a menti ou induit en erreur sur des questions importantes. Par exemple :

Sur la question des accords de non-dénigrement des employés, Altman a publiquement déclaré qu'il n'était pas au courant de la clause "privant les employés licenciés de leurs actions", mais les documents montrent qu'il a clairement autorisé cette clause.

Lors de son témoignage sous serment au Sénat, il a affirmé ne pas avoir d'actions d'OpenAI, mais a ensuite admis en avoir détenu indirectement par l'intermédiaire de fonds.

A caché pendant longtemps au conseil d'administration le fait qu'il possède un fonds d'investissement dans OpenAI.

L'ancienne membre du conseil d'administration Helen Toner a directement accusé Altman d'entraver le fonctionnement du conseil en « cachant des informations, en déformant des faits et même en mentant directement ». Le rapport montre également que ce schéma de comportement a traversé sa carrière :

Pendant la période de Loopt, des employés expérimentés ont tenté à deux reprises de faire licencier le conseil d'administration, invoquant des comportements « trompeurs et chaotiques ».

Pendant Y Combinator, il a négligé ses responsabilités en se concentrant sur des projets personnels et a finalement été « prié de partir » par le fondateur Paul Graham.

La manifestation la plus dramatique est qu'après avoir été licencié par le conseil d'administration d'OpenAI, il a utilisé son influence pour opérer à l'envers, exigeant en retour "le renvoi des membres du conseil qui l'avaient licencié et l'installation de ses alliés" comme condition de son retour, réussissant ainsi à "contrecarrer" le système de supervision.

Risques opérationnels et de sécurité : Échec systématique des engagements en matière de sécurité

Le rapport révèle qu'OpenAI présente une incohérence systémique entre ses paroles et ses actes en matière de sécurité et de transparence, avec un décalage sérieux entre ses engagements publics et ses pratiques internes. La culture d'entreprise montre une tendance à "ne jamais ralentir", et dans la quête de bénéfices commerciaux et d'un avantage concurrentiel, elle affaiblit, contourne, voire punit systématiquement la supervision interne de la sécurité et les dissentiments.

Le rapport révèle l'incohérence systématique d'OpenAI en matière de sécurité et de transparence. La société avait promis d'allouer 20% de ses ressources de calcul à l'équipe de sécurité "super alignement", mais selon l'ancien responsable Jan Leike, ces ressources n'ont jamais été attribuées. Dans le développement de GPT-4o, l'équipe de sécurité a été priée d'"achever rapidement" les tests avant la sortie du produit, et l'entreprise avait même prévu des célébrations de lancement avant le début de l'évaluation.

Plus grave encore, l'entreprise menace ses employés démissionnaires avec des accords de départ stricts, affirmant que toute critique de l'entreprise entraînera une perte de plusieurs millions de dollars en actions. L'employé Leopold Aschenbrenner a été licencié pour avoir soumis un mémorandum sur les risques pour la sécurité nationale au conseil d'administration, l'entreprise ayant clairement indiqué que la raison de son licenciement était qu'il avait « contourné » la hiérarchie pour signaler des problèmes de sécurité.

Le rapport souligne également qu'OpenAI a subi une grave violation de sécurité en 2023, avec le vol de détails sur sa technologie AI, mais n'a pas informé les autorités ou le public pendant une période d'un an. Plusieurs employés actuels et anciens ont accusé l'entreprise d'avoir une « culture imprudente et secrète », plaçant « les profits et la croissance » au-dessus de sa mission de sécurité.

Risque de conflit d'intérêts : Liens profonds entre les investissements personnels du PDG et les activités de l'entreprise

Le rapport révèle en détail comment Sam Altman a établi un vaste réseau d'investissement personnel interconnecté, dont les investissements présentent des conflits d'intérêts profonds et directs avec les activités, la technologie et les partenariats stratégiques d'OpenAI, remettant fondamentalement en question la mission d'OpenAI de "travailler pour le bien de l'humanité".

Voici quelques cas typiques :

Helion (énergie de fusion) : Sam Altman est à la fois président et principal investisseur de Helion, ainsi que CEO d'OpenAI. Il a personnellement supervisé la transaction par laquelle OpenAI a acheté une grande quantité d'énergie à Helion. Il y a des raisons de douter que cette transaction ait été principalement destinée à protéger son investissement considérable dans Helion.

Worldcoin (projet de cryptomonnaie) : Sam Altman est le cofondateur de Worldcoin. OpenAI a établi un partenariat officiel avec Worldcoin (comme fournir des services GPT-4 gratuits). Les gens se demandent s'il s'agit vraiment d'une coopération commerciale équitable, ou si Sam Altman utilise les ressources et la marque d'OpenAI pour soutenir et promouvoir son autre projet à haut risque.

Humane (matériel AI) : Sam Altman est le principal actionnaire de Humane, et les produits de Humane dépendent fortement des modèles d'OpenAI. En tant que PDG d'OpenAI, il a un fort intérêt financier personnel à s'assurer que Humane obtienne des conditions favorables ou un soutien technique prioritaire, ce qui pourrait nuire aux intérêts d'autres clients et à l'équité du marché.

Ces liens d'intérêts complexes ont gravement érodé la responsabilité fiduciaire d'Altman en tant que PDG. Ses décisions sont-elles vraiment en faveur de la mission d'OpenAI ou de l'enrichissement personnel ? Le tableau final que dresse le rapport est celui-ci : Altman ressemble davantage à un habile opérateur capitaliste, plaçant habilement OpenAI au centre de son empire commercial personnel et utilisant sa position de PDG pour transformer systématiquement la technologie, les ressources et les relations stratégiques d'OpenAI en un moteur de croissance de son portefeuille personnel.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)