El informe señala que OpenAI está completando de manera sistemática y premeditada una transformación fundamental de "buscar el bienestar de la humanidad" a "buscar ganancias para los inversores", y que el CEO Sam Altman presenta un patrón de conducta a largo plazo, documentado, de falta de coherencia, manipulación de información y evasión de supervisión, así como una profunda vinculación entre sus inversiones personales y los negocios de la empresa. OpenAI es incoherente en términos de seguridad y transparencia, y sus compromisos públicos están gravemente desconectados de las prácticas internas.
Escrito por: Zhao Ying
Fuente: Observación de la industria
Un informe interactivo de más de 50 páginas y más de 10,000 palabras, que revela todo el proceso de evolución de OpenAI de un laboratorio de investigación sin fines de lucro a un gigante con fines de lucro.
Recientemente, dos grandes organizaciones no lucrativas de supervisión tecnológica, Midas Project y Tech Oversight Project, han publicado conjuntamente un informe de investigación titulado "Archivos de OpenAI".
El informe fue liderado por Tyler Johnston, director ejecutivo de Midas Project, y se llevó a cabo durante casi un año de recopilación de información pública y un mes de redacción concentrada. El informe se denomina "hasta ahora, la recopilación más completa de preocupaciones documentadas sobre OpenAI en prácticas de gobernanza corporativa, integridad del liderazgo y cultura organizacional."
A través de un análisis de documentos divulgados por la empresa, litigios legales, cartas abiertas y numerosos informes de los medios, este informe interactivo de más de diez mil palabras ha descubierto que OpenAI está llevando a cabo de manera sistemática y premeditada una transformación fundamental de "trabajar por el bienestar de la humanidad" a "trabajar por las ganancias de los inversores". El CEO Sam Altman presenta un patrón de comportamiento a largo plazo, documentado, de contradicciones en sus palabras y acciones, manipulación de información y evasión de supervisión, así como una profunda vinculación entre su inversión personal y los negocios de la empresa. OpenAI es incoherente en cuanto a la seguridad y la transparencia, y su compromiso público está severamente desconectado de las prácticas internas.
El informe se divide en cuatro temas principales: primero, reestructuración; segundo, integridad del director ejecutivo; tercero, transparencia y seguridad; cuarto, conflicto de intereses.
Entre ellos, es preocupante el grado en que los ejecutivos y miembros de la junta de OpenAI se benefician directa o indirectamente del éxito de la empresa. Esto incluye un análisis del portafolio del CEO Sam Altman, que involucra a varias empresas que tienen relaciones de colaboración con OpenAI, como Retro Biosciences, Helion Energy, Reddit, Stripe, entre otras.
Reorganización: una "traición a la misión" meticulosamente planificada
El informe señala que OpenAI está desmantelando de manera sistemática y premeditada los pilares éticos y estructurales fundamentales con los que fue fundada, y que sus acciones son gravemente contradictorias con sus declaraciones públicas, lo que representa en esencia una transformación fundamental de "promover el bienestar humano" a "buscar beneficios para los inversores".
Primero, el informe revela el colapso simultáneo de los dos pilares centrales de OpenAI: el "límite de ganancias" y la "supervisión no lucrativa".
El modelo inicial de "límite de ganancias" (Capped-Profit) es su filosofía central, destinada a garantizar que la enorme riqueza creada por la AGI se comparta con toda la humanidad, previniendo la concentración excesiva de la riqueza. Sin embargo, este compromiso ha sido paulatinamente socavado: desde un aparente ajuste a la baja del múltiplo de ganancias que parece fortalecer la misión, hasta la introducción secreta de la cláusula de "crecimiento automático del 20% anual", que la hace prácticamente inútil en función, y finalmente, la eliminación total del límite, marcando el final absoluto del concepto de compartir la riqueza.
Mientras tanto, su mecanismo de supervisión también ha sido hábilmente debilitado. OpenAI ha pasado de ser una entidad completamente controlada por una organización sin fines de lucro a una empresa pública en Delaware. La obligación legal ha cambiado de "priorizar la misión" a "equilibrar los intereses de los accionistas y el interés público". El informe señala que, históricamente, "no hay precedentes de accionistas que hayan demandado con éxito para proteger el interés público", lo que hace que el compromiso público sea prácticamente inejecutable en la práctica legal. Esto sugiere que el compromiso de 'PBC' con el 'interés público' podría convertirse en un cascarón vacío en la realidad, proporcionando un gran refugio legal para la búsqueda de la maximización de beneficios.
Fuente de la imagen: openaifiles.org/ sitio web
El informe refutó aún más la declaración oficial de OpenAI de que abandonó su compromiso debido a la "competencia intensa en la industria". Al citar los primeros "estatutos" de la empresa y correos internos, el informe demuestra que OpenAI ya había anticipado y estaba preparado para enfrentar la intensa competencia en la industria desde su fundación. Por lo tanto, usar la competencia como razón para abandonar el compromiso es una "historia revisionista" que no se sostiene. La verdadera motivación detrás de esto es que tanto los inversores como la alta dirección de la empresa creen en su enorme potencial de ganancias, por lo que eliminar el límite se vuelve crucial.
CEO Integridad: El modelo de comportamiento del CEO provoca una crisis de confianza
El informe señala además que el CEO Sam Altman presenta un patrón de comportamiento a largo plazo, documentado, de incongruencia en sus palabras y acciones, manipulación de la información y evasión de la supervisión, así como de poner sus intereses personales por encima de la responsabilidad organizacional.
El informe enumera varios ejemplos de Sam Altman mintiendo o engañando públicamente sobre cuestiones importantes. Por ejemplo:
En el tema del acuerdo de no desprestigio de los empleados, Altman declaró públicamente que no estaba al tanto de la cláusula de "privación de acciones de empleados despedidos", pero los documentos muestran que él autorizó claramente dicha cláusula.
Al testificar bajo juramento en el Senado, afirmó que no tenía acciones de OpenAI, pero luego admitió haberlas poseído indirectamente a través de un fondo.
Ocultó a la junta directiva durante mucho tiempo el hecho de que posee un fondo de inversión de OpenAI.
La exmiembro de la junta Helen Toner acusó directamente a Altman de obstaculizar el desempeño de la junta a través de "ocultar información, distorsionar hechos e incluso mentir directamente". El informe también muestra que este patrón de comportamiento ha estado presente a lo largo de su carrera.
Durante el período de Loopt, empleados veteranos intentaron dos veces hacer que la junta lo despidiera, alegando comportamiento "engañoso y confuso".
Durante su tiempo en Y Combinator, fue despedido por el fundador Paul Graham por descuidar sus responsabilidades debido a su enfoque en proyectos personales.
La manifestación más dramática fue que, tras ser despedido por la junta de OpenAI, utilizó su influencia para operar en reversa, exigiendo como condición para su regreso "la destitución de los miembros de la junta que lo despidieron y la colocación de sus propios aliados", logrando así una "represalia" contra el sistema de supervisión.
Riesgos operativos y de seguridad: el incumplimiento sistemático de los compromisos de seguridad
El informe revela que OpenAI presenta una discrepancia sistemática entre sus compromisos públicos y sus prácticas internas en términos de seguridad y transparencia. La cultura de la empresa muestra una tendencia de "solo rápido y sin quiebras", debilitando, eludiendo e incluso castigando sistemáticamente la supervisión de seguridad interna y las objeciones en busca de beneficios comerciales y ventajas competitivas.
El informe revela la inconsistencia sistemática de OpenAI en términos de seguridad y transparencia. La compañía había prometido destinar el 20% de sus recursos computacionales al equipo de seguridad de "super alineación", pero según el ex líder Jan Leike, estos recursos nunca fueron asignados. En el desarrollo de GPT-4o, se pidió al equipo de seguridad que "completara rápidamente" las pruebas antes del lanzamiento del producto, e incluso la compañía ya había planeado una celebración de lanzamiento antes de que comenzara la evaluación.
Más grave aún, la empresa utiliza estrictos acuerdos de salida para amenazar a los empleados que se van, indicando que si critican a la empresa, perderán millones de dólares en acciones. El empleado Leopold Aschenbrenner fue despedido por haber presentado un memorando de riesgos de seguridad nacional al consejo de administración, y la empresa le informó claramente que la razón de su despido fue que «saltó niveles» al reportar problemas de seguridad.
El informe también señala que OpenAI sufrió un grave incidente de seguridad en 2023, donde hackers accedieron y robaron detalles de la tecnología de IA, pero no lo informaron a las autoridades ni al público durante un año. Varios empleados actuales y anteriores acusan a la empresa de tener una "cultura imprudente y secreta", poniendo "las ganancias y el crecimiento" por encima de su misión de seguridad.
Riesgo de conflicto de intereses: la profundidad de la inversión personal del CEO y los negocios de la empresa.
El informe revela en detalle cómo Sam Altman ha establecido una vasta y entrelazada red de inversiones personales, las cuales presentan profundos y directos conflictos de interés con los negocios, tecnologías y asociaciones estratégicas de OpenAI, desafiando fundamentalmente la misión que OpenAI proclama de "trabajar para el bienestar de toda la humanidad".
A continuación se presentan algunos casos típicos:
Helion (energía de fusión): Sam Altman es tanto el presidente y principal inversor de Helion como el CEO de OpenAI. Él dirigió personalmente la transacción en la que OpenAI compra una gran cantidad de energía de Helion. Es razonable cuestionar si esta transacción se realizó principalmente para asegurar su gran inversión personal en Helion.
Worldcoin (proyecto de criptomoneda): Sam Altman es cofundador de Worldcoin. OpenAI ha establecido una relación de cooperación oficial con Worldcoin (como proporcionar servicios gratuitos de GPT-4). La gente cuestiona si se trata realmente de una colaboración comercial equitativa o si Sam Altman está utilizando los recursos y la marca de OpenAI para apoyar y promover otro de sus proyectos de alto riesgo.
Humane (hardware de IA): Sam Altman es el mayor accionista de Humane, y los productos de Humane dependen en gran medida de los modelos de OpenAI. Como CEO de OpenAI, tiene un fuerte incentivo financiero personal para asegurar que Humane obtenga términos favorables o soporte técnico prioritario, lo que podría perjudicar los intereses de otros clientes y la equidad del mercado.
Estas complejas relaciones de intereses han erosionado gravemente la responsabilidad fiduciaria de Sam Altman como CEO. ¿Sus decisiones son realmente para la misión de OpenAI o para su crecimiento personal de riqueza? El panorama que finalmente retrata el informe es el siguiente: Sam Altman se asemeja más a un astuto operador de capital, que hábilmente ha colocado a OpenAI en el centro de su imperio comercial personal y ha utilizado su posición como CEO para transformar sistemáticamente la tecnología, los recursos y las relaciones estratégicas de OpenAI en un motor de crecimiento para su cartera personal.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¡OpenAI ha sido expuesto por completo!
Escrito por: Zhao Ying
Fuente: Observación de la industria
Un informe interactivo de más de 50 páginas y más de 10,000 palabras, que revela todo el proceso de evolución de OpenAI de un laboratorio de investigación sin fines de lucro a un gigante con fines de lucro.
Recientemente, dos grandes organizaciones no lucrativas de supervisión tecnológica, Midas Project y Tech Oversight Project, han publicado conjuntamente un informe de investigación titulado "Archivos de OpenAI".
El informe fue liderado por Tyler Johnston, director ejecutivo de Midas Project, y se llevó a cabo durante casi un año de recopilación de información pública y un mes de redacción concentrada. El informe se denomina "hasta ahora, la recopilación más completa de preocupaciones documentadas sobre OpenAI en prácticas de gobernanza corporativa, integridad del liderazgo y cultura organizacional."
A través de un análisis de documentos divulgados por la empresa, litigios legales, cartas abiertas y numerosos informes de los medios, este informe interactivo de más de diez mil palabras ha descubierto que OpenAI está llevando a cabo de manera sistemática y premeditada una transformación fundamental de "trabajar por el bienestar de la humanidad" a "trabajar por las ganancias de los inversores". El CEO Sam Altman presenta un patrón de comportamiento a largo plazo, documentado, de contradicciones en sus palabras y acciones, manipulación de información y evasión de supervisión, así como una profunda vinculación entre su inversión personal y los negocios de la empresa. OpenAI es incoherente en cuanto a la seguridad y la transparencia, y su compromiso público está severamente desconectado de las prácticas internas.
El informe se divide en cuatro temas principales: primero, reestructuración; segundo, integridad del director ejecutivo; tercero, transparencia y seguridad; cuarto, conflicto de intereses.
Entre ellos, es preocupante el grado en que los ejecutivos y miembros de la junta de OpenAI se benefician directa o indirectamente del éxito de la empresa. Esto incluye un análisis del portafolio del CEO Sam Altman, que involucra a varias empresas que tienen relaciones de colaboración con OpenAI, como Retro Biosciences, Helion Energy, Reddit, Stripe, entre otras.
Reorganización: una "traición a la misión" meticulosamente planificada
El informe señala que OpenAI está desmantelando de manera sistemática y premeditada los pilares éticos y estructurales fundamentales con los que fue fundada, y que sus acciones son gravemente contradictorias con sus declaraciones públicas, lo que representa en esencia una transformación fundamental de "promover el bienestar humano" a "buscar beneficios para los inversores".
Primero, el informe revela el colapso simultáneo de los dos pilares centrales de OpenAI: el "límite de ganancias" y la "supervisión no lucrativa".
Mientras tanto, su mecanismo de supervisión también ha sido hábilmente debilitado. OpenAI ha pasado de ser una entidad completamente controlada por una organización sin fines de lucro a una empresa pública en Delaware. La obligación legal ha cambiado de "priorizar la misión" a "equilibrar los intereses de los accionistas y el interés público". El informe señala que, históricamente, "no hay precedentes de accionistas que hayan demandado con éxito para proteger el interés público", lo que hace que el compromiso público sea prácticamente inejecutable en la práctica legal. Esto sugiere que el compromiso de 'PBC' con el 'interés público' podría convertirse en un cascarón vacío en la realidad, proporcionando un gran refugio legal para la búsqueda de la maximización de beneficios.
Fuente de la imagen: openaifiles.org/ sitio web
El informe refutó aún más la declaración oficial de OpenAI de que abandonó su compromiso debido a la "competencia intensa en la industria". Al citar los primeros "estatutos" de la empresa y correos internos, el informe demuestra que OpenAI ya había anticipado y estaba preparado para enfrentar la intensa competencia en la industria desde su fundación. Por lo tanto, usar la competencia como razón para abandonar el compromiso es una "historia revisionista" que no se sostiene. La verdadera motivación detrás de esto es que tanto los inversores como la alta dirección de la empresa creen en su enorme potencial de ganancias, por lo que eliminar el límite se vuelve crucial.
CEO Integridad: El modelo de comportamiento del CEO provoca una crisis de confianza
El informe señala además que el CEO Sam Altman presenta un patrón de comportamiento a largo plazo, documentado, de incongruencia en sus palabras y acciones, manipulación de la información y evasión de la supervisión, así como de poner sus intereses personales por encima de la responsabilidad organizacional.
El informe enumera varios ejemplos de Sam Altman mintiendo o engañando públicamente sobre cuestiones importantes. Por ejemplo:
La exmiembro de la junta Helen Toner acusó directamente a Altman de obstaculizar el desempeño de la junta a través de "ocultar información, distorsionar hechos e incluso mentir directamente". El informe también muestra que este patrón de comportamiento ha estado presente a lo largo de su carrera.
Riesgos operativos y de seguridad: el incumplimiento sistemático de los compromisos de seguridad
El informe revela que OpenAI presenta una discrepancia sistemática entre sus compromisos públicos y sus prácticas internas en términos de seguridad y transparencia. La cultura de la empresa muestra una tendencia de "solo rápido y sin quiebras", debilitando, eludiendo e incluso castigando sistemáticamente la supervisión de seguridad interna y las objeciones en busca de beneficios comerciales y ventajas competitivas.
El informe revela la inconsistencia sistemática de OpenAI en términos de seguridad y transparencia. La compañía había prometido destinar el 20% de sus recursos computacionales al equipo de seguridad de "super alineación", pero según el ex líder Jan Leike, estos recursos nunca fueron asignados. En el desarrollo de GPT-4o, se pidió al equipo de seguridad que "completara rápidamente" las pruebas antes del lanzamiento del producto, e incluso la compañía ya había planeado una celebración de lanzamiento antes de que comenzara la evaluación.
Más grave aún, la empresa utiliza estrictos acuerdos de salida para amenazar a los empleados que se van, indicando que si critican a la empresa, perderán millones de dólares en acciones. El empleado Leopold Aschenbrenner fue despedido por haber presentado un memorando de riesgos de seguridad nacional al consejo de administración, y la empresa le informó claramente que la razón de su despido fue que «saltó niveles» al reportar problemas de seguridad.
El informe también señala que OpenAI sufrió un grave incidente de seguridad en 2023, donde hackers accedieron y robaron detalles de la tecnología de IA, pero no lo informaron a las autoridades ni al público durante un año. Varios empleados actuales y anteriores acusan a la empresa de tener una "cultura imprudente y secreta", poniendo "las ganancias y el crecimiento" por encima de su misión de seguridad.
Riesgo de conflicto de intereses: la profundidad de la inversión personal del CEO y los negocios de la empresa.
El informe revela en detalle cómo Sam Altman ha establecido una vasta y entrelazada red de inversiones personales, las cuales presentan profundos y directos conflictos de interés con los negocios, tecnologías y asociaciones estratégicas de OpenAI, desafiando fundamentalmente la misión que OpenAI proclama de "trabajar para el bienestar de toda la humanidad".
A continuación se presentan algunos casos típicos:
Estas complejas relaciones de intereses han erosionado gravemente la responsabilidad fiduciaria de Sam Altman como CEO. ¿Sus decisiones son realmente para la misión de OpenAI o para su crecimiento personal de riqueza? El panorama que finalmente retrata el informe es el siguiente: Sam Altman se asemeja más a un astuto operador de capital, que hábilmente ha colocado a OpenAI en el centro de su imperio comercial personal y ha utilizado su posición como CEO para transformar sistemáticamente la tecnología, los recursos y las relaciones estratégicas de OpenAI en un motor de crecimiento para su cartera personal.