O relatório aponta que a OpenAI está sistematicamente e de forma premeditada a completar uma mudança fundamental de "promover o bem-estar da humanidade" para "promover o lucro dos investidores", com o CEO Sam Altman apresentando um padrão de comportamento de longo prazo, documentado, de incoerência em suas palavras e ações, manipulação de informações e evasão de supervisão, além de uma profunda ligação entre investimentos pessoais e as atividades da empresa. A OpenAI é incoerente em relação à segurança e transparência, com um desvio sério entre suas promessas públicas e as práticas internas.
Escrito por: Zhao Ying
Fonte: Observação da Indústria
Um relatório interativo com mais de 50 páginas e mais de 10.000 palavras, que revela todo o processo de evolução da OpenAI de um laboratório de pesquisa sem fins lucrativos para um gigante lucrativo.
Recentemente, duas grandes organizações de supervisão tecnológica sem fins lucrativos - Midas Project e Tech Oversight Project - publicaram em conjunto um relatório de investigação profunda intitulado "Arquivos OpenAI".
O relatório é liderado por Tyler Johnston, diretor executivo do Midas Project, e envolveu quase um ano de coleta de informações públicas e um mês de redação concentrada. O relatório é descrito como "a compilação mais abrangente até agora das preocupações documentadas sobre a prática de governança corporativa da OpenAI, a integridade da liderança e a cultura organizacional."
Ao analisar uma vasta gama de dados públicos, incluindo documentos divulgados pela empresa, litígios legais, cartas abertas e reportagens da mídia, este relatório interativo de mais de dez mil palavras revela que a OpenAI está sistematicamente e de forma premeditada realizando uma transformação fundamental de "promover o bem-estar da humanidade" para "promover lucros para os investidores". O CEO Sam Altman apresenta um padrão de comportamento inconsistente, com evidências documentadas, manipulando informações e evitando supervisão, além de uma profunda ligação entre investimentos pessoais e os negócios da empresa. A OpenAI é inconsistente em termos de segurança e transparência, com um descompasso grave entre seus compromissos públicos e as práticas internas.
O relatório é dividido em quatro grandes temas: primeiro, reestruturação; segundo, integridade do CEO; terceiro, transparência e segurança; quarto, conflitos de interesse.
Entre eles, é preocupante o grau em que os executivos e membros do conselho da OpenAI se beneficiaram direta ou indiretamente do sucesso da empresa. Isso inclui uma análise do portfólio do CEO Sam Altman, envolvendo várias empresas que têm relações de parceria com a OpenAI, como Retro Biosciences, Helion Energy, Reddit e Stripe.
Reorganização: uma "traição à missão" cuidadosamente planeada
O relatório aponta que a OpenAI está a desmontar sistematicamente e de forma premeditada os pilares éticos e estruturais fundamentais que existiam na sua fundação, e que suas ações estão em grave contradição com as declarações públicas, representando essencialmente uma mudança fundamental de "promover o bem-estar da humanidade" para "promover o lucro dos investidores".
Primeiro, o relatório revelou a simultânea desintegração dos dois pilares centrais da OpenAI - "limite de lucro" e "supervisão não lucrativa".
O modelo inicial de "lucro limitado" (Capped-Profit) é sua filosofia central, destinada a garantir que a enorme riqueza criada pela AGI possa ser compartilhada com toda a humanidade, prevenindo a concentração excessiva de riqueza. No entanto, esse compromisso foi gradualmente esvaziado: desde a redução do múltiplo de lucro que aparentemente fortalece a missão, até a introdução secreta da cláusula de "crescimento automático de 20% ao ano", que a torna praticamente ineficaz, e, finalmente, o plano de remover completamente o limite, marcando o fim definitivo do conceito de compartilhamento de riqueza.
Ao mesmo tempo, o seu mecanismo de supervisão foi habilmente enfraquecido. A OpenAI passou de uma entidade totalmente controlada por uma organização sem fins lucrativos para uma empresa pública no Delaware. A obrigação legal mudou de 'prioridade da missão' para 'equilibrar os interesses dos acionistas e os interesses públicos'. O relatório aponta que, historicamente, 'não há precedentes de acionistas processando com sucesso para proteger os interesses públicos', o que torna o compromisso público praticamente impossível de ser aplicado na prática legal. Isso sugere que o compromisso 'público' da PBC pode se tornar uma casca vazia, oferecendo uma enorme cobertura legal para a busca da maximização do lucro.
Imagem fonte: openaifiles.org/ site
O relatório refutou ainda mais a afirmação oficial da OpenAI de que abandonou o compromisso devido à "intensa concorrência no setor". Ao citar os primeiros "estatutos" da empresa e e-mails internos, o relatório demonstra que a OpenAI já previa e se preparava para a intensa concorrência do setor desde a sua fundação. Portanto, usar a concorrência como justificativa para romper compromissos é uma forma de "história revisionista" sem fundamento. O verdadeiro motivo por trás disso é que tanto os investidores quanto a alta administração da empresa acreditam em seu enorme potencial de lucro, tornando a remoção do limite crucial.
CEO Integridade: O comportamento do CEO gera uma crise de confiança
O relatório aponta ainda que o CEO Sam Altman apresenta um padrão de comportamento de longa duração, documentado, de desvio de conduta, manipulação de informações e evasão de supervisão, além de colocar interesses pessoais acima das responsabilidades organizacionais.
O relatório enumerou vários exemplos de Sam Altman a mentir ou a enganar publicamente sobre questões importantes. Por exemplo:
Em relação à questão do acordo de não desvalorização dos funcionários, Altman afirmou publicamente que não tinha conhecimento da cláusula "privação de ações de ex-funcionários", mas os documentos mostram que ele autorizou claramente essa cláusula.
Ao prestar juramento no Senado, ele afirmou que não tinha ações da OpenAI, mas depois reconheceu que, indiretamente, as possuía através de fundos.
Ocultou durante muito tempo ao conselho de administração o fato de que possui um fundo de investimento em startups da OpenAI.
A ex-membro do conselho Helen Toner acusou diretamente Altman de obstruir o conselho através de "ocultação de informações, distorção de fatos e até mesmo mentiras diretas". O relatório também mostrou que esse padrão de comportamento permeou sua carreira:
Durante o período da Loopt, um funcionário experiente tentou duas vezes fazer com que o conselho o demitisse, alegando comportamentos "enganadores e confusos".
Durante o Y Combinator, ele negligenciou suas responsabilidades devido à sua concentração em projetos pessoais e acabou sendo "pedido para sair" pelo fundador Paul Graham.
A manifestação mais dramática foi que, após ser demitido pelo conselho da OpenAI, ele usou sua influência para operar reversamente, utilizando "destituir os membros do conselho que o demitiram e colocar seus próprios aliados" como condição para seu retorno, conseguindo assim realizar uma "reação" ao sistema de supervisão.
Risco de Operação e Segurança: Falta Sistematizada do Compromisso de Segurança
O relatório revela que a OpenAI apresenta uma discrepância sistemática entre suas promessas de segurança e transparência e suas práticas internas, com um sério desvio entre o que é prometido publicamente e o que é praticado internamente. A cultura da empresa demonstra uma tendência de "apenas rápido não quebrar", em busca de benefícios comerciais e vantagem competitiva, enfraquecendo, evitando ou até punindo sistematicamente a supervisão de segurança interna e a dissidência.
O relatório revelou a inconsistência sistemática da OpenAI em relação à segurança e transparência. A empresa havia prometido alocar 20% dos recursos computacionais para a equipe de segurança de "super alinhamento", mas, segundo o ex-responsável Jan Leike, esses recursos nunca foram alocados. No desenvolvimento do GPT-4o, a equipe de segurança foi solicitada a "concluir rapidamente" os testes antes do lançamento do produto, e a empresa já havia planejado uma celebração para o lançamento antes mesmo do início da avaliação.
Mais grave ainda, a empresa ameaça os funcionários que pedem demissão com acordos de demissão severos, afirmando que, se criticarem a empresa, perderão milhões de dólares em ações. O funcionário Leopold Aschenbrenner foi demitido por ter submetido um memorando sobre riscos de segurança nacional ao conselho, e a empresa deixou claro que a razão para a demissão foi o seu "relato em nível superior" sobre problemas de segurança.
O relatório também apontou que a OpenAI sofreu uma grave violação de segurança em 2023, com detalhes sobre sua tecnologia de IA sendo roubados, mas não informou as autoridades ou o público durante um ano. Vários funcionários atuais e antigos acusaram a empresa de ter uma "cultura imprudente e secreta", colocando "lucro e crescimento" acima da missão de segurança.
Risco de conflito de interesses: A profundidade do investimento pessoal do CEO e a ligação com os negócios da empresa
O relatório revela detalhadamente como Sam Altman estabeleceu uma vasta e interligada rede de investimentos pessoais, que possuem conflitos de interesse profundos e diretos com os negócios, tecnologia e parcerias estratégicas da OpenAI, desafiando fundamentalmente a missão proclamada da OpenAI de "promover o bem-estar da humanidade".
Aqui estão alguns casos típicos:
Helion (energia de fusão nuclear): Sam Altman é o presidente e principal investidor da Helion, além de ser o CEO da OpenAI. Ele liderou pessoalmente a negociação para a OpenAI comprar uma quantidade significativa de energia da Helion. É razoável questionar se essa negociação teve como principal objetivo garantir seu enorme investimento pessoal na Helion.
Worldcoin (projeto de criptomoeda): Sam Altman é cofundador da Worldcoin. A OpenAI estabeleceu uma parceria oficial com a Worldcoin (como a oferta de serviços gratuitos do GPT-4). As pessoas questionam se isso é realmente uma colaboração comercial equitativa ou se Sam Altman está a utilizar os recursos e a marca da OpenAI para apoiar e promover o seu próprio projeto de alto risco.
Humane (AI Hardware): Sam Altman é o maior acionista da Humane, e os produtos da Humane dependem fortemente dos modelos da OpenAI. Como CEO da OpenAI, ele tem um forte incentivo financeiro pessoal para garantir que a Humane receba termos favoráveis ou suporte técnico prioritário, o que pode prejudicar os interesses de outros clientes e a equidade do mercado.
Essas complexas relações de interesse corroem gravemente a responsabilidade fiduciária de Sam Altman como CEO. Suas decisões são realmente para a missão da OpenAI, ou para o crescimento de sua própria riqueza? O cenário final retratado no relatório é: Sam Altman mais parece um astuto operador de capital, que habilmente coloca a OpenAI no centro do seu império comercial pessoal, usando sua posição de CEO para transformar sistematicamente a tecnologia, os recursos e as relações estratégicas da OpenAI em impulso para o crescimento de seu portfólio pessoal.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
OpenAI foi exposta completamente!
Escrito por: Zhao Ying
Fonte: Observação da Indústria
Um relatório interativo com mais de 50 páginas e mais de 10.000 palavras, que revela todo o processo de evolução da OpenAI de um laboratório de pesquisa sem fins lucrativos para um gigante lucrativo.
Recentemente, duas grandes organizações de supervisão tecnológica sem fins lucrativos - Midas Project e Tech Oversight Project - publicaram em conjunto um relatório de investigação profunda intitulado "Arquivos OpenAI".
O relatório é liderado por Tyler Johnston, diretor executivo do Midas Project, e envolveu quase um ano de coleta de informações públicas e um mês de redação concentrada. O relatório é descrito como "a compilação mais abrangente até agora das preocupações documentadas sobre a prática de governança corporativa da OpenAI, a integridade da liderança e a cultura organizacional."
Ao analisar uma vasta gama de dados públicos, incluindo documentos divulgados pela empresa, litígios legais, cartas abertas e reportagens da mídia, este relatório interativo de mais de dez mil palavras revela que a OpenAI está sistematicamente e de forma premeditada realizando uma transformação fundamental de "promover o bem-estar da humanidade" para "promover lucros para os investidores". O CEO Sam Altman apresenta um padrão de comportamento inconsistente, com evidências documentadas, manipulando informações e evitando supervisão, além de uma profunda ligação entre investimentos pessoais e os negócios da empresa. A OpenAI é inconsistente em termos de segurança e transparência, com um descompasso grave entre seus compromissos públicos e as práticas internas.
O relatório é dividido em quatro grandes temas: primeiro, reestruturação; segundo, integridade do CEO; terceiro, transparência e segurança; quarto, conflitos de interesse.
Entre eles, é preocupante o grau em que os executivos e membros do conselho da OpenAI se beneficiaram direta ou indiretamente do sucesso da empresa. Isso inclui uma análise do portfólio do CEO Sam Altman, envolvendo várias empresas que têm relações de parceria com a OpenAI, como Retro Biosciences, Helion Energy, Reddit e Stripe.
Reorganização: uma "traição à missão" cuidadosamente planeada
O relatório aponta que a OpenAI está a desmontar sistematicamente e de forma premeditada os pilares éticos e estruturais fundamentais que existiam na sua fundação, e que suas ações estão em grave contradição com as declarações públicas, representando essencialmente uma mudança fundamental de "promover o bem-estar da humanidade" para "promover o lucro dos investidores".
Primeiro, o relatório revelou a simultânea desintegração dos dois pilares centrais da OpenAI - "limite de lucro" e "supervisão não lucrativa".
Imagem fonte: openaifiles.org/ site
O relatório refutou ainda mais a afirmação oficial da OpenAI de que abandonou o compromisso devido à "intensa concorrência no setor". Ao citar os primeiros "estatutos" da empresa e e-mails internos, o relatório demonstra que a OpenAI já previa e se preparava para a intensa concorrência do setor desde a sua fundação. Portanto, usar a concorrência como justificativa para romper compromissos é uma forma de "história revisionista" sem fundamento. O verdadeiro motivo por trás disso é que tanto os investidores quanto a alta administração da empresa acreditam em seu enorme potencial de lucro, tornando a remoção do limite crucial.
CEO Integridade: O comportamento do CEO gera uma crise de confiança
O relatório aponta ainda que o CEO Sam Altman apresenta um padrão de comportamento de longa duração, documentado, de desvio de conduta, manipulação de informações e evasão de supervisão, além de colocar interesses pessoais acima das responsabilidades organizacionais.
O relatório enumerou vários exemplos de Sam Altman a mentir ou a enganar publicamente sobre questões importantes. Por exemplo:
A ex-membro do conselho Helen Toner acusou diretamente Altman de obstruir o conselho através de "ocultação de informações, distorção de fatos e até mesmo mentiras diretas". O relatório também mostrou que esse padrão de comportamento permeou sua carreira:
Risco de Operação e Segurança: Falta Sistematizada do Compromisso de Segurança
O relatório revela que a OpenAI apresenta uma discrepância sistemática entre suas promessas de segurança e transparência e suas práticas internas, com um sério desvio entre o que é prometido publicamente e o que é praticado internamente. A cultura da empresa demonstra uma tendência de "apenas rápido não quebrar", em busca de benefícios comerciais e vantagem competitiva, enfraquecendo, evitando ou até punindo sistematicamente a supervisão de segurança interna e a dissidência.
O relatório revelou a inconsistência sistemática da OpenAI em relação à segurança e transparência. A empresa havia prometido alocar 20% dos recursos computacionais para a equipe de segurança de "super alinhamento", mas, segundo o ex-responsável Jan Leike, esses recursos nunca foram alocados. No desenvolvimento do GPT-4o, a equipe de segurança foi solicitada a "concluir rapidamente" os testes antes do lançamento do produto, e a empresa já havia planejado uma celebração para o lançamento antes mesmo do início da avaliação.
Mais grave ainda, a empresa ameaça os funcionários que pedem demissão com acordos de demissão severos, afirmando que, se criticarem a empresa, perderão milhões de dólares em ações. O funcionário Leopold Aschenbrenner foi demitido por ter submetido um memorando sobre riscos de segurança nacional ao conselho, e a empresa deixou claro que a razão para a demissão foi o seu "relato em nível superior" sobre problemas de segurança.
O relatório também apontou que a OpenAI sofreu uma grave violação de segurança em 2023, com detalhes sobre sua tecnologia de IA sendo roubados, mas não informou as autoridades ou o público durante um ano. Vários funcionários atuais e antigos acusaram a empresa de ter uma "cultura imprudente e secreta", colocando "lucro e crescimento" acima da missão de segurança.
Risco de conflito de interesses: A profundidade do investimento pessoal do CEO e a ligação com os negócios da empresa
O relatório revela detalhadamente como Sam Altman estabeleceu uma vasta e interligada rede de investimentos pessoais, que possuem conflitos de interesse profundos e diretos com os negócios, tecnologia e parcerias estratégicas da OpenAI, desafiando fundamentalmente a missão proclamada da OpenAI de "promover o bem-estar da humanidade".
Aqui estão alguns casos típicos:
Essas complexas relações de interesse corroem gravemente a responsabilidade fiduciária de Sam Altman como CEO. Suas decisões são realmente para a missão da OpenAI, ou para o crescimento de sua própria riqueza? O cenário final retratado no relatório é: Sam Altman mais parece um astuto operador de capital, que habilmente coloca a OpenAI no centro do seu império comercial pessoal, usando sua posição de CEO para transformar sistematicamente a tecnologia, os recursos e as relações estratégicas da OpenAI em impulso para o crescimento de seu portfólio pessoal.