OpenAI telah dibongkar habis-habisan!

Laporan menunjukkan bahwa OpenAI secara sistematis dan terencana telah menyelesaikan pergeseran mendasar dari "memperjuangkan kesejahteraan manusia" menjadi "memperjuangkan keuntungan investor", CEO Sam Altman memiliki pola perilaku yang sudah lama dan dapat dibuktikan yang tidak konsisten, memanipulasi informasi dan menghindari pengawasan, serta adanya ikatan yang dalam antara investasi pribadi dan bisnis perusahaan. OpenAI tidak konsisten dalam hal keamanan dan transparansi, komitmen publiknya sangat tidak sejalan dengan praktik internal.

Penulis: Zhao Ying

Sumber: Pengamatan Industri

Sebuah laporan interaktif lebih dari 50 halaman dan lebih dari sepuluh ribu kata, mengungkap seluruh proses evolusi OpenAI dari laboratorium penelitian nirlaba menjadi raksasa yang menguntungkan.

Baru-baru ini, dua organisasi pengawas teknologi non-profit besar - Midas Project dan Tech Oversight Project - telah merilis sebuah laporan investigasi mendalam yang berjudul "OpenAI Archives".

Laporan ini dipimpin oleh Direktur Eksekutif Midas Project, Tyler Johnston, yang melibatkan hampir satu tahun pengumpulan informasi publik dan satu bulan penulisan terfokus. Laporan ini disebut sebagai "kompilasi paling komprehensif hingga saat ini mengenai kekhawatiran yang telah tercatat terkait praktik tata kelola perusahaan OpenAI, integritas kepemimpinan, dan budaya organisasi."

Dengan merapikan dokumen pengungkapan perusahaan, tuntutan hukum, surat terbuka, dan banyak materi publik lainnya, laporan interaktif lebih dari sepuluh ribu kata ini menemukan bahwa OpenAI secara sistematis dan terencana telah menyelesaikan pergeseran mendasar dari "memanfaatkan kesejahteraan manusia" menjadi "memanfaatkan keuntungan investor". CEO Sam Altman menunjukkan pola perilaku yang konsisten, dapat ditelusuri, dengan ucapan yang tidak sejalan, manipulasi informasi, dan penghindaran pengawasan, serta pengikatan mendalam antara investasi pribadi dan bisnis perusahaan. OpenAI tidak konsisten dalam hal keamanan dan transparansi, dengan janji publik yang sangat tidak sejalan dengan praktik internal.

Laporan dibagi menjadi empat tema besar, yaitu restrukturisasi, integritas CEO, transparansi dan keamanan, serta konflik kepentingan.

Di antaranya, tingkat keuntungan yang diperoleh eksekutif dan anggota dewan OpenAI dari keberhasilan perusahaan menarik perhatian. Ini termasuk analisis portofolio CEO Sam Altman, yang melibatkan beberapa perusahaan yang memiliki hubungan kerja sama dengan OpenAI, seperti Retro Biosciences, Helion Energy, Reddit, Stripe, dan lainnya.

Reorganisasi: Sebuah "Pengkhianatan Misi" yang Direncanakan dengan Cermat

Laporan menunjukkan bahwa OpenAI secara sistematis dan terencana sedang membongkar pilar etika dan struktur inti yang ada saat didirikan, tindakan mereka bertentangan secara serius dengan pernyataan publik, pada dasarnya merupakan perubahan mendasar dari "untuk kesejahteraan manusia" menjadi "untuk keuntungan investor".

Pertama, laporan tersebut mengungkapkan dua pilar inti OpenAI — "batas keuntungan" dan "pengawasan non-profit" — yang mengalami keruntuhan secara sinkron.

Model "Batas Laba" (Capped-Profit) yang awal adalah filosofi inti yang bertujuan untuk memastikan kekayaan besar yang diciptakan oleh AGI dapat dibagikan kepada seluruh umat manusia, mencegah konsentrasi kekayaan yang berlebihan. Namun, komitmen ini secara bertahap terkikis: dari penurunan kelipatan laba yang tampaknya memperkuat misi, hingga pengenalan rahasia klausul "pertumbuhan otomatis 20% setiap tahun" yang secara fungsional membuatnya tidak berdaya, hingga rencana akhir untuk sepenuhnya menghapus batasan, menandakan akhir total dari konsep berbagi kekayaan.

Sementara itu, mekanisme pengawasannya juga telah dilemahkan dengan cerdik. OpenAI bertransisi dari entitas yang sepenuhnya dikendalikan oleh organisasi nirlaba menjadi perusahaan publik di Delaware. Kewajiban hukum beralih dari "misi diutamakan" menjadi "menyeimbangkan kepentingan pemegang saham dan kepentingan publik". Laporan tersebut menunjukkan bahwa secara historis "tidak ada preseden di mana pemegang saham berhasil menggugat untuk melindungi kepentingan publik", yang membuat komitmen publik hampir tidak dapat diterapkan dalam praktik hukum. Ini menunjukkan bahwa komitmen "publik" PBC mungkin dalam kenyataannya menjadi kosong, memberikan perlindungan hukum yang besar untuk mengejar maksimisasi keuntungan.

Sumber gambar: openaifiles.org/ situs

Laporan tersebut lebih lanjut membantah pernyataan resmi OpenAI yang menggunakan alasan "persaingan industri yang ketat" untuk mengabaikan komitmennya. Dengan mengutip "Anggaran Dasar" awal perusahaan dan email internal, laporan tersebut membuktikan bahwa OpenAI sudah sepenuhnya memprediksi dan mempersiapkan diri untuk menghadapi persaingan industri yang ketat sejak awal pendiriannya. Oleh karena itu, menggunakan persaingan sebagai alasan untuk mengingkari komitmen adalah bentuk "sejarah revisi" yang tidak dapat diterima. Motivasi sebenarnya di balik ini adalah keyakinan investor dan manajemen perusahaan akan potensi keuntungan yang besar, sehingga menghapus batasan menjadi sangat penting.

CEO Integritas: Pola Perilaku CEO Menimbulkan Krisis Kepercayaan

Laporan lebih lanjut menunjukkan bahwa CEO Sam Altman memiliki pola perilaku jangka panjang yang terukur dan dapat dibuktikan, termasuk ketidaksesuaian antara kata-kata dan tindakan, manipulasi informasi, dan penghindaran pengawasan, serta menempatkan kepentingan pribadi di atas tanggung jawab organisasi.

Laporan tersebut mencantumkan beberapa contoh di mana Sam Altman secara terbuka berbohong atau menyesatkan tentang masalah penting. Misalnya:

Dalam masalah perjanjian non-penghinaan karyawan, Altman secara terbuka mengklaim tidak mengetahui klausul "pencabutan hak atas saham karyawan yang mengundurkan diri", tetapi dokumen menunjukkan bahwa dia secara jelas memberikan otorisasi untuk klausul ini.

Saat bersaksi di Senat, dia mengklaim tidak memiliki saham OpenAI, tetapi kemudian mengakui pernah memiliki secara tidak langsung melalui dana.

Secara jangka panjang menyembunyikan fakta bahwa ia memiliki dana pendiri OpenAI dari dewan direksi.

Mantan anggota dewan Helen Toner secara langsung menuduh Altman menghalangi tugas dewan dengan "menyembunyikan informasi, memutarbalikkan fakta, dan bahkan berbohong secara langsung". Laporan tersebut juga menunjukkan bahwa pola perilaku ini telah berlangsung sepanjang karirnya:

Pada masa Loopt, karyawan senior pernah mencoba dua kali untuk memecatnya dari dewan, dengan alasan perilaku yang "menipu dan membingungkan."

Selama di Y Combinator, dia dipecat oleh pendiri Paul Graham karena mengabaikan tugasnya karena fokus pada proyek pribadi.

Puncak yang paling dramatis adalah, setelah dipecat oleh dewan OpenAI, dia menggunakan pengaruhnya untuk melakukan operasi balik, dengan "memecat anggota dewan yang memberhentikannya dan menempatkan sekutunya" sebagai syarat untuk kembali, berhasil mewujudkan "balasan" terhadap sistem pengawasan.

Operasi dan Risiko Keamanan: Kegagalan Sistematik dari Janji Keamanan

Laporan mengungkapkan bahwa OpenAI memiliki ketidaksesuaian sistemik antara kata dan tindakan dalam hal keamanan dan transparansi, dengan komitmen publik yang sangat terputus dari praktik internal. Budaya perusahaan menunjukkan kecenderungan "cepat tanpa henti", yang secara sistematis melemahkan, menghindari, atau bahkan menghukum pengawasan keamanan dan dissent internal demi mengejar keuntungan bisnis dan keunggulan kompetitif.

Laporan tersebut mengungkapkan ketidaksesuaian sistematis dalam tindakan dan kata-kata OpenAI terkait keamanan dan transparansi. Perusahaan pernah berjanji untuk mengalokasikan 20% dari sumber daya komputasi untuk tim keamanan "super alignment", tetapi menurut mantan kepala Jan Leike, sumber daya tersebut tidak pernah dialokasikan. Dalam pengembangan GPT-4o, tim keamanan diminta untuk "menyelesaikan" pengujian dengan cepat sebelum peluncuran produk, dan perusahaan bahkan telah merencanakan acara perayaan sebelum evaluasi dimulai.

Lebih parah lagi, perusahaan menggunakan perjanjian pemutusan kerja yang ketat untuk mengancam karyawan yang mengundurkan diri, jika mengkritik perusahaan akan kehilangan ekuitas senilai jutaan dolar. Karyawan Leopold Aschenbrenner dipecat karena mengajukan memo risiko keamanan nasional kepada dewan, perusahaan secara jelas memberi tahu bahwa alasan pemecatannya adalah karena dia "melaporkan masalah keamanan secara langsung".

Laporan tersebut juga menunjukkan bahwa OpenAI mengalami insiden keamanan serius pada tahun 2023, di mana terjadi peretasan dan pencurian rincian teknologi AI, tetapi tidak melaporkannya kepada pihak berwenang atau publik selama hampir satu tahun. Beberapa karyawan saat ini dan mantan karyawan menuduh perusahaan memiliki "budaya sembrono dan rahasia," menempatkan "keuntungan dan pertumbuhan" di atas misi keamanan.

Risiko Konflik Kepentingan: Kedalaman Investasi Pribadi CEO dan Bisnis Perusahaan

Laporan tersebut secara rinci mengungkapkan bagaimana Sam Altman membangun jaringan investasi pribadi yang besar dan saling terhubung, di mana investasi tersebut memiliki konflik kepentingan yang mendalam dan langsung dengan bisnis, teknologi, dan kemitraan strategis OpenAI, yang secara mendasar menantang misi OpenAI yang mengklaim "untuk kesejahteraan seluruh umat manusia."

Berikut adalah beberapa contoh khas:

Helion (Energi Fusi Nuklir): Sam Altman adalah ketua dan investor utama Helion, serta CEO OpenAI. Dia secara langsung memimpin transaksi di mana OpenAI membeli sejumlah besar energi dari Helion. Ada alasan untuk mempertanyakan apakah transaksi ini terutama untuk melindungi investasi besar pribadinya di Helion.

Worldcoin (proyek cryptocurrency): Sam Altman adalah salah satu pendiri Worldcoin. OpenAI menjalin kemitraan resmi dengan Worldcoin (seperti menyediakan layanan GPT-4 gratis). Orang-orang mempertanyakan apakah ini benar-benar kemitraan bisnis yang setara, atau apakah Sam Altman memanfaatkan sumber daya dan merek OpenAI untuk mendukung dan mempromosikan proyek berisiko tingginya yang lain.

Humane (AI Hardware): Sam Altman adalah pemegang saham terbesar di Humane, dan produk Humane sangat bergantung pada model OpenAI. Sebagai CEO OpenAI, dia memiliki motivasi finansial pribadi yang kuat untuk memastikan Humane mendapatkan syarat yang menguntungkan atau dukungan teknologi prioritas, yang dapat merugikan kepentingan pelanggan lain dan keadilan pasar.

Hubungan kepentingan yang rumit ini secara serius menggerogoti tanggung jawab kepercayaan Sam Altman sebagai CEO. Apakah keputusannya demi misi OpenAI, atau demi pertumbuhan kekayaannya pribadi? Gambaran akhir yang dilukiskan laporan adalah: Sam Altman lebih mirip seorang pengatur modal yang cerdik, yang secara cerdik menempatkan OpenAI di pusat kerajaan bisnis pribadinya, dan memanfaatkan posisinya sebagai CEO untuk secara sistematis mengubah teknologi, sumber daya, dan hubungan strategis OpenAI menjadi kekuatan pendorong pertumbuhan portofolio pribadinya.

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)