OpenAI đã bị lật tẩy!

Báo cáo chỉ ra rằng, OpenAI đang hệ thống hóa và có chủ đích thực hiện sự chuyển đổi căn bản từ "phục vụ lợi ích nhân loại" sang "mang lại lợi nhuận cho các nhà đầu tư", CEO Sam Altman có hành vi không nhất quán, thao túng thông tin và tránh né giám sát trong thời gian dài, có bằng chứng rõ ràng, và sự gắn bó chặt chẽ giữa đầu tư cá nhân và hoạt động kinh doanh của công ty. OpenAI có sự không nhất quán trong lời nói và hành động về an toàn và minh bạch, cam kết công khai của họ hoàn toàn không tương thích với thực tiễn nội bộ.

Tác giả: Triệu Ứng

Nguồn: Quan sát ngành

Một báo cáo tương tác dài hơn 50 trang, với hơn mười nghìn từ, đã tiết lộ toàn bộ quá trình OpenAI chuyển mình từ một phòng thí nghiệm nghiên cứu phi lợi nhuận thành một gã khổng lồ kiếm lợi.

Gần đây, hai tổ chức giám sát công nghệ phi lợi nhuận lớn - Midas Project và Tech Oversight Project - đã hợp tác phát hành một báo cáo điều tra sâu rộng có tên là "Hồ sơ OpenAI".

Báo cáo này được dẫn dắt bởi Giám đốc điều hành của Midas Project, Tyler Johnston, với gần một năm thu thập thông tin công khai và một tháng viết tập trung. Báo cáo được gọi là "bộ sưu tập toàn diện nhất cho đến nay về những lo ngại đã được ghi nhận đối với OpenAI trong các thực hành quản trị công ty, tính trung thực của lãnh đạo và văn hóa tổ chức."

Bằng cách tổng hợp tài liệu công bố của công ty, các vụ kiện pháp lý, thư ngỏ và nhiều báo cáo truyền thông khác, báo cáo tương tác dài hơn một vạn từ này phát hiện ra rằng OpenAI đang hệ thống hóa và có kế hoạch thực hiện một sự chuyển biến cơ bản từ "phục vụ nhân loại" sang "mang lại lợi nhuận cho nhà đầu tư". CEO Sam Altman có hành vi không nhất quán, thao túng thông tin và lẩn tránh giám sát trong thời gian dài, có thể kiểm chứng được, và sự gắn bó sâu sắc giữa đầu tư cá nhân và hoạt động kinh doanh của công ty. OpenAI có sự không nhất quán giữa lời nói và hành động trong vấn đề an toàn và tính minh bạch, cam kết công khai của họ và thực tiễn nội bộ có sự chênh lệch nghiêm trọng.

Báo cáo được chia thành bốn chủ đề lớn, một là tái cấu trúc, hai là sự trung thực của Giám đốc điều hành, ba là tính minh bạch và an toàn, bốn là xung đột lợi ích.

Trong đó, mức độ mà các giám đốc điều hành và thành viên hội đồng quản trị của OpenAI hưởng lợi trực tiếp hoặc gián tiếp từ sự thành công của công ty đang thu hút sự chú ý. Điều này bao gồm phân tích danh mục đầu tư của CEO Sam Altman, liên quan đến nhiều công ty như Retro Biosciences, Helion Energy, Reddit, Stripe, v.v. có mối quan hệ hợp tác với OpenAI.

Tái cấu trúc: Một "sự phản bội nhiệm vụ" được lên kế hoạch tỉ mỉ

Báo cáo chỉ ra rằng, OpenAI đang hệ thống hóa, có kế hoạch để phá bỏ những trụ cột đạo đức và cấu trúc cốt lõi mà nó được thành lập, hành vi của họ mâu thuẫn nghiêm trọng với tuyên bố công khai, về bản chất đây là một sự chuyển biến cơ bản từ "vì lợi ích của nhân loại" sang "vì lợi nhuận của nhà đầu tư".

Đầu tiên, báo cáo tiết lộ sự sụp đổ đồng thời của hai trụ cột cốt lõi của OpenAI - "Giới hạn lợi nhuận" và "Giám sát phi lợi nhuận".

Mô hình "giới hạn lợi nhuận" (Capped-Profit) ban đầu là triết lý cốt lõi của nó, nhằm đảm bảo rằng sự giàu có khổng lồ mà AGI tạo ra có thể được chia sẻ với toàn nhân loại, ngăn ngừa sự tập trung quá mức của cải. Tuy nhiên, cam kết này đã bị xói mòn dần dần: từ việc điều chỉnh giảm tỷ lệ lợi nhuận dường như củng cố sứ mệnh, đến việc bí mật giới thiệu điều khoản "tăng tự động 20% mỗi năm" khiến nó về mặt chức năng trở nên vô nghĩa, cho đến kế hoạch cuối cùng hoàn toàn loại bỏ giới hạn, đánh dấu sự kết thúc hoàn toàn của ý tưởng chia sẻ tài sản.

Trong khi đó, cơ chế giám sát của nó cũng đã được làm yếu một cách khéo léo. OpenAI đã chuyển đổi từ một thực thể hoàn toàn do tổ chức phi lợi nhuận kiểm soát sang một công ty công ích ở Delaware. Nghĩa vụ pháp lý đã từ "ưu tiên sứ mệnh" chuyển sang "cân bằng lợi ích của cổ đông và lợi ích công cộng". Báo cáo chỉ ra rằng, trong lịch sử "không có tiền lệ nào mà cổ đông thành công kiện để bảo vệ lợi ích công cộng", điều này khiến cam kết công ích gần như không thể thực thi trong thực tiễn pháp lý. Điều này cho thấy, cam kết "công ích" của PBC trong thực tế có thể trở thành một chiếc vỏ rỗng, cung cấp một lớp bảo vệ pháp lý lớn cho việc tối đa hóa lợi nhuận.

Nguồn hình ảnh: openaifiles.org/ trang web

Báo cáo tiếp tục bác bỏ câu chuyện chính thức của OpenAI rằng họ đang từ bỏ cam kết của mình với lý do "ngành công nghiệp này có tính cạnh tranh cao". Bằng cách tham khảo các Quy chế ban đầu của công ty và email nội bộ, báo cáo chứng minh rằng OpenAI đã được dự đoán và chuẩn bị tốt để đối phó với sự cạnh tranh khốc liệt trong ngành ngay từ đầu. Do đó, sử dụng cạnh tranh như một lời biện minh cho việc từ bỏ lời hứa là một "lịch sử xét lại" không thể đứng vững. Động lực thực sự đằng sau điều này chính xác là vì các nhà đầu tư và giám đốc điều hành công ty tin tưởng vào tiềm năng thu nhập khổng lồ của nó, đó là lý do tại sao việc loại bỏ giới hạn là rất quan trọng.

CEO Độ sâu: Hành vi của CEO gây ra khủng hoảng lòng tin

Báo cáo còn chỉ ra rằng, CEO Sam Altman có hành vi lâu dài, có bằng chứng ghi nhận về sự không nhất quán trong lời nói và hành động, thao túng thông tin và né tránh giám sát, cũng như đặt lợi ích cá nhân lên trên trách nhiệm tổ chức.

Báo cáo liệt kê nhiều ví dụ về việc Sam Altman công khai nói dối hoặc gây hiểu lầm về các vấn đề quan trọng. Ví dụ:

Về vấn đề thỏa thuận không hạ thấp nhân viên, Altman công khai tuyên bố không biết về điều khoản "tước đoạt quyền sở hữu cổ phần của nhân viên nghỉ việc", nhưng tài liệu cho thấy ông đã rõ ràng ủy quyền cho điều khoản này.

Khi tuyên thệ làm chứng trước Thượng viện, anh ta tuyên bố không có cổ phần nào tại OpenAI, nhưng sau đó thừa nhận đã từng nắm giữ gián tiếp thông qua quỹ.

Che giấu sự thật về việc cá nhân của ông sở hữu quỹ khởi nghiệp OpenAI trước hội đồng quản trị trong thời gian dài.

Cựu thành viên hội đồng quản trị Helen Toner đã trực tiếp cáo buộc Altman cản trở chức năng của hội đồng quản trị bằng cách "che giấu thông tin, bóp méo sự thật, thậm chí nói dối một cách trực tiếp". Báo cáo cũng chỉ ra rằng mô hình hành vi này đã tồn tại xuyên suốt sự nghiệp của ông ta:

Trong thời kỳ Loopt, một nhân viên kỳ cựu đã hai lần cố gắng khiến hội đồng quản trị sa thải ông, với lý do là hành vi "gian dối và hỗn loạn."

Trong thời gian ở Y Combinator, anh đã bị sa thải bởi người sáng lập Paul Graham vì đã lơ là công việc do tập trung vào các dự án cá nhân.

Biểu hiện kịch tính nhất là, sau khi bị hội đồng quản trị OpenAI sa thải, ông đã sử dụng ảnh hưởng của mình để thao túng ngược lại, với điều kiện trở lại là "miễn nhiệm các thành viên hội đồng quản trị đã sa thải ông và cài cắm những đồng minh của mình", thành công thực hiện "phản công" vào hệ thống giám sát.

Vận hành và rủi ro an ninh: Sự thất hứa hệ thống về cam kết an ninh

Báo cáo tiết lộ rằng OpenAI có sự bất nhất hệ thống trong hành động và lời nói về an toàn và tính minh bạch, với những cam kết công khai bị tách biệt nghiêm trọng so với thực tiễn nội bộ. Văn hóa công ty thể hiện một xu hướng "chỉ nhanh không hỏng", và để theo đuổi lợi ích thương mại và lợi thế cạnh tranh, đang hệ thống hóa việc suy yếu, lẩn tránh thậm chí trừng phạt sự giám sát an toàn và những ý kiến phản đối nội bộ.

Báo cáo đã tiết lộ sự không nhất quán hệ thống của OpenAI trong việc đảm bảo an toàn và minh bạch. Công ty đã hứa sẽ dành 20% tài nguyên tính toán cho đội ngũ an toàn "siêu đồng bộ", nhưng theo thông tin từ cựu lãnh đạo Jan Leike, nguồn lực này chưa bao giờ được phân bổ. Trong quá trình phát triển GPT-4o, đội ngũ an toàn được yêu cầu "hoàn thành nhanh chóng" các bài kiểm tra trước khi sản phẩm được phát hành, và công ty thậm chí đã lên kế hoạch cho sự kiện kỷ niệm phát hành trước khi đánh giá bắt đầu.

Nghiêm trọng hơn, công ty đã sử dụng các thỏa thuận thôi việc nghiêm khắc để đe dọa nhân viên nghỉ việc, nếu chỉ trích công ty sẽ mất hàng triệu đô la cổ phần. Nhân viên Leopold Aschenbrenner bị sa thải vì đã nộp một bản ghi nhớ về rủi ro an ninh quốc gia cho ban giám đốc, công ty đã rõ ràng thông báo lý do sa thải chính là vì anh "báo cáo an ninh vấn đề vượt cấp".

Báo cáo cũng chỉ ra rằng OpenAI đã xảy ra một sự cố an ninh nghiêm trọng vào năm 2023, khi bị tấn công bởi hacker và thông tin chi tiết về công nghệ AI bị đánh cắp, nhưng trong suốt một năm dài đã không báo cáo cho các cơ quan chức năng hoặc công chúng. Nhiều nhân viên hiện tại và cựu nhân viên đã cáo buộc công ty có "văn hóa liều lĩnh và giữ bí mật", đặt "lợi nhuận và tăng trưởng" lên trên sứ mệnh an ninh.

Rủi ro xung đột lợi ích: Sự liên kết chặt chẽ giữa đầu tư cá nhân của CEO và hoạt động kinh doanh của công ty

Báo cáo đã tiết lộ chi tiết cách mà Sam Altman đã xây dựng một mạng lưới đầu tư cá nhân khổng lồ và liên kết chặt chẽ, những khoản đầu tư này có xung đột lợi ích sâu sắc và trực tiếp với các hoạt động, công nghệ và quan hệ đối tác chiến lược của OpenAI, từ đó thách thức căn bản sứ mệnh mà OpenAI tuyên bố "vì lợi ích của toàn nhân loại."

Dưới đây là một số trường hợp điển hình:

Helion (năng lượng nhiệt hạch): Sam Altman vừa là Chủ tịch và nhà đầu tư chính của Helion, vừa là CEO của OpenAI. Ông đã trực tiếp điều hành giao dịch mà OpenAI mua một lượng lớn năng lượng từ Helion. Có lý do để nghi ngờ rằng giao dịch này chủ yếu nhằm bảo đảm cho khoản đầu tư khổng lồ của ông tại Helion.

Worldcoin (dự án tiền điện tử): Sam Altman là đồng sáng lập của Worldcoin. OpenAI đã thiết lập mối quan hệ hợp tác chính thức với Worldcoin (như cung cấp dịch vụ GPT-4 miễn phí). Mọi người đặt câu hỏi liệu đây có thực sự là một mối quan hệ hợp tác kinh doanh bình đẳng hay không, hay Sam Altman đang lợi dụng tài nguyên và thương hiệu của OpenAI để hỗ trợ và quảng bá cho một dự án rủi ro cao khác của mình.

Humane (AI phần cứng): Sam Altman là cổ đông lớn nhất của Humane, trong khi sản phẩm của Humane phụ thuộc nghiêm trọng vào mô hình của OpenAI. Là CEO của OpenAI, ông có động lực tài chính cá nhân mạnh mẽ để đảm bảo Humane nhận được các điều khoản ưu đãi hoặc hỗ trợ kỹ thuật ưu tiên, điều này có thể gây hại cho lợi ích của các khách hàng khác và tính công bằng của thị trường.

Những mối quan hệ lợi ích phức tạp này đã nghiêm trọng xâm phạm trách nhiệm tín thác của Sam Altman với tư cách là CEO. Quyết định của ông thực sự là vì sứ mệnh của OpenAI, hay vì sự gia tăng tài sản cá nhân của ông? Bức tranh cuối cùng mà báo cáo vẽ ra là: Sam Altman giống như một tay chơi vốn tinh ranh, ông khéo léo đặt OpenAI vào trung tâm đế chế kinh doanh cá nhân của mình, và tận dụng vị trí CEO để hệ thống hóa việc chuyển đổi công nghệ, tài nguyên và mối quan hệ chiến lược của OpenAI thành động lực tăng trưởng cho danh mục đầu tư cá nhân.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)