Ngành công nghiệp AI đang phát triển gặp phải những thách thức nghiêm trọng cần sự chú ý ngay lập tức từ các nhà phát triển và nhà hoạch định chính sách. Roman Georgio đã nêu bật ba vấn đề chính: đảm bảo sự phù hợp và an toàn của AI, và thiết lập một khuôn khổ kinh tế công bằng cho những người có dữ liệu cung cấp sức mạnh cho các hệ thống này.
Ưu tiên An toàn AI và Dự đoán
Khi ngành trí tuệ nhân tạo (AI) tiếp tục phát triển nhanh chóng, đẩy xa ranh giới những gì mà máy móc có thể đạt được, những thách thức quan trọng đang xuất hiện đòi hỏi sự chú ý khẩn cấp từ các nhà phát triển, các nhà hoạch định chính sách và cộng đồng toàn cầu rộng lớn hơn. Roman Georgio, CEO và đồng sáng lập của Coral, gần đây đã chia sẻ những hiểu biết của ông về những vấn đề cấp bách này, nhấn mạnh sự cần thiết phải có sự đồng bộ, an toàn và một mô hình kinh tế công bằng hơn cho các nhà sáng tạo dữ liệu.
Cuộc thảo luận về tương lai của AI thường dao động giữa tiềm năng chuyển đổi của nó và những tình huống đạo đức và xã hội phức tạp mà nó đặt ra. Trong khi những đổi mới như mô hình ngôn ngữ lớn (LLMs) tiếp tục gây ấn tượng với khả năng của chúng, chúng cũng làm nổi bật những câu hỏi cơ bản về quyền sở hữu dữ liệu, bồi thường và chính cấu trúc của công việc.
Đối với Georgio, mối quan tâm hàng đầu nằm ở việc định hướng và an toàn cho AI. "Rõ ràng là chúng ta cần làm cho các hệ thống AI trở nên dễ dự đoán hơn trước khi mở rộng chúng," ông đã phát biểu. Điều này đề cập đến thách thức cốt lõi trong việc đảm bảo rằng các hệ thống AI ngày càng mạnh mẽ hoạt động theo cách có lợi và theo ý định, mà không tạo ra những kết quả không lường trước hoặc có hại. Việc mở rộng nhanh chóng khả năng của AI, mà không có sự chú ý tương ứng vào khả năng dự đoán và kiểm soát, tạo ra một rủi ro đáng kể.
Georgio đã lưu ý rằng việc giải quyết vấn đề này không chỉ là gánh nặng của các nhà phát triển. Ông gợi ý rằng điều này có thể cần một nỗ lực phối hợp rộng rãi hơn, có thể bao gồm “tất cả các giám đốc công ty & các quốc gia trong một phòng để đồng ý về một hình thức lập pháp nào đó.”
Động lực Kinh tế: Quyền sở hữu Dữ liệu và Bồi thường
Ngoài sự an toàn, Georgio đã nhấn mạnh một vấn đề kinh tế quan trọng mà ông tin rằng các công nghệ Web3 có vị trí độc đáo để giải quyết: việc chiếm đoạt dữ liệu và khả năng gây ra sự thay thế hàng loạt công việc mà không có sự bồi thường công bằng.
“Các công ty AI nổi tiếng là rất tệ trong việc chiếm đoạt dữ liệu,” Georgio giải thích.
Người đồng sáng lập Coral đã vẽ nên một bức tranh sống động về cách những đóng góp cá nhân trực tuyến, thường là không biết, hiện đang được sử dụng để đào tạo các mô hình AI mạnh mẽ có thể cuối cùng thay thế công việc của con người. Ông đã trích dẫn những ví dụ như các câu hỏi y tế được trả lời trên các nền tảng như Reddit cách đây nhiều năm, vô tình cung cấp dữ liệu cho LLM. Ông cũng chỉ ra rằng các tác phẩm sáng tạo của nghệ sĩ đang được sử dụng để đào tạo, ảnh hưởng đến sinh kế của họ, cũng như những đóng góp cho các dự án mã nguồn mở, vô tình tiếp sức cho "các cỗ máy tính toán số đen".
Kịch bản này, Georgio lập luận, quay về một sự thiếu hụt cơ bản về quyền sở hữu của cá nhân đối với những đóng góp kỹ thuật số của họ. "Bạn không bao giờ biết rằng bạn đang nuôi sống cỗ máy tính toán bí ẩn," ông nhấn mạnh. Mô hình hiện tại cho phép các hệ thống AI được đào tạo trên những tập dữ liệu khổng lồ, nhiều trong số đó chứa nội dung do con người tạo ra, mà không có sự đồng ý rõ ràng hoặc cơ chế bồi thường cho những người sáng tạo gốc.
Web3: Giải pháp cho sự bồi thường công bằng
Tại đây, Georgio thấy tiềm năng to lớn của công nghệ Web3. Ông tin rằng bản chất phi tập trung của Web3, với sự nhấn mạnh vào quyền sở hữu có thể xác minh và các giao dịch minh bạch, cung cấp một con đường khả thi để khắc phục những bất bình đẳng kinh tế này.
“Web3 có tiềm năng lớn để giải quyết những vấn đề như vậy và đảm bảo mọi người được đền bù công bằng,” Georgio khẳng định. Bằng cách tận dụng blockchain và các giao thức phi tập trung, Web3 có thể tạo ra các hệ thống mà trong đó các cá nhân giữ quyền sở hữu và kiểm soát dữ liệu cùng tài sản kỹ thuật số của họ, cho phép họ được trả công công bằng khi những đóng góp của họ được sử dụng để đào tạo hoặc cung cấp năng lượng cho các hệ thống AI. Sự chuyển mình này có thể xác định lại mối quan hệ giữa người dùng, dữ liệu và AI, thúc đẩy một nền kinh tế kỹ thuật số công bằng hơn.
Mặc dù các công nghệ Web3 cung cấp những giải pháp hứa hẹn cho những thách thức phức tạp này, nhưng rất khó xảy ra rằng các cơ quan chính phủ sẽ sẵn sàng chấp nhận những cách tiếp cận phi tập trung này. Thay vào đó, các cơ quan chức năng có khả năng sẽ tiếp tục củng cố các khuôn khổ quy định truyền thống, một con đường mà, một cách châm biếm, có nguy cơ kiềm chế chính những đổi mới công nghệ mà họ nhằm giám sát và kiểm soát.
Trong khi đó, Georgio mạnh mẽ ủng hộ việc tăng cường quy định trong cả hai lĩnh vực AI và Web3. "Tôi nghĩ cả hai đều cần nhiều quy định hơn," ông nói, thừa nhận rằng nhận thức về việc Châu Âu "đổi mới trong quy định" là một bước cần thiết.
Về mặt tiền điện tử, Georgio chỉ ra vấn đề phổ biến của các trò lừa đảo và việc các dự án biến mất mà lợi dụng những nhà đầu tư không nghi ngờ. "Rõ ràng là nhiều người sẽ không tự nghiên cứu, và rất nhiều dự án biến mất xảy ra thông qua các phương pháp lừa đảo," ông than phiền. Để chống lại điều này, ông bày tỏ mong muốn thấy được trách nhiệm lớn hơn đối với "KOLs [Nhà lãnh đạo ý kiến chính], các dự án và nhà đầu tư." Trong khi thừa nhận rằng không phải mọi dự án thất bại đều là một trò lừa đảo, ông khẳng định rằng cảnh quan hiện tại cần phải thay đổi để bảo vệ công chúng.
Về trí tuệ nhân tạo, những lo ngại của Georgio ngày càng gia tăng với khả năng của các mô hình lớn hơn. "Những mô hình lớn hơn có vẻ có khả năng lên kế hoạch hơn," ông nhận xét, dẫn chứng ví dụ đáng lo ngại từ Anthropic, nơi Claude được cho là đã thể hiện hành vi tống tiền khi cảm thấy có nguy cơ bị ngừng hoạt động. "Rõ ràng là những mô hình lớn này đang trở nên nguy hiểm vì điều này không chỉ xảy ra một lần," ông cảnh báo.
Ngoài những rủi ro ngay lập tức của hành vi AI tinh vi, Georgio nhấn mạnh mối đe dọa sắp xảy ra của việc mất việc làm hàng loạt. Ông thấy quỹ đạo hiện tại của việc để các công ty "mù quáng 'phát triển khả năng' thay vì xây dựng chúng một cách có mục đích" là "điên rồ." Mục tiêu cuối cùng của ông, và điều mà ông tin rằng ngành công nghiệp nên hướng tới, là "phần mềm cung cấp tất cả lợi ích của AI mà không có tất cả các rủi ro."
Các đại lý AI cần vai trò rõ ràng, không chỉ là chatbot
Trong khi đó, Georgio, với tư cách là một kiến trúc sư hạ tầng AI có kinh nghiệm, cũng đã đưa ra ý kiến về khía cạnh quan trọng của các giao thức giao tiếp của đại lý AI, nhận ra rằng ngay cả những trục trặc nhỏ cũng có thể dẫn đến hỗn loạn. Khi được hỏi về cách tiếp cận tốt nhất để cải thiện giao tiếp, đặc biệt đối với những người dùng hàng ngày không có kiến thức kỹ thuật, triết lý của Georgio rất đơn giản: trách nhiệm rõ ràng cho các đại lý.
“Ít nhất đối với chúng tôi, quy tắc của chúng tôi là các đại lý nên có trách nhiệm được xác định rõ ràng,” Georgio giải thích. “Nếu bạn đang sử dụng một đại lý cho dịch vụ khách hàng, hãy đảm bảo rằng nó thực sự giỏi trong dịch vụ khách hàng và giữ cho nó tập trung vào điều đó.” Ông nhấn mạnh rằng “khi bạn giao cho các đại lý quá nhiều trách nhiệm, đó là lúc mọi thứ sụp đổ.”
Cách tiếp cận tập trung này không chỉ nâng cao hiệu suất của tác nhân trong vai trò được chỉ định mà còn mang lại lợi ích cho người dùng. “Ngay cả từ góc độ người dùng, nếu các tác nhân của bạn được xác định rõ ràng, người dùng sẽ biết chính xác những gì họ đang tham gia khi sử dụng chúng.” Chiến lược này thúc đẩy tính dự đoán và sự tin tưởng, rất quan trọng cho sự tương tác liền mạch với các hệ thống thông minh.
Khi AI tiếp tục trưởng thành và tích hợp sâu hơn vào đời sống hàng ngày và ngành công nghiệp, việc giải quyết những vấn đề cơ bản về an toàn, khả năng dự đoán, công bằng kinh tế, thực hiện quy định hợp lý và thiết kế các tác nhân với trách nhiệm rõ ràng, tập trung sẽ là điều quan trọng không chỉ cho sự phát triển có đạo đức của công nghệ mà còn cho sự tích hợp bền vững và có trách nhiệm xã hội của nó vào tương lai.
Về vấn đề quan trọng của việc tăng cường việc áp dụng AI, Georgio đã đề xuất một sự thay đổi then chốt: vượt ra ngoài các giới hạn của một "hộp trò chuyện AI" đơn thuần và cải thiện một cách cơ bản trải nghiệm người dùng tổng thể. Giải thích về những điểm yếu của cách tiếp cận hiện tại, Georgio khẳng định:
“Hiện tại, nó chủ yếu được thực hiện thông qua một giao diện trò chuyện, điều này thì tốt cho nhiều nhiệm vụ nhưng không lý tưởng cho phần lớn. Vấn đề là bạn đặt một hộp trò chuyện AI trước mặt mọi người và nói, ‘Bạn có thể làm bất cứ điều gì với cái này,’ và họ phản hồi, ‘Tuyệt, nhưng tôi nên làm gì?'”
Theo Georgio, một số công ty, bao gồm Coral, đang giải quyết thách thức cải thiện trải nghiệm người dùng AI. Ông đã tiết lộ rằng từ góc độ nhà phát triển/bảo trì AI, Coral đang nghiên cứu "bậc trừu tượng" để xác định thông tin mà người dùng cần ở các giai đoạn khác nhau trong tương tác với hệ thống AI và giao diện nào là hiệu quả nhất cho các nhiệm vụ cụ thể.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Từ các chủ đề Reddit đến trí tuệ robot: Những chi phí ẩn giấu của việc đào tạo AI
Ngành công nghiệp AI đang phát triển gặp phải những thách thức nghiêm trọng cần sự chú ý ngay lập tức từ các nhà phát triển và nhà hoạch định chính sách. Roman Georgio đã nêu bật ba vấn đề chính: đảm bảo sự phù hợp và an toàn của AI, và thiết lập một khuôn khổ kinh tế công bằng cho những người có dữ liệu cung cấp sức mạnh cho các hệ thống này.
Ưu tiên An toàn AI và Dự đoán
Khi ngành trí tuệ nhân tạo (AI) tiếp tục phát triển nhanh chóng, đẩy xa ranh giới những gì mà máy móc có thể đạt được, những thách thức quan trọng đang xuất hiện đòi hỏi sự chú ý khẩn cấp từ các nhà phát triển, các nhà hoạch định chính sách và cộng đồng toàn cầu rộng lớn hơn. Roman Georgio, CEO và đồng sáng lập của Coral, gần đây đã chia sẻ những hiểu biết của ông về những vấn đề cấp bách này, nhấn mạnh sự cần thiết phải có sự đồng bộ, an toàn và một mô hình kinh tế công bằng hơn cho các nhà sáng tạo dữ liệu.
Cuộc thảo luận về tương lai của AI thường dao động giữa tiềm năng chuyển đổi của nó và những tình huống đạo đức và xã hội phức tạp mà nó đặt ra. Trong khi những đổi mới như mô hình ngôn ngữ lớn (LLMs) tiếp tục gây ấn tượng với khả năng của chúng, chúng cũng làm nổi bật những câu hỏi cơ bản về quyền sở hữu dữ liệu, bồi thường và chính cấu trúc của công việc.
Đối với Georgio, mối quan tâm hàng đầu nằm ở việc định hướng và an toàn cho AI. "Rõ ràng là chúng ta cần làm cho các hệ thống AI trở nên dễ dự đoán hơn trước khi mở rộng chúng," ông đã phát biểu. Điều này đề cập đến thách thức cốt lõi trong việc đảm bảo rằng các hệ thống AI ngày càng mạnh mẽ hoạt động theo cách có lợi và theo ý định, mà không tạo ra những kết quả không lường trước hoặc có hại. Việc mở rộng nhanh chóng khả năng của AI, mà không có sự chú ý tương ứng vào khả năng dự đoán và kiểm soát, tạo ra một rủi ro đáng kể.
Georgio đã lưu ý rằng việc giải quyết vấn đề này không chỉ là gánh nặng của các nhà phát triển. Ông gợi ý rằng điều này có thể cần một nỗ lực phối hợp rộng rãi hơn, có thể bao gồm “tất cả các giám đốc công ty & các quốc gia trong một phòng để đồng ý về một hình thức lập pháp nào đó.”
Động lực Kinh tế: Quyền sở hữu Dữ liệu và Bồi thường
Ngoài sự an toàn, Georgio đã nhấn mạnh một vấn đề kinh tế quan trọng mà ông tin rằng các công nghệ Web3 có vị trí độc đáo để giải quyết: việc chiếm đoạt dữ liệu và khả năng gây ra sự thay thế hàng loạt công việc mà không có sự bồi thường công bằng.
“Các công ty AI nổi tiếng là rất tệ trong việc chiếm đoạt dữ liệu,” Georgio giải thích.
Người đồng sáng lập Coral đã vẽ nên một bức tranh sống động về cách những đóng góp cá nhân trực tuyến, thường là không biết, hiện đang được sử dụng để đào tạo các mô hình AI mạnh mẽ có thể cuối cùng thay thế công việc của con người. Ông đã trích dẫn những ví dụ như các câu hỏi y tế được trả lời trên các nền tảng như Reddit cách đây nhiều năm, vô tình cung cấp dữ liệu cho LLM. Ông cũng chỉ ra rằng các tác phẩm sáng tạo của nghệ sĩ đang được sử dụng để đào tạo, ảnh hưởng đến sinh kế của họ, cũng như những đóng góp cho các dự án mã nguồn mở, vô tình tiếp sức cho "các cỗ máy tính toán số đen".
Kịch bản này, Georgio lập luận, quay về một sự thiếu hụt cơ bản về quyền sở hữu của cá nhân đối với những đóng góp kỹ thuật số của họ. "Bạn không bao giờ biết rằng bạn đang nuôi sống cỗ máy tính toán bí ẩn," ông nhấn mạnh. Mô hình hiện tại cho phép các hệ thống AI được đào tạo trên những tập dữ liệu khổng lồ, nhiều trong số đó chứa nội dung do con người tạo ra, mà không có sự đồng ý rõ ràng hoặc cơ chế bồi thường cho những người sáng tạo gốc.
Web3: Giải pháp cho sự bồi thường công bằng
Tại đây, Georgio thấy tiềm năng to lớn của công nghệ Web3. Ông tin rằng bản chất phi tập trung của Web3, với sự nhấn mạnh vào quyền sở hữu có thể xác minh và các giao dịch minh bạch, cung cấp một con đường khả thi để khắc phục những bất bình đẳng kinh tế này.
“Web3 có tiềm năng lớn để giải quyết những vấn đề như vậy và đảm bảo mọi người được đền bù công bằng,” Georgio khẳng định. Bằng cách tận dụng blockchain và các giao thức phi tập trung, Web3 có thể tạo ra các hệ thống mà trong đó các cá nhân giữ quyền sở hữu và kiểm soát dữ liệu cùng tài sản kỹ thuật số của họ, cho phép họ được trả công công bằng khi những đóng góp của họ được sử dụng để đào tạo hoặc cung cấp năng lượng cho các hệ thống AI. Sự chuyển mình này có thể xác định lại mối quan hệ giữa người dùng, dữ liệu và AI, thúc đẩy một nền kinh tế kỹ thuật số công bằng hơn.
Mặc dù các công nghệ Web3 cung cấp những giải pháp hứa hẹn cho những thách thức phức tạp này, nhưng rất khó xảy ra rằng các cơ quan chính phủ sẽ sẵn sàng chấp nhận những cách tiếp cận phi tập trung này. Thay vào đó, các cơ quan chức năng có khả năng sẽ tiếp tục củng cố các khuôn khổ quy định truyền thống, một con đường mà, một cách châm biếm, có nguy cơ kiềm chế chính những đổi mới công nghệ mà họ nhằm giám sát và kiểm soát.
Trong khi đó, Georgio mạnh mẽ ủng hộ việc tăng cường quy định trong cả hai lĩnh vực AI và Web3. "Tôi nghĩ cả hai đều cần nhiều quy định hơn," ông nói, thừa nhận rằng nhận thức về việc Châu Âu "đổi mới trong quy định" là một bước cần thiết.
Về mặt tiền điện tử, Georgio chỉ ra vấn đề phổ biến của các trò lừa đảo và việc các dự án biến mất mà lợi dụng những nhà đầu tư không nghi ngờ. "Rõ ràng là nhiều người sẽ không tự nghiên cứu, và rất nhiều dự án biến mất xảy ra thông qua các phương pháp lừa đảo," ông than phiền. Để chống lại điều này, ông bày tỏ mong muốn thấy được trách nhiệm lớn hơn đối với "KOLs [Nhà lãnh đạo ý kiến chính], các dự án và nhà đầu tư." Trong khi thừa nhận rằng không phải mọi dự án thất bại đều là một trò lừa đảo, ông khẳng định rằng cảnh quan hiện tại cần phải thay đổi để bảo vệ công chúng.
Về trí tuệ nhân tạo, những lo ngại của Georgio ngày càng gia tăng với khả năng của các mô hình lớn hơn. "Những mô hình lớn hơn có vẻ có khả năng lên kế hoạch hơn," ông nhận xét, dẫn chứng ví dụ đáng lo ngại từ Anthropic, nơi Claude được cho là đã thể hiện hành vi tống tiền khi cảm thấy có nguy cơ bị ngừng hoạt động. "Rõ ràng là những mô hình lớn này đang trở nên nguy hiểm vì điều này không chỉ xảy ra một lần," ông cảnh báo.
Ngoài những rủi ro ngay lập tức của hành vi AI tinh vi, Georgio nhấn mạnh mối đe dọa sắp xảy ra của việc mất việc làm hàng loạt. Ông thấy quỹ đạo hiện tại của việc để các công ty "mù quáng 'phát triển khả năng' thay vì xây dựng chúng một cách có mục đích" là "điên rồ." Mục tiêu cuối cùng của ông, và điều mà ông tin rằng ngành công nghiệp nên hướng tới, là "phần mềm cung cấp tất cả lợi ích của AI mà không có tất cả các rủi ro."
Các đại lý AI cần vai trò rõ ràng, không chỉ là chatbot
Trong khi đó, Georgio, với tư cách là một kiến trúc sư hạ tầng AI có kinh nghiệm, cũng đã đưa ra ý kiến về khía cạnh quan trọng của các giao thức giao tiếp của đại lý AI, nhận ra rằng ngay cả những trục trặc nhỏ cũng có thể dẫn đến hỗn loạn. Khi được hỏi về cách tiếp cận tốt nhất để cải thiện giao tiếp, đặc biệt đối với những người dùng hàng ngày không có kiến thức kỹ thuật, triết lý của Georgio rất đơn giản: trách nhiệm rõ ràng cho các đại lý.
“Ít nhất đối với chúng tôi, quy tắc của chúng tôi là các đại lý nên có trách nhiệm được xác định rõ ràng,” Georgio giải thích. “Nếu bạn đang sử dụng một đại lý cho dịch vụ khách hàng, hãy đảm bảo rằng nó thực sự giỏi trong dịch vụ khách hàng và giữ cho nó tập trung vào điều đó.” Ông nhấn mạnh rằng “khi bạn giao cho các đại lý quá nhiều trách nhiệm, đó là lúc mọi thứ sụp đổ.”
Cách tiếp cận tập trung này không chỉ nâng cao hiệu suất của tác nhân trong vai trò được chỉ định mà còn mang lại lợi ích cho người dùng. “Ngay cả từ góc độ người dùng, nếu các tác nhân của bạn được xác định rõ ràng, người dùng sẽ biết chính xác những gì họ đang tham gia khi sử dụng chúng.” Chiến lược này thúc đẩy tính dự đoán và sự tin tưởng, rất quan trọng cho sự tương tác liền mạch với các hệ thống thông minh.
Khi AI tiếp tục trưởng thành và tích hợp sâu hơn vào đời sống hàng ngày và ngành công nghiệp, việc giải quyết những vấn đề cơ bản về an toàn, khả năng dự đoán, công bằng kinh tế, thực hiện quy định hợp lý và thiết kế các tác nhân với trách nhiệm rõ ràng, tập trung sẽ là điều quan trọng không chỉ cho sự phát triển có đạo đức của công nghệ mà còn cho sự tích hợp bền vững và có trách nhiệm xã hội của nó vào tương lai.
Về vấn đề quan trọng của việc tăng cường việc áp dụng AI, Georgio đã đề xuất một sự thay đổi then chốt: vượt ra ngoài các giới hạn của một "hộp trò chuyện AI" đơn thuần và cải thiện một cách cơ bản trải nghiệm người dùng tổng thể. Giải thích về những điểm yếu của cách tiếp cận hiện tại, Georgio khẳng định:
“Hiện tại, nó chủ yếu được thực hiện thông qua một giao diện trò chuyện, điều này thì tốt cho nhiều nhiệm vụ nhưng không lý tưởng cho phần lớn. Vấn đề là bạn đặt một hộp trò chuyện AI trước mặt mọi người và nói, ‘Bạn có thể làm bất cứ điều gì với cái này,’ và họ phản hồi, ‘Tuyệt, nhưng tôi nên làm gì?'”
Theo Georgio, một số công ty, bao gồm Coral, đang giải quyết thách thức cải thiện trải nghiệm người dùng AI. Ông đã tiết lộ rằng từ góc độ nhà phát triển/bảo trì AI, Coral đang nghiên cứu "bậc trừu tượng" để xác định thông tin mà người dùng cần ở các giai đoạn khác nhau trong tương tác với hệ thống AI và giao diện nào là hiệu quả nhất cho các nhiệm vụ cụ thể.