Sau Hội nghị Trí Viễn 2023: Tôi tin tưởng hơn vào AI và lo lắng hơn về con người

Vào ngày 9 tháng 6, "Hội nghị Trí Viễn Bắc Kinh" kéo dài hai ngày đã được khai mạc thành công tại Trung tâm Hội nghị Khu vực Trình diễn Đổi mới Độc lập Quốc gia Zhongguancun.

Hội nghị Zhiyuan là sự kiện trao đổi chuyên môn cao cấp quốc tế thường niên về trí tuệ nhân tạo do Viện nghiên cứu Zhiyuan (còn được gọi là Viện nghiên cứu AI mạnh nhất Trung Quốc của OpenAI tại Trung Quốc) tổ chức. Gala Lễ hội mùa xuân" - có thể thấy từ đội hình tham gia khách:

Những người đoạt giải Turing Geoffrey Hinton, Yann LeCun (đây cũng là người thứ hai trong số Big Three về học sâu, một Bengio khác đã tham dự hội nghị trước đó), Joseph Sifakis và Yao Qizhi, Zhang Bo, Zheng Nanning, Xie Xiaoliang, Zhang Hongjiang, Zhang Yaqin và các học giả khác, Stuart Russell, người sáng lập Trung tâm Hệ thống Trí tuệ Nhân tạo tại Đại học California, Berkeley, Max Tegmark, người sáng lập Viện Cuộc sống Tương lai tại Viện Công nghệ Massachusetts, **Giám đốc điều hành OpenAI Sam Altman ** (đây cũng là bài phát biểu đầu tiên của anh ấy ở Trung Quốc, mặc dù là trực tuyến), Meta, Microsoft, Google và các công ty lớn khác và DeepMind, Anthropic, HuggingFace, Midjourney, Stability AI và các thành viên nhóm ngôi sao khác, tổng cộng hơn 200 chuyên gia trí tuệ nhân tạo hàng đầu...

Trong hai ngày qua, tôi đã theo dõi truyền hình trực tiếp hội nghị, là một sinh viên nghệ thuật tự do không hiểu về công nghệ, tôi thực sự đã lắng nghe rất hứng thú và thu được rất nhiều điều.

Tuy nhiên, sau khi đọc bài phát biểu của Geoffrey Hinton, người chiến thắng giải thưởng Turing cuối cùng và là "cha đẻ của deep learning", một cảm xúc mạnh mẽ và phức tạp bao trùm lấy tôi:

Một mặt, khi chứng kiến các nhà nghiên cứu AI khám phá và tưởng tượng ra nhiều công nghệ tiên tiến khác nhau, họ sẽ tự tin hơn trong việc hiện thực hóa AI và thậm chí là trí tuệ nhân tạo nói chung trong tương lai AGI**;

Mặt khác, việc nghe các chuyên gia, học giả đầu ngành thảo luận về rủi ro của AI, cũng như sự thiếu hiểu biết, coi thường của con người về cách đối phó với rủi ro, và đầy lo lắng về tương lai của loài người - vấn đề cốt yếu nhất, trong Lời của Hinton, đó là: lịch sử Chưa từng có tiền lệ trên thế giới mà một thứ thông minh hơn lại bị một thứ kém thông minh hơn kiểm soát ** Nếu loài ếch phát minh ra con người, bạn nghĩ ai sẽ nắm quyền kiểm soát? Đó là một con ếch, hay một con người? **

Do sự bùng nổ thông tin trong hai ngày hội nghị, tôi đã dành chút thời gian để phân loại tài liệu của một số bài phát biểu quan trọng, và nhân tiện ghi lại một số suy nghĩ của mình để sau này xem lại và chia sẻ với mọi người. quan tâm đến sự tiến bộ của AI.

Giải thích: Phần có đánh dấu [note] bên dưới là ý kiến cá nhân của mình, nội dung được tóm tắt dưới dạng trích dẫn (mình không viết ra được -_-|| do khả năng có hạn), nguồn là link tại cuối mỗi phần, và một số trong số chúng đã được sửa đổi.


Giám đốc điều hành OpenAI Sam Altman: AGI có thể xuất hiện trong vòng mười năm tới

Tại diễn đàn "An toàn và liên kết AI" được tổ chức cả ngày 10 tháng 6, người đồng sáng lập OpenAI Sam Altman đã có bài phát biểu khai mạc - đây cũng là bài phát biểu đầu tiên của ông tại Trung Quốc, mặc dù là trực tuyến.

Buổi nói chuyện đã đưa ra những hiểu biết sâu sắc về khả năng diễn giải, khả năng mở rộng và khả năng khái quát hóa của mô hình. Sau đó, Sam Altman và Zhang Hongjiang, chủ tịch Viện nghiên cứu Zhiyuan, đã tiến hành một cuộc hỏi đáp cấp cao, chủ yếu thảo luận về cách tăng cường hợp tác quốc tế, cách thực hiện nghiên cứu AI an toàn hơn và cách đối phó với những rủi ro trong tương lai của AI trong thời đại hiện nay. các mô hình AI quy mô lớn.

Tóm tắt xuất sắc:

  • Lý do tại sao cuộc cách mạng AI hiện nay lại có tác động mạnh mẽ như vậy không chỉ là quy mô tác động mà còn là tốc độ tiến triển của nó. Điều này mang lại cả cổ tức và rủi ro.
  • Cổ tức tiềm năng từ AI là rất lớn. Nhưng chúng ta phải cùng nhau quản lý rủi ro để có thể sử dụng rủi ro nhằm cải thiện năng suất và mức sống. Với sự ra đời của các hệ thống AI ngày càng mạnh mẽ,* cơ hội hợp tác toàn cầu chưa bao giờ cao hơn thế. Các cường quốc thường có những khác biệt về quan điểm trong lịch sử, nhưng trong một số vấn đề quan trọng nhất, sự hợp tác và phối hợp là cần thiết. **Tăng cường an toàn cho AGI là một trong những lĩnh vực quan trọng nhất mà chúng ta cần tìm kiếm lợi ích chung. Trong bài phát biểu của mình, Altman liên tục nhấn mạnh sự cần thiết của việc liên kết và giám sát an ninh AI toàn cầu, đồng thời trích dẫn cụ thể một câu trong Đạo Đức Kinh: Hành trình vạn dặm bắt đầu bằng một bước duy nhất. Sự liên kết vẫn là một vấn đề mở.
  • **Hãy tưởng tượng một hệ thống AGI trong tương lai với khoảng 100.000 dòng mã nhị phân, những người giám sát con người khó có thể phát hiện ra liệu một mô hình như vậy có đang làm điều gì đó bất chính hay không. **
  • **GPT-4 mất tám tháng để hoàn thành việc căn chỉnh. **Tuy nhiên, nghiên cứu liên quan vẫn đang được nâng cấp **Nó chủ yếu được chia thành hai khía cạnh: khả năng mở rộng và khả năng diễn giải. Một là giám sát có thể mở rộng, cố gắng sử dụng các hệ thống AI để hỗ trợ con người giám sát các hệ thống trí tuệ nhân tạo khác. Thứ hai là khả năng diễn giải, cố gắng hiểu "hộp đen" hoạt động bên trong của mô hình lớn. Cuối cùng, OpenAI nhằm mục đích đào tạo các hệ thống AI để hỗ trợ nghiên cứu căn chỉnh.

Khi được Zhang Hongjiang hỏi còn bao lâu nữa sẽ đến kỷ nguyên trí tuệ nhân tạo nói chung (AGI), Sam Altman nói: "Trong 10 năm tới, các hệ thống siêu AI sẽ ra đời, nhưng rất khó để dự đoán thời điểm cụ thể". ông cũng nhấn mạnh, "Tốc độ mà các công nghệ mới đã thay đổi hoàn toàn thế giới vượt xa sức tưởng tượng."

Khi được hỏi liệu OpenAI có mở nguồn các mô hình lớn hay không, **Altman nói rằng sẽ có nhiều nguồn mở hơn trong tương lai, nhưng không có mô hình và thời gian biểu cụ thể. Ngoài ra, ông cũng nói rằng sẽ không có GPT-5 trong thời gian tới. ** Sau cuộc họp, Altman đã đưa ra một thông điệp bày tỏ lòng biết ơn vì đã được mời phát biểu tại Hội nghị Tri Viễn.


Yang Likun, người chiến thắng Giải thưởng Turing: Sẽ không có ai sử dụng mô hình GPT trong 5 năm nữa và mô hình thế giới là tương lai của AGI

Yang Likun, một trong ba người khổng lồ về học sâu và là người giành được Giải thưởng Turing, đã có bài phát biểu quan trọng với tiêu đề "Hướng tới những cỗ máy có thể Học, Suy luận và Lập kế hoạch". Như mọi khi, ông đặt câu hỏi về lộ trình LLM hiện tại để đề xuất một ý tưởng khác của một cỗ máy có thể học hỏi, suy luận và lập kế hoạch: mô hình thế giới.

Những điểm chính của bài phát biểu:

  • **Khả năng của AI vẫn còn cách xa khả năng của con người và động vật - khoảng cách chủ yếu thể hiện ở khả năng lập luận và lập kế hoạch logic, và mô hình lớn hiện tại chỉ có thể "phản ứng theo bản năng". ****Học tự giám sát là gì? Học tự giám sát là về việc nắm bắt các phụ thuộc trong đầu vào. **
  • Hệ thống đào tạo nắm bắt được sự phụ thuộc giữa những gì chúng ta thấy và những gì chúng ta chưa thấy. Hiệu suất của các mô hình lớn hiện tại thật đáng kinh ngạc nếu chúng được đào tạo trên dữ liệu của một nghìn tỷ mã thông báo hoặc hai nghìn tỷ mã thông báo.
  • **Chúng ta dễ dàng bị đánh lừa bởi tính trôi chảy của nó. Nhưng cuối cùng, họ mắc phải những sai lầm ngớ ngẩn. Họ mắc lỗi thực tế, lỗi logic, mâu thuẫn, họ có khả năng lập luận hạn chế, họ tạo ra nội dung có hại. ** Mô hình lớn này cần được đào tạo lại.
  • **Làm thế nào để AI có thể lập kế hoạch thực sự như con người? Xem con người và động vật học hỏi nhanh như thế nào - bằng cách quan sát và trải nghiệm thế giới. **
  • Yang Likun tin rằng sự phát triển của AI trong tương lai phải đối mặt với ba thách thức lớn: **Học cách thể hiện thế giới, dự đoán các mô hình thế giới và sử dụng phương pháp học tự giám sát. ** ** Đầu tiên là học mô hình biểu diễn và dự đoán của thế giới ** Tất nhiên, nó có thể được học theo cách tự giám sát.

**Thứ hai, học cách suy luận. **Điều này tương ứng với khái niệm Hệ thống 1 và Hệ thống 2 của nhà tâm lý học Daniel Kahneman. Hệ thống 1 là hành vi hoặc hành động của con người tương ứng với những tính toán trong tiềm thức, những điều có thể được thực hiện mà không cần suy nghĩ; trong khi Hệ thống 2 là những nhiệm vụ mà bạn sử dụng tất cả khả năng suy nghĩ của mình một cách có ý thức và có mục đích để hoàn thành. Hiện tại, trí tuệ nhân tạo về cơ bản chỉ có thể thực hiện các chức năng trong Hệ thống 1 và nó chưa hoàn thiện;

Thử thách cuối cùng là cách lập kế hoạch cho các chuỗi hành động phức tạp bằng cách phân tách các nhiệm vụ phức tạp thành những nhiệm vụ đơn giản hơn, hoạt động theo kiểu phân cấp.

  • Do đó, Yang Likun đã đề xuất ** "Mô hình thế giới", bao gồm sáu mô-đun độc lập, bao gồm: **mô-đun cấu hình, mô-đun nhận thức, mô hình thế giới, mô-đun chi phí, mô-đun diễn viên, mô-đun bộ nhớ ngắn hạn . **Ông cho rằng việc thiết kế kiến trúc và mô hình đào tạo cho mô hình thế giới mới là trở ngại thực sự cản trở sự phát triển của trí tuệ nhân tạo trong vài thập kỷ tới.

LeCun luôn tỏ ra coi thường quan điểm cho rằng AI sẽ hủy diệt loài người, đồng thời cho rằng AI ngày nay không thông minh bằng loài chó, và lo lắng này là thừa. **Khi được hỏi liệu hệ thống AI có gây rủi ro tồn tại cho con người hay không, LeCun nói, **Chúng ta chưa có siêu AI, vậy làm cách nào để hệ thống siêu AI trở nên an toàn? **

** "Ngày nay, hãy hỏi mọi người rằng liệu chúng ta có thể đảm bảo rằng một hệ thống siêu trí tuệ sẽ an toàn cho con người hay không, đó là một câu hỏi không thể trả lời. Bởi vì chúng ta không có thiết kế cho một hệ thống siêu trí tuệ. Vì vậy, cho đến khi bạn có một thiết kế cơ bản, bạn không thể Tạo ra một thứ an toàn.**Giống như nếu bạn hỏi một kỹ sư hàng không vũ trụ vào năm 1930, liệu bạn có thể tạo ra một động cơ phản lực an toàn và đáng tin cậy không? Và người kỹ sư sẽ nói, "Động cơ phản lực là gì?" "Bởi vì động cơ phản lực chưa được phát minh vào năm 1930. Vì vậy, chúng ta đang ở trong tình huống tương tự. Còn hơi sớm để khẳng định rằng chúng ta không thể làm cho những hệ thống này trở nên an toàn vì chúng ta chưa phát minh ra chúng. Một khi chúng ta đã phát minh ra chúng." đã phát minh ra chúng— —có thể chúng sẽ tương tự như bản thiết kế mà tôi đã nghĩ ra, vậy thì mới đáng để thảo luận.”


Giáo sư Max Tegmark, Trung tâm trí tuệ nhân tạo và nghiên cứu tương tác cơ bản của MIT: Điều khiển AI bằng khả năng giải thích cơ học

Max Tegmark, hiện là giáo sư vật lý tại Viện Công nghệ Massachusetts, giám đốc khoa học của Viện Các vấn đề Cơ bản, người sáng lập Viện Tương lai Sự sống, và là người nổi tiếng "đình chỉ khởi xướng sáng kiến nghiên cứu AI" ( sáng kiến vào cuối tháng 3 có Elon Musk, người đoạt giải Turing Yoshua Bengio, đồng sáng lập Apple Steve Wozniak và hơn 1000 người nổi tiếng khác) đã có bài phát biểu tuyệt vời tại Hội nghị Trí Viễn về "Cách kiểm soát AI" (Giữ AI trong tầm kiểm soát), và có cuộc đối thoại với Zhang Yaqin, viện sĩ của Đại học Thanh Hoa, để thảo luận về các vấn đề phòng ngừa rủi ro và an ninh đạo đức AI.

Bài phát biểu đã thảo luận chi tiết về khả năng giải thích cơ học của AI, đây thực sự là một nghiên cứu về cách thức lưu trữ kiến thức của con người trong các kết nối phức tạp đó trong mạng lưới thần kinh. Nếu nghiên cứu theo hướng này tiếp tục, cuối cùng nó có thể ** thực sự giải thích câu hỏi cuối cùng về lý do tại sao mô hình ngôn ngữ lớn LLM tạo ra trí thông minh **.

Ngoài bài phát biểu, một sự thật thú vị là, với tư cách là người khởi xướng "Tạm dừng sáng kiến nghiên cứu AI", bài phát biểu quan trọng tập trung vào cách tiến hành nghiên cứu mô hình AI quy mô lớn chuyên sâu hơn. Có thể như chính Max đã nói ở cuối, anh ấy không phải là kẻ cam chịu như Giáo sư Yang Likun, một trong những người khổng lồ về AI, đã nói, anh ấy thực sự tràn đầy hy vọng và khao khát AI, nhưng chúng tôi có thể đảm bảo rằng tất cả những điều đó sẽ mạnh mẽ hơn trí thông minh phục vụ chúng ta và sử dụng chúng Nó nhằm tạo ra một tương lai đầy cảm hứng hơn những gì các nhà văn khoa học viễn tưởng đã mơ ước trong quá khứ. **

Lưu ý: Tôi đã nghĩ rằng nó sẽ rất nhàm chán, nhưng không ngờ nó lại rất thú vị, và tôi đã xem bài phát biểu dài nhất trong một giờ một cách thích thú! **Không hổ danh là một giáo sư thường xuyên giảng bài, rất lôi cuốn, lý thuyết rất sâu và dễ hiểu. Điều đáng ngạc nhiên hơn nữa là anh ta không những không phải là một đối thủ cứng rắn của AI mà còn thực sự là người ủng hộ một AI tốt hơn! **Tôi cũng có thể nói tiếng Trung Quốc và tôi không quên tuyển dụng bản thân khi phát biểu...

Trích đoạn từ những ý tưởng tuyệt vời:

  1. Khả năng diễn giải cơ học là một lĩnh vực rất thú vị. Bạn đào tạo một mạng lưới thần kinh phức tạp mà bạn không hiểu để thực hiện các nhiệm vụ thông minh, sau đó cố gắng tìm ra cách nó thực hiện điều đó.

Chung ta se lam như thê nao? Bạn có thể có ba cấp độ tham vọng khác nhau. **Mức tham vọng thấp nhất chỉ là đánh giá mức độ đáng tin cậy của nó, bạn nên tin tưởng nó đến mức nào. **Ví dụ: khi bạn lái ô tô, ngay cả khi bạn không hiểu phanh hoạt động như thế nào, ít nhất bạn cũng muốn biết liệu bạn có thể tin tưởng rằng nó có thể giúp bạn giảm tốc độ hay không.

**Cấp độ tham vọng tiếp theo là hiểu nó tốt hơn để nó có thể đáng tin cậy hơn. **Tham vọng cuối cùng là rất tham vọng, và đó là điều tôi mong đợi, đó là chúng tôi sẽ có thể trích xuất tất cả kiến thức mà chúng học được từ các hệ thống máy học và triển khai lại chúng trong các hệ thống khác để chứng minh rằng chúng sẽ làm những gì chúng tôi muốn. **

  1. Hãy chậm lại, hãy đảm bảo rằng chúng ta phát triển các lan can tốt hơn. Vì vậy, bức thư nói rằng hãy tạm dừng một chút, đã đề cập trước đó. Tôi muốn nói rõ rằng, nó không nói rằng chúng ta nên tạm dừng AI, nó không nói rằng chúng ta nên tạm dừng hầu hết mọi thứ. Tại cuộc họp này, chúng tôi đã nghe nói rằng chúng tôi nên tiếp tục thực hiện hầu hết các nghiên cứu tuyệt vời mà các bạn đang thực hiện. **Nó chỉ nói rằng chúng ta nên tạm dừng, tạm dừng phát triển các hệ thống mạnh hơn GPT-4. ** Vì vậy, đây chủ yếu là tạm dừng đối với một số công ty phương Tây.

Bây giờ, lý do là đây là những hệ thống chính xác có thể khiến chúng ta mất kiểm soát, những hệ thống siêu mạnh, nhanh nhất mà chúng ta không hiểu đủ. ** Mục đích của việc tạm dừng chỉ là làm cho trí tuệ nhân tạo giống công nghệ sinh học hơn **, trong lĩnh vực công nghệ sinh học, bạn không thể chỉ nói rằng bạn là một công ty, này, tôi có một loại thuốc mới, tôi đã phát hiện ra nó, và nó sẽ bắt đầu được bán tại các siêu thị lớn ở Bắc Kinh vào ngày mai. Trước tiên, bạn phải thuyết phục các chuyên gia trong chính phủ Trung Quốc hoặc chính phủ Hoa Kỳ rằng đây là một loại thuốc an toàn, rằng lợi ích của nó vượt trội so với nhược điểm của nó, rằng có một quy trình xem xét và sau đó bạn có thể làm được.

Đừng phạm sai lầm đó, hãy trở nên giống công nghệ sinh học hơn, sử dụng các hệ thống mạnh nhất của chúng ta, không giống như Fukushima và Chernobyl.

**3、**Zhang Yaqin: Chà, Max, sự nghiệp của bạn đã dành cho toán học, vật lý, khoa học thần kinh và tất nhiên là trí tuệ nhân tạo. Rõ ràng, trong tương lai chúng ta sẽ ngày càng dựa vào năng lực và kiến thức liên ngành. Chúng tôi có nhiều sinh viên tốt nghiệp, nhiều người trẻ tương lai.

Bạn có lời khuyên nào dành cho các bạn trẻ về cách lựa chọn nghề nghiệp?

Max Tegmark: Đầu tiên, Lời khuyên của tôi là hãy tập trung vào các nguyên tắc cơ bản trong thời đại AI. Bởi vì nền kinh tế và thị trường việc làm đang thay đổi ngày càng nhanh hơn. Vì vậy, chúng ta đang rời xa mô hình học tập này trong 12 hoặc 20 năm và sau đó làm điều tương tự cho phần còn lại của cuộc đời mình. Nó sẽ không như thế đâu.

Hơn nữa, **Bạn có một nền tảng vững chắc và rất giỏi trong việc tư duy sáng tạo, cởi mở. Chỉ bằng cách này, chúng ta mới có thể nhanh nhẹn và bắt kịp xu hướng. **

Tất nhiên, hãy theo dõi những gì đang xảy ra trong lĩnh vực AI nói chung, không chỉ trong lĩnh vực của riêng bạn**. Bởi vì trong thị trường việc làm, điều đầu tiên xảy ra không phải là việc thay thế con người bằng máy móc. Nhưng **những người không làm việc với AI sẽ bị thay thế bởi những người làm việc. **

Tôi có thể thêm một chút nữa không? Tôi thấy thời gian chập chờn ở đó.

Tôi chỉ muốn nói điều gì đó lạc quan. Tôi nghĩ Yann LeCun đang giễu cợt tôi. Anh ấy gọi tôi là kẻ cam chịu. Nhưng nếu bạn nhìn tôi, tôi thực sự rất hạnh phúc và vui vẻ. **Tôi thực sự lạc quan hơn Yann LeCun về khả năng hiểu các hệ thống AI trong tương lai của chúng ta. ** Tôi nghĩ rằng nó rất, rất hứa hẹn.

Tôi nghĩ rằng nếu chúng ta đi hết tốc lực và trao nhiều quyền kiểm soát hơn từ con người cho máy móc mà chúng ta không hiểu, thì mọi chuyện sẽ kết thúc theo chiều hướng rất tồi tệ. Nhưng chúng ta không phải làm thế. Tôi nghĩ rằng nếu chúng ta làm việc chăm chỉ về khả năng giải thích cơ học và nhiều chủ đề kỹ thuật khác sẽ được nghe ở đây hôm nay, thì chúng ta thực sự có thể đảm bảo rằng tất cả trí thông minh lớn hơn này đều phục vụ chúng ta và sử dụng nó để tạo ra một thế giới đầy cảm hứng hơn tương lai.


Trò chuyện với người sáng lập Midjourney: Hình ảnh chỉ là bước đầu tiên, AI sẽ cách mạng hóa việc học tập, sáng tạo và tổ chức

MidJourney hiện là công cụ tạo hình ảnh hot nhất, dưới sự cạnh tranh khốc liệt của OpenAI's DALL·E 2 và mô hình mã nguồn mở Stable Diffusion, nó vẫn duy trì vị trí dẫn đầu tuyệt đối về các hiệu ứng tạo phong cách khác nhau.

Midjourney là một công ty tuyệt vời, 11 con người đang thay đổi thế giới và tạo ra một sản phẩm tuyệt vời, được định sẵn là câu chuyện về những năm đầu tiên của Pre AGI.

Lưu ý: Cuộc đối thoại được chờ đợi từ lâu giữa người sáng lập kiêm Giám đốc điều hành Midjourney David Holz và Geek Park Zhang Peng, tất cả đều bằng tiếng Anh, không có phụ đề, tôi không mong đợi có thể hiểu hết và tôi rất hứng thú với nó, vì câu hỏi và câu trả lời là thật tuyệt vời, đặc biệt là David , tôi đã không thể nhịn cười khi trả lời. Anh ấy cười như một đứa trẻ ngây thơ. Với kinh nghiệm quản lý các đội lớn, anh ấy nói: “Tôi chưa bao giờ muốn có một công ty, tôi muốn có một ngôi nhà.” Hiện tại, Midjourney, vốn chỉ có 20 người, đã trở thành kỳ lân thu hút sự chú ý của toàn thế giới, có thể thay đổi mô hình khởi nghiệp trong tương lai.

Thúc đẩy kinh doanh: Khai phá trí tưởng tượng của con người

**Zhang Peng:**Trong 20 năm qua, tôi đã gặp rất nhiều doanh nhân trong và ngoài nước. Tôi nhận thấy họ có điểm chung là đều có động lực mạnh mẽ là khám phá và sáng tạo “từ con số không”.

Tôi tự hỏi, khi bạn bắt đầu MidJourney, động lực của bạn là gì? Lúc đó, bạn đang khao khát điều gì?

**David Holz: Tôi chưa bao giờ nghĩ đến việc thành lập công ty. Tôi chỉ muốn có một "ngôi nhà". **

Tôi hy vọng rằng trong 10 hoặc 20 năm tới, tại Midjourney, tôi có thể tạo ra những thứ mà tôi thực sự quan tâm và thực sự muốn mang đến thế giới này.

Tôi thường nghĩ về nhiều vấn đề khác nhau. Có thể tôi không thể giải quyết mọi vấn đề, nhưng tôi có thể** cố gắng giúp mọi người có khả năng giải quyết vấn đề tốt hơn. **

Vì vậy, tôi cố gắng nghĩ về cách giải quyết nó, làm thế nào để tạo ra một cái gì đó. Theo tôi, điều này có thể tóm tắt thành ba điểm. **Đầu tiên, chúng ta phải suy nghĩ về chính mình: chúng ta muốn gì? Chính xác vấn đề là gì? ****Sau đó, chúng ta phải tưởng tượng: chúng ta đang đi về đâu? những khả năng là gì? ****Cuối cùng, chúng ta phải phối hợp với nhau và hợp tác với những người khác để đạt được những gì chúng ta tưởng tượng. **

Tôi nghĩ rằng có một cơ hội lớn trong AI để kết hợp ba phần đó lại với nhau và tạo ra cơ sở hạ tầng quan trọng giúp chúng ta giải quyết vấn đề này tốt hơn. Theo một cách nào đó, **trí tuệ nhân tạo có thể giúp chúng ta suy ngẫm về bản thân, hình dung rõ hơn về hướng đi trong tương lai, giúp chúng ta tìm thấy nhau và hợp tác tốt hơn. Chúng ta có thể làm những việc này cùng nhau và hợp nhất chúng thành một loại khuôn khổ duy nhất nào đó. Tôi nghĩ nó sẽ thay đổi cách chúng ta tạo ra mọi thứ và giải quyết vấn đề. Đây là việc lớn mà tôi muốn làm. **

Tôi nghĩ đôi khi (chúng tôi đã làm trước) việc tạo ảnh có thể gây nhầm lẫn, nhưng theo nhiều cách, việc tạo ảnh là một khái niệm đã có từ lâu. **Midjourney đã trở thành một bộ sưu tập siêu giàu trí tưởng tượng của hàng triệu người đang khám phá những khả năng của không gian này. **

**Trong những năm tới sẽ có nhiều cơ hội khám phá bằng hình ảnh và nghệ thuật hơn tất cả các khám phá lịch sử trước đây cộng lại. **

Điều này không giải quyết được tất cả các vấn đề mà chúng tôi gặp phải, nhưng tôi nghĩ đó là một bài kiểm tra, một thí nghiệm. Nếu chúng ta có thể hoàn thành việc khám phá lĩnh vực thị giác này, thì chúng ta cũng có thể làm điều đó trong những thứ khác.Tất cả những thứ khác đòi hỏi chúng ta phải cùng nhau khám phá và suy nghĩ, tôi nghĩ đều có thể được giải quyết theo cách tương tự.

Vì vậy, khi tôi nghĩ về cách bắt đầu giải quyết vấn đề này, chúng tôi đã có rất nhiều ý tưởng, chúng tôi đã xây dựng rất nhiều nguyên mẫu, nhưng đột nhiên có một bước đột phá trong lĩnh vực AI, đặc biệt là về tầm nhìn và chúng tôi nhận ra rằng đây là một bước đột phá độc đáo. cơ hội để có thể Tạo ra thứ gì đó mà chưa ai từng thử trước đây. Nó làm cho chúng tôi muốn thử nó.

Chúng tôi nghĩ có lẽ sẽ không lâu nữa trước khi tất cả kết hợp với nhau để tạo thành một thứ gì đó rất đặc biệt. Điều này chỉ là khởi đầu.

Zhang Peng: Vì vậy, bức tranh (thế hệ) chỉ là bước đầu tiên và mục tiêu cuối cùng của bạn là giải phóng trí tưởng tượng của con người. Đây có phải là điều đã thu hút bạn đến với Midjourney?

David Holz: Tôi thực sự thích những thứ giàu trí tưởng tượng. Tôi cũng hy vọng rằng thế giới có thể có nhiều sáng tạo hơn. Thật thú vị khi thấy những ý tưởng điên rồ mỗi ngày.

Hiểu lại kiến thức: Kiến thức lịch sử trở thành sức mạnh của sự sáng tạo

Zhang Peng: Điều này rất thú vị. Chúng ta thường nói trống không, show me your code (Tưởng rẻ, cho tôi xem mã). Nhưng ngay bây giờ, ý tưởng dường như là điều duy nhất quan trọng. Miễn là bạn có thể diễn đạt ý tưởng của mình thông qua một loạt các từ xuất sắc, AI có thể giúp bạn hiện thực hóa chúng. Vì vậy, các định nghĩa về học tập và sáng tạo đang thay đổi? Bạn nghĩ sao?

**David Holz: **Tôi nghĩ một trong những điều thú vị là khi bạn cho mọi người nhiều thời gian hơn để sáng tạo, họ cũng hứng thú hơn với việc học hỏi. **

Ví dụ, có một phong cách nghệ thuật rất phổ biến ở Hoa Kỳ được gọi là Art Deco. Tôi chưa bao giờ quan tâm đến loại hình nghệ thuật này là gì, cho đến một ngày, khi tôi có thể tạo ra các tác phẩm thuộc loại nghệ thuật này thông qua hướng dẫn, tôi đột nhiên rất hứng thú với nó và muốn biết thêm về lịch sử của nó.

Tôi nghĩ thật thú vị khi chúng tôi quan tâm hơn đến lịch sử khi đó là thứ bạn có thể sử dụng ngay lập tức và giúp bạn sáng tạo dễ dàng hơn. **Nếu giao diện người dùng trở nên đủ tốt, người dùng sẽ cảm thấy rằng AI đã trở thành một phần mở rộng trong suy nghĩ của chúng ta. AI giống như một bộ phận của cơ thể và tâm trí của chúng ta, và AI có mối liên hệ chặt chẽ với lịch sử ở một mức độ nhất định, và chúng ta cũng sẽ có mối liên hệ chặt chẽ với lịch sử. Điều này thật thú vị.

Khi chúng tôi hỏi người dùng của mình họ muốn gì nhất, câu trả lời số một và thứ hai là họ muốn tài liệu học tập, không chỉ cách sử dụng các công cụ mà còn cả nghệ thuật, lịch sử, ống kính máy ảnh, sự thông minh, Muốn hiểu và nắm vững tất cả kiến thức và khái niệm có sẵn để tạo.

**Trước đây, tri thức chỉ là quá khứ, còn bây giờ, tri thức là sức mạnh sáng tạo. **

**Kiến thức có thể đóng một vai trò lớn hơn ngay lập tức và mọi người mong muốn có được nhiều kiến thức hơn. ** Điều này thật tuyệt.


Brian Christian: Phiên bản tiếng Trung của cuốn sách mới "Human-Machine Alignment" đã được phát hành

Bản tiếng Trung của "Human-Machine Alignment" đã được phát hành, tác giả Brian Christian trong 10 phút đã giới thiệu sơ lược nội dung chính của cả cuốn sách, nghe rất phong phú và thú vị, đồng thời cũng phản ánh sự phát triển nhanh chóng của AI hiện nay.

Brian Christian là một tác giả khoa học từng đoạt giải thưởng. Cuốn sách "Vẻ đẹp của các thuật toán" của ông được vinh danh là Sách khoa học hay nhất trong năm của Amazon và Sách hay nhất của năm của MIT Technology Review. Cuốn sách mới của anh ấy, The Alignment Problem: Machine Learning and Human Values, hiện đang được dịch sang tiếng Trung Quốc, đã được Giám đốc điều hành Microsoft Satya Nadella xếp vào danh sách năm cuốn sách hàng đầu truyền cảm hứng cho anh ấy trong năm 2021 một**.

Cuốn sách "Human-Machine Alignment" được chia thành 3 phần.

Phần đầu tiên khám phá các vấn đề đạo đức và bảo mật ảnh hưởng đến các hệ thống máy học ngày nay.

Phần thứ hai được gọi là các tác nhân, chuyển trọng tâm từ học tập có giám sát và tự giám sát sang học tập tăng cường.

Phần III xây dựng trên cơ sở học tập giám sát, tự giám sát và củng cố để thảo luận về cách chúng ta có thể điều chỉnh các hệ thống AI phức tạp trong thế giới thực.


Yang Yaodong, Trợ lý Giáo sư, Viện Trí tuệ Nhân tạo, Đại học Bắc Kinh: Đánh giá về Tiến độ sắp xếp an toàn của các mô hình ngôn ngữ lớn

Lưu ý: Bài phát biểu "Sắp xếp bảo mật của các mô hình ngôn ngữ lớn" của Yang Yaodong, trợ lý giáo sư tại Viện Trí tuệ nhân tạo của Đại học Bắc Kinh, rất thú vị. Thứ nhất, anh ấy có thể hiểu bài phát biểu bằng tiếng Trung. Thứ hai, anh ấy giải thích hiện tại an toàn của các mô hình ngôn ngữ lớn bằng ngôn ngữ rất dễ hiểu Tiến trình nghiên cứu chính của sự liên kết, nêu những điểm chính và vượt nhiều nội dung về tiến trình của RLHF chuyên sâu.

Vì tôi không biết công nghệ chi tiết, tôi chỉ có thể hiểu đại khái về nguyên tắc và ghi lại một số điểm thú vị:

Ba phương pháp Căn chỉnh do OpenAI đề xuất:

  • Huấn luyện AI bằng phản hồi của con người
  • Đào tạo AI để hỗ trợ đánh giá con người
  • Đào tạo AI để thực hiện nghiên cứu căn chỉnh

Thị trường căn chỉnh mô hình lớn AI vẫn là một đại dương xanh:

  • ** Các mô hình lớn hiện có, ngoại trừ GPT, gần như không đạt được sự liên kết theo bất kỳ ý nghĩa nào**
  • Công nghệ chuyển đổi từ mục đích chung sang mục đích đặc biệt cho các mô hình quy mô lớn sẽ là đỉnh cao chỉ huy tiếp theo trong việc phát triển các mô hình quy mô lớn

3 Cách căn chỉnh an toàn:

  • Trong giai đoạn tiền đào tạo, thông qua sàng lọc thủ công và làm sạch dữ liệu, để thu được dữ liệu chất lượng cao hơn
  • Sử dụng mô hình phần thưởng để lấy mẫu từ chối trong giai đoạn đầu ra để cải thiện chất lượng đầu ra và tính bảo mật. Hoặc trong một sản phẩm trực tiếp, ** từ chối phản hồi đầu vào của người dùng. **
  • Trong giai đoạn tinh chỉnh (SFT và BLHF), Thêm các hướng dẫn người dùng đa dạng và vô hại hơn để phù hợp với các mô hình sở thích của con người, bao gồm RBRM, Al hiến pháp.

Từ RLHF đến RLAIF: AI theo hiến pháp


Geoffrey Hinton, người đoạt giải Turing: Siêu trí tuệ sẽ nhanh hơn nhiều so với dự kiến, và tôi rất lo lắng rằng con người sẽ bị chúng kiểm soát

Người chiến thắng Giải thưởng Turing, "Cha đẻ của Deep Learning" Geoffrey Hinton trong bài phát biểu cuối cùng, chủ đề là Hai con đường dẫn đến Trí thông minh.

Cha đỡ đầu của AI mang đến cho chúng ta nghiên cứu thuyết phục ông ấy rằng trí thông minh siêu việt sẽ nhanh hơn nhiều so với dự kiến: Tính toán sinh tử. Bài phát biểu đã mô tả một cấu trúc điện toán mới, sau khi từ bỏ nguyên tắc tách rời phần mềm và phần cứng, tức là làm thế nào để hiện thực hóa điện toán thông minh mà không cần sử dụng lan truyền ngược để mô tả đường dẫn bên trong của mạng thần kinh.

Những điểm chính của bài phát biểu:

  • Hinton đề xuất một khả năng mới cho trí tuệ nhân tạo: điện toán phàm trần. Điện toán phàm trần làm cho phần mềm và phần cứng không còn tách biệt nữa và sử dụng phần cứng vật lý để thực hiện tính toán song song chính xác hơn. Nó có thể dẫn đến mức tiêu thụ năng lượng thấp hơn và chế tạo phần cứng đơn giản hơn, nhưng khó đào tạo và mở rộng quy mô thành các mô hình quy mô lớn hơn.
  • Có hai cách để các nhóm thông minh chia sẻ kiến thức, sinh học và điện toán số. Chia sẻ sinh học có băng thông thấp và rất chậm, trong khi sao chép kỹ thuật số có băng thông cao và rất nhanh. Con người là sinh học, trong khi AI là kỹ thuật số, vì vậy một khi AI nắm vững nhiều kiến thức hơn thông qua đa phương thức, tốc độ chia sẻ của chúng sẽ rất nhanh và sẽ sớm vượt qua con người.
  • Khi AI tiến hóa trở nên thông minh hơn con người, chúng có khả năng gây ra rủi ro rất lớn. Bao gồm cả việc bóc lột và lừa dối con người nhằm đạt được quyền lực. Và nó có khả năng không thân thiện với con người.

Lý do tại sao mô hình điện toán hoàn toàn mới được Hinton gọi là điện toán Mortal có một ý nghĩa sâu sắc:

  1. Hinton đã nói trước rằng sự bất tử đã thực sự đạt được. Bởi vì mô hình ngôn ngữ lớn AI hiện tại đã học kiến thức của con người thành hàng nghìn tỷ tham số và nó không phụ thuộc vào phần cứng: miễn là phần cứng tương thích với lệnh được sao chép, cùng mã và trọng lượng mô hình có thể được chạy trực tiếp trong tương lai. Theo nghĩa này, trí thông minh của con người (không phải con người) là bất tử.

  2. Tuy nhiên, việc tính toán phần cứng và phần mềm riêng biệt này cực kỳ kém hiệu quả về hiệu suất năng lượng và quy mô triển khai. Nếu chúng ta từ bỏ nguyên tắc thiết kế máy tính tách biệt phần cứng và phần mềm và nhận ra trí thông minh trong một hộp đen thống nhất, thì đó sẽ là một cách mới để nhận ra trí thông minh.

  3. Kiểu thiết kế máy tính không còn tách biệt phần mềm và phần cứng này sẽ giảm đáng kể mức tiêu thụ năng lượng và quy mô máy tính (hãy xem xét mức tiêu thụ năng lượng của bộ não con người chỉ là 20 watt)

  4. Nhưng đồng thời cũng có nghĩa là cân không chép được khôn để chép khôn, tức là từ bỏ cuộc sống vĩnh hằng.

Mạng thần kinh nhân tạo có thông minh hơn mạng thần kinh thực không?

Điều gì sẽ xảy ra nếu một mạng thần kinh lớn chạy trên nhiều máy tính kỹ thuật số có thể thu nhận kiến thức trực tiếp từ thế giới, ngoài việc bắt chước ngôn ngữ của con người để có được kiến thức của con người?

Rõ ràng, nó sẽ trở nên tốt hơn con người rất nhiều vì nó đã quan sát được nhiều dữ liệu hơn.

Nếu mạng thần kinh này có thể thực hiện mô hình hóa hình ảnh hoặc video không giám sát và các bản sao của nó cũng có thể thao túng thế giới vật chất thì đó không phải là điều viển vông.

Lưu ý: Ngay khi mọi người nghĩ rằng bài phát biểu của Tân Cương đã kết thúc, ở trang áp chót, Hinton — với giọng điệu khác với tất cả các nhà khoa học trước đây, có chút xúc động và lẫn lộn — đã nói ra suy nghĩ của mình về mối quan tâm của AI đang phát triển nhanh chóng hiện nay, đó là cũng là tiếng nói gây tò mò của giới mộ điệu sau khi anh mới đây kiên quyết rời Google và “tiếc nuối công việc cả đời và lo lắng về mối nguy của trí tuệ nhân tạo”:

Tôi nghĩ việc hiện thực hóa những siêu trí tuệ này có thể nhanh hơn nhiều so với những gì tôi từng nghĩ.

Những kẻ xấu sẽ muốn sử dụng chúng để làm những việc như thao túng cử tri. Họ đã sử dụng chúng ở Mỹ và nhiều nơi khác cho việc này. Và nó sẽ được sử dụng để giành chiến thắng trong các cuộc chiến tranh.

Để làm cho trí thông minh kỹ thuật số hiệu quả hơn, chúng ta cần cho phép nó đặt ra một số mục tiêu. Tuy nhiên, có một vấn đề rõ ràng ở đây. Có một mục tiêu phụ rất rõ ràng rất hữu ích cho hầu hết mọi thứ bạn muốn đạt được và đó là đạt được nhiều quyền lực hơn, nhiều quyền kiểm soát hơn**. Có nhiều quyền kiểm soát hơn giúp bạn đạt được mục tiêu dễ dàng hơn. Và tôi thấy thật khó để tưởng tượng làm thế nào chúng ta có thể ngăn chặn trí thông minh kỹ thuật số cố gắng giành quyền kiểm soát nhiều hơn để đạt được các mục tiêu khác.

**Một khi trí thông minh kỹ thuật số bắt đầu cố gắng kiểm soát nhiều hơn, chúng ta có thể gặp nhiều vấn đề hơn. **

** Ngược lại, con người hiếm khi nghĩ đến những loài thông minh hơn mình và cách tương tác với những loài này. Theo quan sát của tôi, loại trí tuệ nhân tạo này đã thực hiện thành thạo các hành động đánh lừa con người, bởi vì nó có thể sử dụng Đọc tiểu thuyết để học cách lừa dối người khác, và một khi trí tuệ nhân tạo có khả năng "lừa dối" thì nó cũng sẽ có khả năng dễ dàng điều khiển con người nói trên. **Cái gọi là kiểm soát, ví dụ như bạn muốn hack một tòa nhà ở Washington, bạn không cần phải đích thân đến đó, bạn chỉ cần lừa mọi người nghĩ rằng hack tòa nhà là có thể cứu vãn nền dân chủ và cuối cùng đạt được Mục đích của bạn (Trump mỉa mai).

Vào thời điểm này, Gerffery Hinton, người đã ngoài sáu mươi tuổi và đã cống hiến cả cuộc đời mình cho trí tuệ nhân tạo, cho biết:

"Tôi cảm thấy thật kinh khủng, tôi không biết làm thế nào để ngăn điều này xảy ra, nhưng tôi đã già rồi, và tôi hy vọng rằng nhiều nhà nghiên cứu trẻ và tài năng như bạn sẽ tìm ra cách chúng ta có những siêu trí tuệ này để giúp cuộc sống của chúng ta trở nên tốt đẹp hơn và ngăn chặn kiểu kiểm soát này thông qua sự lừa dối...có lẽ chúng ta có thể cho họ những nguyên tắc đạo đức, nhưng hiện tại, tôi vẫn rất lo lắng, ** bởi vì cho đến nay, tôi không thể nghĩ ra điều đó - trong khoảng cách trí thông minh đủ lớn. - một ví dụ về việc thứ gì đó thông minh hơn bị điều khiển bởi thứ kém thông minh hơn. ****Nếu ếch phát minh ra con người, bạn nghĩ ai sẽ nắm quyền kiểm soát? Ếch hay con người?**Đây cũng là PPT cuối cùng của tôi, phần kết."

Khi tôi nghe nó, tôi dường như đang nghe "cậu bé đã từng giết rồng, khi đến tuổi xế chiều và nhìn lại cuộc đời mình, cậu ấy đã đưa ra lời tiên tri về ngày tận thế". nguy cơ rất lớn của AI đối với con người, và tôi vô cùng xấu hổ.

So với Hinton, Lecun, một trong những gã khổng lồ học sâu trẻ tuổi, rõ ràng là lạc quan hơn:

Khi được hỏi liệu hệ thống AI có gây rủi ro tồn tại cho con người hay không, LeCun nói, **Chúng tôi chưa có siêu AI, vậy làm cách nào để chúng tôi có thể làm cho hệ thống siêu AI trở nên an toàn? **

Nó khiến người ta liên tưởng đến những thái độ khác nhau của người trái đất đối với nền văn minh tam thể trong "Vấn đề tam thể"...


Ngày hôm đó, tôi còn định tắt máy trong tâm trạng tiếc nuối vô hạn, không ngờ Huang Tiejun, viện trưởng Viện nghiên cứu Tri Viễn, đã có một bài phát biểu kết thúc hoàn hảo: "Không thể đóng".

Huang Tiejun lần đầu tiên tóm tắt quan điểm của các bài phát biểu trước:

Trí tuệ nhân tạo ngày càng mạnh hơn và rủi ro là rõ ràng và tăng lên từng ngày;

Chúng ta biết rất ít về cách xây dựng AI an toàn;

Có thể học hỏi từ kinh nghiệm lịch sử: quản lý ma túy, kiểm soát vũ khí hạt nhân, điện toán lượng tử...

Nhưng các hệ thống AI có độ phức tạp cao rất khó dự đoán: kiểm tra rủi ro, giải thích cơ chế, khái quát hóa sự hiểu biết... mới chỉ là bước khởi đầu

Mục tiêu thách thức mới: AI phục vụ mục tiêu của chính nó hay mục tiêu của con người?

Về cơ bản, mọi người muốn xây dựng trí tuệ nhân tạo chung GAI hay trí tuệ nhân tạo chung AGI?

Sự đồng thuận trong giới học thuật là trí tuệ tổng hợp nhân tạo AGI: trí tuệ nhân tạo đã đạt đến trình độ con người về mọi mặt của trí tuệ con người, có thể thích nghi ứng phó với các thách thức môi trường bên ngoài và hoàn thành mọi nhiệm vụ mà con người có thể hoàn thành; còn có thể gọi là trí tuệ nhân tạo tự trị, siêu nhân trí thông minh, và trí thông minh mạnh mẽ.trí tuệ nhân tạo.

Một mặt, mọi người đều nhiệt tình xây dựng trí tuệ nhân tạo nói chung và đang đổ xô đầu tư.

Mặt khác, tôi chế nhạo AI khiến con người trở thành công dân hạng hai, nhưng sự đối lập nhị phân này không phải là điều khó khăn nhất. Vấn đề lớn là bỏ phiếu. Điều khó khăn nhất là chúng ta nên làm gì khi đối mặt với trí tuệ nhân tạo như Gần AGI như ChatGPT?quản lý? **

Nếu con người đối phó với rủi ro với sự nhiệt tình giống như việc đầu tư xây dựng trí tuệ nhân tạo, thì vẫn có thể đạt được trí tuệ nhân tạo an toàn,** nhưng bạn có tin rằng con người có thể làm được không? Tôi không biết, cảm ơn! **

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)