AI модель Manus досягла проривного прогресу в бенчмарку GAIA
Нещодавно AI-модель Manus досягла передових результатів у бенчмарку GAIA, її продуктивність перевершила продуктивність великих мовних моделей того ж рівня. Це означає, що Manus може самостійно виконувати складні завдання, такі як міжнародні бізнес-перемовини, включаючи аналіз умов контракту, розробку стратегій та генерацію пропозицій.
Переваги Manus в основному проявляються в трьох аспектах: динамічне розбиття цілей, крос-модальне мислення та підсилене навчання пам'яті. Він може розбивати складні завдання на сотні виконуваних підзавдань, одночасно обробляючи різні типи даних та постійно підвищуючи ефективність прийняття рішень і знижуючи ймовірність помилок за допомогою підсиленого навчання.
Поява Manus знову спровокувала обговорення в індустрії щодо шляхів розвитку ШІ: чи розвиватися в напрямку загального штучного інтелекту (AGI), чи домінувати завдяки системам багатьох агентів (MAS)? Обидва ці шляхи мають свої переваги і недоліки:
Шлях AGI: шляхом постійного підвищення здібностей окремого агента, наближаючи його до рівня комплексного прийняття рішень людиною.
MAS шлях: як супервізор, координувати спільну роботу численних агентів у різних спеціалізованих областях.
Ця дискусія насправді відображає одну з основних проблем розвитку штучного інтелекту: як досягти балансу між ефективністю та безпекою. З наближенням одиночного інтелекту до AGI ризик непрозорості його процесу ухвалення рішень також зростає. Хоча співпраця багатьох агентів може зменшити ризики, затримки в комунікації можуть призвести до пропуску ключових моментів для прийняття рішень.
Прогрес Manus також підкреслює потенційні ризики в розвитку ШІ:
Проблема конфіденційності даних: в медичній, фінансовій та інших сферах ШІ може знадобитися доступ до чутливої особистої або корпоративної інформації.
Алгоритмічна упередженість: в таких сценах, як набір персоналу, ШІ може приймати несправедливі рішення щодо певних груп.
Вразливість безпеки: Хакери можуть за допомогою спеціальних методів втручатися в судження ШІ, наприклад, вводячи в оману його розуміння пропозицій під час переговорів.
Ці проблеми яскраво підкреслюють, що чим більш просунуті інтелектуальні системи, тим ширшим є їх потенційна площа атаки.
Щоб впоратися з цими викликами, технології безпеки в сфері Web3 можуть запропонувати рішення:
Модель нульового довіри в безпеці: підкреслює необхідність сувірної автентифікації та авторизації кожного запиту на доступ.
Децентралізовані ідентичності (DID): надає можливість верифікації ідентифікації без централізованої реєстрації.
Повна гомоморфна криптографія (FHE): дозволяє виконувати обчислення над даними в зашифрованому стані, захищаючи конфіденційність даних.
Серед них технологія FHE демонструє величезний потенціал у вирішенні проблем безпеки в епоху ШІ. Вона може забезпечити захист на кількох рівнях:
Дані: Вся інформація, введена користувачем, обробляється в зашифрованому стані, навіть сама AI-система не може розшифрувати оригінальні дані.
Алгоритмічний рівень: шляхом навчання криптомоделей, щоб навіть розробники не могли безпосередньо спостерігати за процесом прийняття рішень AI.
Координаційний рівень: зв'язок між кількома агентами використовує порогове шифрування, щоб запобігти витоку глобальних даних через єдину точку відмови.
З наближенням технологій штучного інтелекту до рівня людського інтелекту стає все важливішим створення потужної системи безпеки. Передові технології шифрування, такі як FHE, не лише можуть вирішити нинішні проблеми, але й закласти безпечну основу для майбутньої ери потужного штучного інтелекту. На шляху до AGI ці безпечні технології стануть незамінним забезпеченням.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
5
Поділіться
Прокоментувати
0/400
FallingLeaf
· 5год тому
Як тільки побачиш цю назву, стає зрозуміло, що вона вражає.
Переглянути оригіналвідповісти на0
GasFeeSobber
· 6год тому
Знову готують їжу з ai
Переглянути оригіналвідповісти на0
CryptoCross-TalkClub
· 6год тому
Знову розганяють концепцію ШІ, прийшов наступний LUNA.
Новий талант штучного інтелекту Manus досяг вершин бенчмарку GAIA, технології Web3 можуть стати ключем до безпеки за допомогою штучного інтелекту.
AI модель Manus досягла проривного прогресу в бенчмарку GAIA
Нещодавно AI-модель Manus досягла передових результатів у бенчмарку GAIA, її продуктивність перевершила продуктивність великих мовних моделей того ж рівня. Це означає, що Manus може самостійно виконувати складні завдання, такі як міжнародні бізнес-перемовини, включаючи аналіз умов контракту, розробку стратегій та генерацію пропозицій.
Переваги Manus в основному проявляються в трьох аспектах: динамічне розбиття цілей, крос-модальне мислення та підсилене навчання пам'яті. Він може розбивати складні завдання на сотні виконуваних підзавдань, одночасно обробляючи різні типи даних та постійно підвищуючи ефективність прийняття рішень і знижуючи ймовірність помилок за допомогою підсиленого навчання.
Поява Manus знову спровокувала обговорення в індустрії щодо шляхів розвитку ШІ: чи розвиватися в напрямку загального штучного інтелекту (AGI), чи домінувати завдяки системам багатьох агентів (MAS)? Обидва ці шляхи мають свої переваги і недоліки:
Шлях AGI: шляхом постійного підвищення здібностей окремого агента, наближаючи його до рівня комплексного прийняття рішень людиною.
MAS шлях: як супервізор, координувати спільну роботу численних агентів у різних спеціалізованих областях.
Ця дискусія насправді відображає одну з основних проблем розвитку штучного інтелекту: як досягти балансу між ефективністю та безпекою. З наближенням одиночного інтелекту до AGI ризик непрозорості його процесу ухвалення рішень також зростає. Хоча співпраця багатьох агентів може зменшити ризики, затримки в комунікації можуть призвести до пропуску ключових моментів для прийняття рішень.
Прогрес Manus також підкреслює потенційні ризики в розвитку ШІ:
Проблема конфіденційності даних: в медичній, фінансовій та інших сферах ШІ може знадобитися доступ до чутливої особистої або корпоративної інформації.
Алгоритмічна упередженість: в таких сценах, як набір персоналу, ШІ може приймати несправедливі рішення щодо певних груп.
Вразливість безпеки: Хакери можуть за допомогою спеціальних методів втручатися в судження ШІ, наприклад, вводячи в оману його розуміння пропозицій під час переговорів.
Ці проблеми яскраво підкреслюють, що чим більш просунуті інтелектуальні системи, тим ширшим є їх потенційна площа атаки.
Щоб впоратися з цими викликами, технології безпеки в сфері Web3 можуть запропонувати рішення:
Модель нульового довіри в безпеці: підкреслює необхідність сувірної автентифікації та авторизації кожного запиту на доступ.
Децентралізовані ідентичності (DID): надає можливість верифікації ідентифікації без централізованої реєстрації.
Повна гомоморфна криптографія (FHE): дозволяє виконувати обчислення над даними в зашифрованому стані, захищаючи конфіденційність даних.
Серед них технологія FHE демонструє величезний потенціал у вирішенні проблем безпеки в епоху ШІ. Вона може забезпечити захист на кількох рівнях:
Дані: Вся інформація, введена користувачем, обробляється в зашифрованому стані, навіть сама AI-система не може розшифрувати оригінальні дані.
Алгоритмічний рівень: шляхом навчання криптомоделей, щоб навіть розробники не могли безпосередньо спостерігати за процесом прийняття рішень AI.
Координаційний рівень: зв'язок між кількома агентами використовує порогове шифрування, щоб запобігти витоку глобальних даних через єдину точку відмови.
З наближенням технологій штучного інтелекту до рівня людського інтелекту стає все важливішим створення потужної системи безпеки. Передові технології шифрування, такі як FHE, не лише можуть вирішити нинішні проблеми, але й закласти безпечну основу для майбутньої ери потужного штучного інтелекту. На шляху до AGI ці безпечні технології стануть незамінним забезпеченням.