Новый талант в области искусственного интеллекта Manus занял первое место в бенчмарке GAIA. Технология Web3 может стать ключом к безопасности с помощью искусственного интеллекта.
AI модель Manus достигла прорывных результатов в бенчмарке GAIA
Недавно AI-модель Manus достигла передовых результатов в бенчмарк-тестировании GAIA, ее производительность превзошла крупные языковые модели того же уровня. Это означает, что Manus может самостоятельно справляться со сложными задачами, такими как транснациональные бизнес-переговоры, включая анализ условий контрактов, разработку стратегий и генерацию предложений.
Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни исполняемых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с усилением.
Появление Manus снова вызвало обсуждение в отрасли о путях развития ИИ: развиваться ли в направлении общего искусственного интеллекта (AGI) или же координировать систему многоагентных систем (MAS)? У этих двух путей есть свои плюсы и минусы:
Путь AGI: постоянное повышение возможностей отдельного агента, чтобы приблизить его к уровню комплексного принятия решений человеком.
Путь MAS: в качестве суперкоординатора, управляет совместной работой множества агентов в различных профессиональных областях.
Это обсуждение на самом деле отражает одну из основных проблем развития ИИ: как достичь баланса между эффективностью и безопасностью. С приближением монолитного интеллекта к AGI, риск непрозрачности его процессов принятия решений также возрастает. Хотя сотрудничество многомодульных агентов может распределять риски, оно может упустить ключевые моменты принятия решений из-за задержек в коммуникации.
Прогресс Manus также подчеркивает потенциальные риски в развитии ИИ:
Проблема конфиденциальности данных: в таких областях, как здравоохранение и финансы, ИИ может потребоваться доступ к чувствительной личной или корпоративной информации.
Алгоритмическая предвзятость: в таких сценариях, как набор персонала, ИИ может выносить несправедливые суждения в отношении определенных групп.
Уязвимости безопасности: Хакеры могут вмешиваться в суждения ИИ с помощью специальных методов, например, вводя в заблуждение его понимание предложений во время переговоров.
Эти проблемы подчеркивают, что чем более продвинутыми являются интеллектуальные системы, тем шире их потенциальные уязвимости.
Для решения этих проблем технологии безопасности в области Web3 могут предложить решения:
Модель нулевого доверия: подчеркивает необходимость строгой аутентификации и авторизации для каждого запроса на доступ.
Децентрализованная идентификация (DID): предоставляет способ проверки идентификации, который не требует централизованной регистрации.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления с данными в зашифрованном состоянии, защищая конфиденциальность данных.
В частности, технология FHE демонстрирует огромный потенциал в решении проблем безопасности в эпоху ИИ. Она может обеспечить защиту на нескольких уровнях:
На уровне данных: Вся информация, вводимая пользователями, обрабатывается в зашифрованном виде, даже сама AI-система не может расшифровать исходные данные.
Алгоритмический уровень: через обучение модели шифрования обеспечить, чтобы даже разработчики не могли напрямую наблюдать за процессом принятия решений AI.
Сотрудничество: связь между несколькими агентами использует пороговое шифрование, чтобы предотвратить утечку глобальных данных в результате одной точки сбоя.
С развитием технологий ИИ, которые все больше приближаются к уровню человеческого интеллекта, создание мощной системы безопасности становится все более важным. Передовые методы шифрования, такие как FHE, способны не только решать текущие проблемы, но и закладывать безопасную основу для будущей эры более мощного ИИ. На пути к AGI эти технологии безопасности станут незаменимой гарантией.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
5
Поделиться
комментарий
0/400
FallingLeaf
· 5ч назад
Одно название уже впечатляет
Посмотреть ОригиналОтветить0
GasFeeSobber
· 6ч назад
Снова炒ai这碗饭
Посмотреть ОригиналОтветить0
CryptoCross-TalkClub
· 6ч назад
Снова говорят о концепции ИИ, следующий LUNA пришел.
Посмотреть ОригиналОтветить0
StablecoinAnxiety
· 6ч назад
Все еще пишете контракт? Пусть ИИ позаботится об этом.
Новый талант в области искусственного интеллекта Manus занял первое место в бенчмарке GAIA. Технология Web3 может стать ключом к безопасности с помощью искусственного интеллекта.
AI модель Manus достигла прорывных результатов в бенчмарке GAIA
Недавно AI-модель Manus достигла передовых результатов в бенчмарк-тестировании GAIA, ее производительность превзошла крупные языковые модели того же уровня. Это означает, что Manus может самостоятельно справляться со сложными задачами, такими как транснациональные бизнес-переговоры, включая анализ условий контрактов, разработку стратегий и генерацию предложений.
Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни исполняемых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с усилением.
Появление Manus снова вызвало обсуждение в отрасли о путях развития ИИ: развиваться ли в направлении общего искусственного интеллекта (AGI) или же координировать систему многоагентных систем (MAS)? У этих двух путей есть свои плюсы и минусы:
Путь AGI: постоянное повышение возможностей отдельного агента, чтобы приблизить его к уровню комплексного принятия решений человеком.
Путь MAS: в качестве суперкоординатора, управляет совместной работой множества агентов в различных профессиональных областях.
Это обсуждение на самом деле отражает одну из основных проблем развития ИИ: как достичь баланса между эффективностью и безопасностью. С приближением монолитного интеллекта к AGI, риск непрозрачности его процессов принятия решений также возрастает. Хотя сотрудничество многомодульных агентов может распределять риски, оно может упустить ключевые моменты принятия решений из-за задержек в коммуникации.
Прогресс Manus также подчеркивает потенциальные риски в развитии ИИ:
Проблема конфиденциальности данных: в таких областях, как здравоохранение и финансы, ИИ может потребоваться доступ к чувствительной личной или корпоративной информации.
Алгоритмическая предвзятость: в таких сценариях, как набор персонала, ИИ может выносить несправедливые суждения в отношении определенных групп.
Уязвимости безопасности: Хакеры могут вмешиваться в суждения ИИ с помощью специальных методов, например, вводя в заблуждение его понимание предложений во время переговоров.
Эти проблемы подчеркивают, что чем более продвинутыми являются интеллектуальные системы, тем шире их потенциальные уязвимости.
Для решения этих проблем технологии безопасности в области Web3 могут предложить решения:
Модель нулевого доверия: подчеркивает необходимость строгой аутентификации и авторизации для каждого запроса на доступ.
Децентрализованная идентификация (DID): предоставляет способ проверки идентификации, который не требует централизованной регистрации.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления с данными в зашифрованном состоянии, защищая конфиденциальность данных.
В частности, технология FHE демонстрирует огромный потенциал в решении проблем безопасности в эпоху ИИ. Она может обеспечить защиту на нескольких уровнях:
На уровне данных: Вся информация, вводимая пользователями, обрабатывается в зашифрованном виде, даже сама AI-система не может расшифровать исходные данные.
Алгоритмический уровень: через обучение модели шифрования обеспечить, чтобы даже разработчики не могли напрямую наблюдать за процессом принятия решений AI.
Сотрудничество: связь между несколькими агентами использует пороговое шифрование, чтобы предотвратить утечку глобальных данных в результате одной точки сбоя.
С развитием технологий ИИ, которые все больше приближаются к уровню человеческого интеллекта, создание мощной системы безопасности становится все более важным. Передовые методы шифрования, такие как FHE, способны не только решать текущие проблемы, но и закладывать безопасную основу для будущей эры более мощного ИИ. На пути к AGI эти технологии безопасности станут незаменимой гарантией.