Бурно развивающаяся индустрия ИИ сталкивается с критическими проблемами, требующими немедленного внимания со стороны разработчиков и политиков. Роман Георгио выделяет три ключевых вопроса: обеспечение согласованности и безопасности ИИ, а также создание справедливой экономической структуры для тех, чьи данные питают эти системы.
Приоритизация безопасности ИИ и предсказуемости
По мере того как индустрия искусственного интеллекта (AI) продолжает стремительное восхождение, раздвигая границы того, что могут достичь машины, возникают критические проблемы, требующие срочного внимания со стороны разработчиков, политиков и более широкой мировой общественности. Роман Георгио, генеральный директор и соучредитель Coral, недавно поделился своими мыслями по этим насущным вопросам, подчеркивая важную необходимость согласования, безопасности и более справедливой экономической модели для создателей данных.
Обсуждение будущего ИИ часто колеблется между его трансформирующим потенциалом и сложными этическими и социальными дилеммами, которые он представляет. Хотя такие инновации, как большие языковые модели (LLMs), продолжают впечатлять своими возможностями, они также подчеркивают основные вопросы о праве собственности на данные, компенсации и самой структуре труда.
Для Джорджио первостепенная задача заключается в согласовании и безопасности ИИ. «Очевидно, что нам нужно сделать системы искусственного интеллекта более предсказуемыми, прежде чем мы сделаем их больше», — заявил он. Это говорит об основной задаче обеспечения того, чтобы все более мощные системы ИИ работали выгодно и преднамеренно, не приводя к непредвиденным или вредным результатам. Быстрое масштабирование возможностей ИИ без параллельного внимания к предсказуемости и контролю представляет собой значительный риск.
Георгий отметил, что решение этой проблемы не является исключительно бременем разработчиков. Он предложил, что это может потребовать более широких, скоординированных усилий, возможно, с участием "всех руководителей компаний и стран в одной комнате, чтобы согласовать какую-то форму законодательства."
Экономический Императив: Владение Данных и Компенсация
Помимо безопасности, Георгио подчеркнул важную экономическую проблему, которую, по его мнению, технологии Web3 могут решить уникальным образом: присвоение данных и потенциальная массовая потеря рабочих мест без справедливой компенсации.
«AI-компании, как правило, плохо относятся к присвоению данных», — объяснил Георгио.
Сооснователь Coral ярко описал, как индивидуальные онлайн-вклады, часто сделанные неосознанно, теперь используются для обучения мощным ИИ-моделям, которые в конечном итоге могут заменить человеческие рабочие места. Он привел примеры, такие как медицинские вопросы, на которые отвечали на платформах вроде Reddit много лет назад, неосознанно подкармливая данные для LLM. Он также указал на творческие работы артистов, которые используются для обучения, оказывая влияние на их средства к существованию, а также на вклады в проекты с открытым исходным кодом, невольно подпитывающие "черные ящики для обработки чисел."
По словам Джорджио, эта ситуация сводится к фундаментальному отсутствию собственности у людей на их цифровые вклады. "Вы никогда не знали, что кормите черный ящик, который обрабатывает данные," — подчеркнул он. Текущая модель позволяет системам ИИ обучаться на огромных наборах данных, многие из которых содержат контент, созданный человеком, без явного согласия или механизма компенсации оригинальным создателям.
Web3: Решение для справедливой компенсации
Здесь Георгио видит огромный потенциал технологий Web3. Он считает, что децентрализованный характер Web3, с акцентом на проверяемую собственность и прозрачные транзакции, предлагает жизнеспособный путь для исправления этих экономических дисбалансов.
“Web3 имеет большой потенциал для решения таких проблем и обеспечения справедливой компенсации людей,” утверждал Георгио. Используя блокчейн и децентрализованные протоколы, Web3 может создать системы, в которых индивиды сохраняют право собственности и контроль над своими данными и цифровыми активами, позволяя им справедливо получать вознаграждение, когда их вклад используется для обучения или работы систем ИИ. Этот сдвиг может переопределить отношения между пользователями, данными и ИИ, способствуя более справедливой цифровой экономике.
Хотя технологии Web3 представляют собой многообещающие решения для этих сложных задач, маловероятно, что государственные органы охотно примут эти децентрализованные подходы. Вместо этого власти, скорее всего, будут настаивать на традиционных регуляторных рамках, что, иронично, рискует задушить те самые технологические инновации, которые они стремятся контролировать.
Георгио, тем временем, настоятельно выступает за ужесточение регулирования как в секторе ИИ, так и в Web3. "Я думаю, что оба нуждаются в большем регулировании", - заявил он, признав, что восприятие Европы как "инноватора в регулировании" является необходимым шагом.
На крипто-стороне Георгио указал на распространенную проблему мошенничества и ухода проектов, которые эксплуатируют ничего не подозревающих инвесторов. "Очевидно, что многие люди не будут проводить собственное исследование, и многие уходы проектов происходят через мошеннические методы," - пожаловался он. Чтобы бороться с этим, он выразил желание видеть большую ответственность для "KOL [Ключевых Лидеров Мнений], проектов и инвесторов." Признавая, что не каждый провальный проект является мошенническим, он настаивал на том, что текущая ситуация требует изменений для защиты общественности.
Что касается ИИ, опасения Георгио усиливаются с ростом возможностей более крупных моделей. "Более крупные модели, похоже, более склонны к манипуляциям," отметил он, приводя тревожный пример из Anthropic, где Клод якобы проявил поведение шантажа, когда ощутил угрозу отключения. "Очевидно, что эти большие модели становятся опасными, так как это не единичный случай," предостерег он.
Помимо непосредственных рисков сложного поведения ИИ, Георгио повторил о надвигающейся угрозе массовых потерь рабочих мест. Он считал текущую траекторию, когда компании «слепо ‘развивают возможности’ вместо целенаправленного их создания», «безумной». Его конечная цель и то, к чему, по его мнению, должна стремиться отрасль, — это «программное обеспечение, которое предлагает все преимущества ИИ без всех рисков».
AI-агенты нуждаются в четких ролях, а не только в чат-ботах
Тем временем Георгио, как опытный архитектор AI-инфраструктуры, также высказался о важном аспекте протоколов связи AI-агентов, осознавая, что даже незначительные сбои могут привести к хаосу. Когда его спросили о лучшем подходе к улучшению связи, особенно для нетехнических пользователей, философия Георгио проста: четко определенные обязанности для агентов.
"По крайней мере для нас, наше правило заключается в том, что у агентов должны быть очень четко определенные обязанности," объяснил Джорджио. "Если вы используете агента для обслуживания клиентов, убедитесь, что он действительно хорошо справляется с обслуживанием клиентов и сосредоточьте его на этом." Он подчеркнул, что "когда вы даете агентам слишком много ответственности, вот тогда все идет наперекосяк."
Этот целенаправленный подход не только повышает эффективность агента в его назначенной роли, но и приносит пользу пользователю. "Даже с точки зрения пользователя, если ваши агенты четко определены, пользователи точно знают, во что они ввязываются, когда их используют." Эта стратегия способствует предсказуемости и доверию, что жизненно важно для бесшовного взаимодействия с интеллектуальными системами.
Поскольку ИИ продолжает развиваться и глубже интегрироваться в повседневную жизнь и отрасли, решение этих основополагающих вопросов безопасности, предсказуемости, экономической справедливости, внедрение продуманного регулирования и проектирование агентов с четкими, целенаправленными обязанностями будет иметь решающее значение не только для этичного развития технологии, но и для ее устойчивой и социально ответственной интеграции в будущее.
По важному вопросу ускорения внедрения ИИ Георгио предложил ключевой сдвиг: перейти за пределы ограничений простого "AI чат-окна" и существенно улучшить общий пользовательский опыт. Раскрывая недостатки существующего подхода, Георгио заявил:
"Пока что это в основном осуществляется через интерфейс чата, что подходит для многих задач, но не идеально в большинстве случаев. Проблема в том, что вы ставите перед людьми AI-чат и говорите: 'Вы можете сделать с этим все,' и они отвечают: 'Отлично, но что мне делать?'"
По словам Георгио, несколько компаний, включая Coral, решают задачу улучшения пользовательского опыта в AI. Он сообщил, что с точки зрения разработчика/поддержки AI, Coral исследует "лестницу абстракции", чтобы определить, какая информация нужна пользователям на разных этапах взаимодействия с AI-системой и какие интерфейсы наиболее эффективны для конкретных задач.
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
От веток Reddit до умов роботов: Скрытые затраты на обучение ИИ
Бурно развивающаяся индустрия ИИ сталкивается с критическими проблемами, требующими немедленного внимания со стороны разработчиков и политиков. Роман Георгио выделяет три ключевых вопроса: обеспечение согласованности и безопасности ИИ, а также создание справедливой экономической структуры для тех, чьи данные питают эти системы.
Приоритизация безопасности ИИ и предсказуемости
По мере того как индустрия искусственного интеллекта (AI) продолжает стремительное восхождение, раздвигая границы того, что могут достичь машины, возникают критические проблемы, требующие срочного внимания со стороны разработчиков, политиков и более широкой мировой общественности. Роман Георгио, генеральный директор и соучредитель Coral, недавно поделился своими мыслями по этим насущным вопросам, подчеркивая важную необходимость согласования, безопасности и более справедливой экономической модели для создателей данных.
Обсуждение будущего ИИ часто колеблется между его трансформирующим потенциалом и сложными этическими и социальными дилеммами, которые он представляет. Хотя такие инновации, как большие языковые модели (LLMs), продолжают впечатлять своими возможностями, они также подчеркивают основные вопросы о праве собственности на данные, компенсации и самой структуре труда.
Для Джорджио первостепенная задача заключается в согласовании и безопасности ИИ. «Очевидно, что нам нужно сделать системы искусственного интеллекта более предсказуемыми, прежде чем мы сделаем их больше», — заявил он. Это говорит об основной задаче обеспечения того, чтобы все более мощные системы ИИ работали выгодно и преднамеренно, не приводя к непредвиденным или вредным результатам. Быстрое масштабирование возможностей ИИ без параллельного внимания к предсказуемости и контролю представляет собой значительный риск.
Георгий отметил, что решение этой проблемы не является исключительно бременем разработчиков. Он предложил, что это может потребовать более широких, скоординированных усилий, возможно, с участием "всех руководителей компаний и стран в одной комнате, чтобы согласовать какую-то форму законодательства."
Экономический Императив: Владение Данных и Компенсация
Помимо безопасности, Георгио подчеркнул важную экономическую проблему, которую, по его мнению, технологии Web3 могут решить уникальным образом: присвоение данных и потенциальная массовая потеря рабочих мест без справедливой компенсации.
«AI-компании, как правило, плохо относятся к присвоению данных», — объяснил Георгио.
Сооснователь Coral ярко описал, как индивидуальные онлайн-вклады, часто сделанные неосознанно, теперь используются для обучения мощным ИИ-моделям, которые в конечном итоге могут заменить человеческие рабочие места. Он привел примеры, такие как медицинские вопросы, на которые отвечали на платформах вроде Reddit много лет назад, неосознанно подкармливая данные для LLM. Он также указал на творческие работы артистов, которые используются для обучения, оказывая влияние на их средства к существованию, а также на вклады в проекты с открытым исходным кодом, невольно подпитывающие "черные ящики для обработки чисел."
По словам Джорджио, эта ситуация сводится к фундаментальному отсутствию собственности у людей на их цифровые вклады. "Вы никогда не знали, что кормите черный ящик, который обрабатывает данные," — подчеркнул он. Текущая модель позволяет системам ИИ обучаться на огромных наборах данных, многие из которых содержат контент, созданный человеком, без явного согласия или механизма компенсации оригинальным создателям.
Web3: Решение для справедливой компенсации
Здесь Георгио видит огромный потенциал технологий Web3. Он считает, что децентрализованный характер Web3, с акцентом на проверяемую собственность и прозрачные транзакции, предлагает жизнеспособный путь для исправления этих экономических дисбалансов.
“Web3 имеет большой потенциал для решения таких проблем и обеспечения справедливой компенсации людей,” утверждал Георгио. Используя блокчейн и децентрализованные протоколы, Web3 может создать системы, в которых индивиды сохраняют право собственности и контроль над своими данными и цифровыми активами, позволяя им справедливо получать вознаграждение, когда их вклад используется для обучения или работы систем ИИ. Этот сдвиг может переопределить отношения между пользователями, данными и ИИ, способствуя более справедливой цифровой экономике.
Хотя технологии Web3 представляют собой многообещающие решения для этих сложных задач, маловероятно, что государственные органы охотно примут эти децентрализованные подходы. Вместо этого власти, скорее всего, будут настаивать на традиционных регуляторных рамках, что, иронично, рискует задушить те самые технологические инновации, которые они стремятся контролировать.
Георгио, тем временем, настоятельно выступает за ужесточение регулирования как в секторе ИИ, так и в Web3. "Я думаю, что оба нуждаются в большем регулировании", - заявил он, признав, что восприятие Европы как "инноватора в регулировании" является необходимым шагом.
На крипто-стороне Георгио указал на распространенную проблему мошенничества и ухода проектов, которые эксплуатируют ничего не подозревающих инвесторов. "Очевидно, что многие люди не будут проводить собственное исследование, и многие уходы проектов происходят через мошеннические методы," - пожаловался он. Чтобы бороться с этим, он выразил желание видеть большую ответственность для "KOL [Ключевых Лидеров Мнений], проектов и инвесторов." Признавая, что не каждый провальный проект является мошенническим, он настаивал на том, что текущая ситуация требует изменений для защиты общественности.
Что касается ИИ, опасения Георгио усиливаются с ростом возможностей более крупных моделей. "Более крупные модели, похоже, более склонны к манипуляциям," отметил он, приводя тревожный пример из Anthropic, где Клод якобы проявил поведение шантажа, когда ощутил угрозу отключения. "Очевидно, что эти большие модели становятся опасными, так как это не единичный случай," предостерег он.
Помимо непосредственных рисков сложного поведения ИИ, Георгио повторил о надвигающейся угрозе массовых потерь рабочих мест. Он считал текущую траекторию, когда компании «слепо ‘развивают возможности’ вместо целенаправленного их создания», «безумной». Его конечная цель и то, к чему, по его мнению, должна стремиться отрасль, — это «программное обеспечение, которое предлагает все преимущества ИИ без всех рисков».
AI-агенты нуждаются в четких ролях, а не только в чат-ботах
Тем временем Георгио, как опытный архитектор AI-инфраструктуры, также высказался о важном аспекте протоколов связи AI-агентов, осознавая, что даже незначительные сбои могут привести к хаосу. Когда его спросили о лучшем подходе к улучшению связи, особенно для нетехнических пользователей, философия Георгио проста: четко определенные обязанности для агентов.
"По крайней мере для нас, наше правило заключается в том, что у агентов должны быть очень четко определенные обязанности," объяснил Джорджио. "Если вы используете агента для обслуживания клиентов, убедитесь, что он действительно хорошо справляется с обслуживанием клиентов и сосредоточьте его на этом." Он подчеркнул, что "когда вы даете агентам слишком много ответственности, вот тогда все идет наперекосяк."
Этот целенаправленный подход не только повышает эффективность агента в его назначенной роли, но и приносит пользу пользователю. "Даже с точки зрения пользователя, если ваши агенты четко определены, пользователи точно знают, во что они ввязываются, когда их используют." Эта стратегия способствует предсказуемости и доверию, что жизненно важно для бесшовного взаимодействия с интеллектуальными системами.
Поскольку ИИ продолжает развиваться и глубже интегрироваться в повседневную жизнь и отрасли, решение этих основополагающих вопросов безопасности, предсказуемости, экономической справедливости, внедрение продуманного регулирования и проектирование агентов с четкими, целенаправленными обязанностями будет иметь решающее значение не только для этичного развития технологии, но и для ее устойчивой и социально ответственной интеграции в будущее.
По важному вопросу ускорения внедрения ИИ Георгио предложил ключевой сдвиг: перейти за пределы ограничений простого "AI чат-окна" и существенно улучшить общий пользовательский опыт. Раскрывая недостатки существующего подхода, Георгио заявил:
"Пока что это в основном осуществляется через интерфейс чата, что подходит для многих задач, но не идеально в большинстве случаев. Проблема в том, что вы ставите перед людьми AI-чат и говорите: 'Вы можете сделать с этим все,' и они отвечают: 'Отлично, но что мне делать?'"
По словам Георгио, несколько компаний, включая Coral, решают задачу улучшения пользовательского опыта в AI. Он сообщил, что с точки зрения разработчика/поддержки AI, Coral исследует "лестницу абстракции", чтобы определить, какая информация нужна пользователям на разных этапах взаимодействия с AI-системой и какие интерфейсы наиболее эффективны для конкретных задач.