Автор: MarcAndreessen, основатель a16z, перевод: Jinse Finance cryptonaitive&ChatGPT
Наступил век искусственного интеллекта, и люди паникуют по этому поводу.
К счастью, я здесь, чтобы сообщить хорошие новости: ИИ не уничтожит мир, он может его спасти.
Во-первых, краткое введение в то, что такое искусственный интеллект: процесс применения математических и программных кодов для обучения компьютеров тому, как понимать, синтезировать и генерировать знания, как люди. Искусственный интеллект — это такая же программа, как и любая другая компьютерная программа: она запускается, принимает входные данные, обрабатывает их и генерирует выходные данные. Продукция искусственного интеллекта очень полезна в различных сферах, от программирования до медицины, юриспруденции и творчества. Она принадлежит и контролируется людьми, как и любая другая технология.
Краткое описание искусственного интеллекта: это не как в фильмах, где программы-убийцы и роботы вдруг оживают и решают убить людей или иным образом уничтожить все вокруг.
Краткое описание искусственного интеллекта: это может быть способ сделать все, что нам небезразлично, лучше.
**Почему ИИ может сделать все, что нам небезразлично, лучше? **
Главный вывод многочисленных исследований, проводившихся в социальных науках на протяжении многих лет, заключается в том, что человеческий интеллект может привести к значительным улучшениям во всех сферах жизни. Более умные люди достигают лучших результатов почти во всех областях: успеваемость, производительность труда, карьерный статус, доход, творчество, физическое здоровье, долголетие, изучение новых навыков, выполнение сложных задач, лидерство, предпринимательский успех, разрешение конфликтов, понимание прочитанного, принятие финансовых решений. , Понимание взглядов других, Творчество, Результаты воспитания и Удовлетворенность жизнью.
Кроме того, человеческий интеллект — это рычаг, который мы использовали на протяжении тысячелетий для создания нашего мира: науки, техники, математики, физики, химии, медицины, энергетики, архитектуры, транспорта, связи, искусства, музыки, культуры, философии, этики и морали. Без применения интеллекта во всех этих областях мы могли бы до сих пор жить в глинобитных хижинах, пытаясь выжить в нищете сельского хозяйства. Вместо этого мы использовали интеллект, чтобы улучшить наш уровень жизни примерно в 10 000 раз за последние 4 000 лет.
ИИ дает нам возможность значительно улучшить различные результаты интеллекта — от создания новых лекарств до решения проблемы изменения климата и технологий, позволяющих совершать межзвездные путешествия, — путем глубокого расширения человеческого интеллекта.
Процесс искусственного интеллекта, дополняющего человеческий интеллект, уже начался — искусственный интеллект появился вокруг нас в различных формах, таких как различные компьютерные системы управления, а теперь появились масштабные языковые модели искусственного интеллекта, такие как ChatGPT, и отныне он будет Быстрое ускорение - если мы это позволим.
В наш новый век искусственного интеллекта:
• У каждого ребенка будет наставник с ИИ, обладающий бесконечным терпением, бесконечным сочувствием, бесконечными знаниями и бесконечной помощью. Этот ИИ-наставник будет рядом с каждым ребенком, пока он растет, помогая ему полностью раскрыть свой потенциал и даря бесконечную любовь.
• У каждого будет помощник/тренер/наставник/тренер/советник/терапевт с искусственным интеллектом, обладающий бесконечным терпением, бесконечным состраданием, бесконечными знаниями и бесконечной помощью. Этот помощник с искусственным интеллектом будет рядом с вами на протяжении всей жизни и вызовов, максимизируя результаты каждого.
• У каждого ученого будет помощник/сотрудник/партнер ИИ, способный значительно расширить масштабы его научных исследований и достижений. Таким будет мир каждого художника, инженера, бизнесмена, врача и фельдшера.
• Каждый лидер — генеральный директор, правительственный чиновник, президент некоммерческой организации, спортивный тренер, учитель — будет делать то же самое. Эффект усиления от лучшего принятия решений лидерами огромен, поэтому усиление интеллекта, вероятно, является наиболее важным.
• Рост производительности в экономике значительно ускорится, стимулируя экономический рост, создание новых отраслей промышленности, создание новых рабочих мест и рост заработной платы, что приведет к новой эре материального процветания на Земле.
• Научные прорывы, новые технологии и новые лекарства будут значительно расширяться, поскольку искусственный интеллект помогает нам еще больше расшифровывать законы природы и использовать их на благо.
• Искусство войдет в золотой век, поскольку художники, музыканты, писатели и режиссеры с искусственным интеллектом смогут воплощать свои идеи быстрее и в большем масштабе, чем когда-либо прежде.
• Я даже думаю, что ИИ улучшит ведение войны, когда это необходимо, значительно снизив уровень смертности во время войны. Каждая война характеризуется очень ограниченными лидерами-людьми, принимающими ужасные решения под сильным давлением и с ограниченной информацией. Военные командиры и политические лидеры теперь будут иметь советников с искусственным интеллектом, которые помогут им принимать более эффективные стратегические и тактические решения, сводящие к минимуму риск, ошибки и ненужное кровопролитие.
• Короче говоря, все, что люди делают сегодня с их естественным интеллектом, можно сделать лучше с помощью ИИ, и мы сможем взять на себя новые задачи, которые невозможно решить без ИИ, от лечения всех болезней до обеспечения межзвездных путешествий.
• И дело не только в интеллекте! Возможно, самым недооцененным качеством ИИ является его человеческое прикосновение. Искусство ИИ дает тем, у кого в противном случае не было бы технических навыков, свободу создавать и делиться своими художественными идеями. Разговор с чутким другом ИИ может фактически улучшить их способность справляться с невзгодами. И, по сравнению с людьми, медицинские чат-боты с искусственным интеллектом уже более чуткие. Искусственный интеллект с бесконечным терпением и состраданием сделает мир теплее и дружелюбнее.
Ставки здесь высоки, а возможности обширны. ИИ, возможно, самое важное и лучшее, что когда-либо видела наша цивилизация, по крайней мере, наравне с электричеством и микрочипами, а возможно, даже лучше их.
Наш моральный долг перед собой, перед нашими детьми и перед нашим будущим — развивать и популяризировать искусственный интеллект — и держаться подальше от рисков, которых нам следует опасаться.
Мы заслуживаем жить в лучшем мире с искусственным интеллектом, и теперь мы можем это сделать.
** Итак, почему паника? **
Вопреки этому положительному мнению, текущие публичные дискуссии об ИИ полны паники и паранойи.
Мы слышим всевозможные заявления о том, что ИИ уничтожит нас всех, разрушит наши общества, лишит нас работы, вызовет массовое неравенство и позволит плохим деятелям совершать ужасные вещи.
Почему это расхождение в возможных результатах, от почти утопии до ужасной антиутопии?
**Исторически сложилось так, что каждая важная новая технология, от лампочки до автомобиля, от радио до Интернета, вызывала моральную панику — социальную заразу, которая заставляет людей верить, что новая технология разрушит мир или общество, или Оба погибнут. ** Хорошие ребята из «Архивов пессимизма» задокументировали эти десятилетия эпизодов моральной паники, вызванных технологиями; их история ясно показывает эту закономерность. Как оказалось, нынешняя паника по поводу искусственного интеллекта даже не первая.
В настоящее время действительно существует множество новых технологий, которые приводят к нежелательным результатам, часто технологии, которые приносят огромную пользу для нашего благосостояния. Итак, наличие моральной паники не означает, что не о чем беспокоиться.
Но **моральная паника по своей сути иррациональна — она преувеличивает то, что может быть законным беспокойством, до уровня истерии, который, по иронии судьбы, мешает нам решать действительно серьезные проблемы. **
Прямо сейчас мы находимся в полномасштабной моральной панике по поводу ИИ.
Эта моральная паника была использована несколькими субъектами для принятия политических мер, подталкивая к новым ограничениям, правилам и законам в отношении ИИ. Эти актеры публично говорят об опасностях искусственного интеллекта с крайней драматизацией — они подпитывают и еще больше разжигают моральную панику — и все представляют себя бескорыстными защитниками общего блага.
Но так ли они на самом деле?
Правы они или нет?
Баптисты и самогонщики с искусственным интеллектом
Экономисты наблюдали давнюю закономерность среди таких реформаторских движений. Участников этих движений можно разделить на две категории — «баптисты» и «бутлегеры», исходя из исторического примера сухого закона в США в 1920-х годах:
• «Баптисты» были истинно верующими социальными реформаторами, глубоко и эмоционально (хотя и не обязательно интеллектуально) верившими в то, что для предотвращения социальной катастрофы необходимы новые ограничения, правила и законы. В случае сухого закона эти действующие лица обычно были искренними христианами, считавшими, что алкоголь разрушает моральную ткань общества. Что касается риска ИИ, то эти действующие лица — это люди, которые искренне верят, что ИИ представляет тот или иной экзистенциальный риск — если вы привяжете их к детектору лжи, они действительно это сделают.
• Бутлегеры — это корыстные оппортунисты, которые извлекают выгоду из новых ограничений, правил и законов по мере их реализации и изолируют себя от конкурентов. Для Сухого закона это были контрабандисты, которые нажили огромные состояния на незаконной продаже алкоголя в то время, когда легальная продажа алкоголя была запрещена. Что касается риска ИИ, то это руководители, которые могли бы заработать больше денег, если бы создали своего рода картель санкционированных правительством поставщиков ИИ, защищенных от стартапов и конкуренции с открытым исходным кодом. провальный" банк.
Циник может возразить, что некоторые якобы баптисты также являются бутлегерами, особенно те, чьи университеты, аналитические центры, группы активистов и средства массовой информации платят им зарплату или получают гранты для борьбы с ИИ. Если вам платят зарплату или грант, чтобы разжечь панику по поводу ИИ, вы, вероятно, контрабандист.
Проблема бутлегеров в том, что они выигрывают. Баптисты — наивные идеологи, а бутлегеры — циничные деятели, поэтому результатом таких реформаторских движений обычно является то, что бутлегеры получают желаемое — регулирующий контроль, защиту от конкуренции, формирование монополии, в то время как баптистов смущало стремление к улучшению общества.
Мы только что пережили шокирующий пример – банковские реформы, последовавшие за глобальным финансовым кризисом 2008 года. Баптисты говорят нам, что нам нужны новые законы и правила, чтобы разрушить «слишком большие, чтобы обанкротиться» банки, чтобы предотвратить повторение подобного кризиса. В результате Конгресс США принял Закон Додда-Франка от 2010 года, который был заявлен как отвечающий целям баптистов, но на самом деле им воспользовались контрабандисты — крупные банки. В результате банки, которые были слишком велики, чтобы обанкротиться в 2008 году, теперь стали еще больше.
Так что на практике, даже если баптисты были искренними, даже если баптисты были правы, хитрые и жадные контрабандисты использовали их для собственной выгоды.
Это именно то, что в настоящее время движет регулированием ИИ.
Однако недостаточно выявить действующих лиц и обвинить их мотивы. Мы должны оценить его с точки зрения аргументов баптистов и бутлегеров.
** AI Risk 1: Убьет ли нас искусственный интеллект? **
**Первый и самый ранний риск конца света ИИ — это опасение, что ИИ решит убить человечество. **
Наш страх, что технология сама восстанет и уничтожит нас, укоренился в нашей культуре. Греки выразили этот страх через миф о Прометее — Прометей принес человечеству разрушительную силу огня и в более общем смысле технологии («техне»), поэтому Прометей был увековечен замученными богами. Позже Мэри Шелли создала эту мифическую версию нас самих для современных людей в своем романе «Франкенштейн», в котором мы разрабатываем технологию бессмертия, которая затем восстает и пытается нас уничтожить. Конечно, для того, чтобы испугать освещение в газетах искусственного интеллекта, необходимо неподвижное изображение светящегося робота-убийцы с красными глазами из фильма Джеймса Кэмерона «Терминатор».
Предполагаемая эволюционная цель этого мифа — побудить нас серьезно задуматься о потенциальных рисках новых технологий — в конце концов, с помощью огня действительно можно сжечь целые города. Но точно так же, как огонь является одновременно основой современной цивилизации, используемой для того, чтобы согревать нас и защищать нас в холодном и враждебном мире, этот миф игнорирует большие преимущества большинства, если не всех, новых технологий и на самом деле вызывает опустошение. рациональный анализ. То, что древние так паниковали, не означает, что мы тоже должны паниковать, мы можем использовать разум.
** Я думаю, что идея о том, что ИИ решит убить людей, является глубокой категориальной ошибкой. **ИИ — это не живое существо, которое эволюционировало в течение миллиардов лет, чтобы участвовать в борьбе за выживание наиболее приспособленных, таких как животные и мы сами. Это компьютеры с математическим кодом, построенные, принадлежащие, используемые и контролируемые людьми. Думать, что в какой-то момент он разовьет собственный разум и решит, что у него есть мотив, который заставляет его пытаться убить нас, — это волна суеверия.
Короче говоря, у **ИИ нет ни воли, ни цели, он не хочет вас убивать, потому что он не жив. ИИ — это машина, живая не более, чем ваш тостер. **
Теперь, по-видимому, есть те, кто глубоко верит в ИИ-убийц — внезапный безумный рост освещения в СМИ заглушает их ужасные предупреждения, некоторые из которых утверждают, что изучали эту тему десятилетиями и теперь ужасаются тому, что, как они знают, потревожило их. Некоторые из этих истинно верующих даже являются настоящими новаторами технологии. Эти люди выступают за всевозможные причудливые и экстремальные ограничения искусственного интеллекта, от запрета на разработку искусственного интеллекта до военных ударов с воздуха по дата-центрам и ядерной войны. Они утверждают, что, поскольку такие люди, как я, не могут исключить потенциально катастрофические последствия искусственного интеллекта в будущем, мы должны занять позицию предосторожности, которая может потребовать значительного физического насилия и смерти, чтобы предотвратить потенциальные экзистенциальные риски.
Я отвечаю, что их позиция ненаучна — каковы проверяемые гипотезы? Какие факты докажут ошибочность этого предположения? Как мы узнаем, что вошли в опасную зону? Эти вопросы в основном остаются без ответа, за исключением: «Вы не можете доказать, что этого не произойдет!» На самом деле, позиции этих баптистов настолько ненаучны и экстремальны — теория заговора о математике и коде, — что они назвали Физическое насилие, так что я собираюсь сделать то, что обычно не делаю, поставить под сомнение их мотивы.
В частности, я думаю, что происходят три вещи:
Во-первых, вспомните реакцию Джона фон Неймана на беспокойство Роберта Оппенгеймера по поводу создания им ядерного оружия, которое помогло положить конец Второй мировой войне и предотвратить Третью мировую войну. "Некоторые люди признаются в преступлениях, чтобы заявить о своих преступлениях, - сказал он. - Как лучше всего заявить о важности своей работы преувеличенным образом, не выглядя при этом слишком хвастливым?" Это объясняет непоследовательность баптистов, которые на самом деле создают и финансируют ИИ — следите за их действиями, а не за словами. (Трумэн был еще более строг после встречи с Оппенгеймером: «Не впускайте больше этого плаксу».)
Во-вторых, некоторые баптисты на самом деле были бутлегерами. Есть целая карьера, которая называется «эксперт по безопасности ИИ», «специалист по этике ИИ», «исследователь рисков ИИ». Их работа состоит в том, чтобы предсказывать гибель, и к их заявлениям следует относиться соответствующим образом.
В-третьих, Калифорния известна многочисленными культами, от EST до Народного Храма, от Небесных Врат до Семьи Мэнсона. Многие из этих, хотя и не все, культов безобидны и даже оказывают помощь отчужденным, которые находят в них дом. Но некоторые из них настолько опасны, что культы часто изо всех сил стараются идти по линии насилия и смерти.
И реальность такова, очевидно для всех в районе залива, что «риск искусственного интеллекта» превратился в культ, привлекая внимание мировых СМИ и общественное обсуждение. Культ привлекал не только маргинальных фигур, но и настоящих отраслевых экспертов и довольно много богатых доноров, в том числе до недавнего времени Сэма Бэнкмана-Фрида. Он разработал целый набор культовых моделей поведения и верований.
В этом культе нет ничего нового — существует давняя западная традиция, называемая милленаризмом, которая породила культ Апокалипсиса. Культ «AI Risk» имеет все признаки миллениалистского апокалиптического культа. Из Википедии я сделал некоторые дополнения:
«Милленаризм — это вера группы или движения [пророков риска искусственного интеллекта] в неизбежный фундаментальный сдвиг в обществе [приход искусственного интеллекта], после которого все изменится [утопия искусственного интеллекта, антиутопия или конец света Считается, что только драматические события [запрет ИИ, авиаудары по центрам обработки данных, ядерные удары по неконтролируемому ИИ] могут изменить мир [остановить ИИ], и считается, что такие изменения были вызваны или пережили группу благочестивых и преданных людей. В большинстве тысячелетних эпизодов за надвигающейся катастрофой или битвой [апокалипсис или предотвращение ИИ] следует новый, Чистый мир [утопия ИИ]».
Эта модель сект судного дня настолько очевидна, что я удивлен, что многие люди ее не видят.
Не поймите меня неправильно, секты — это весело, их письменные материалы часто креативны и увлекательны, а их члены очаровательны на званых обедах и на телевидении. Но их крайние убеждения не должны определять будущее закона и общества — и явно не должны.
** Риск ИИ 2: разрушит ли ИИ наше общество? **
Вторая широко распространенная идея риска ИИ заключается в том, что ** ИИ разрушит наше общество, производя «вредные» результаты (на языке таких пророков), даже если нас на самом деле не убьют. **
Вкратце: **Если машины-убийцы не причиняют нам вреда, то разжигание ненависти и дезинформация могут. **
Это относительно новый апокалиптический фокус, который является ответвлением и в некоторой степени доминирует над движением «Риск ИИ», которое я описал выше. Фактически, терминология риска ИИ недавно изменилась с «безопасности ИИ» (термин, используемый теми, кто опасается, что ИИ действительно убьет нас) на «соответствие ИИ» (термин, используемый теми, кто беспокоится об общественном «вреде»). . Разочарованные этим сдвигом, оригинальные специалисты по безопасности ИИ, хотя и не знают, как вернуть его, теперь выступают за переименование фактической темы риска ИИ в «AInotkilleveryoneism» (AInotkilleveryoneism), хотя этот термин еще не получил признания. по крайней мере ясно.
Ключом к предложению ИИ об общественном риске является его собственный термин «Согласование ИИ». Выровнять с чем? человеческие ценности. Какие человеческие ценности? О, и здесь все становится сложнее.
Так случилось, что я был свидетелем подобной ситуации воочию — войны «доверия и безопасности» в социальных сетях. Ясно то, что на протяжении многих лет службы социальных сетей находились под сильным давлением со стороны правительств и активистов с целью запретить, ограничить, подвергнуть цензуре и подавить любой контент. А опасения по поводу «языка ненависти» (и его математического аналога «алгоритмической предвзятости») и «дезинформации» переместились непосредственно из контекста социальных сетей в новую сферу «соответствия ИИ».
Ключевые уроки, которые я извлек из войн в социальных сетях, таковы:
С одной стороны, абсолютной свободы слова не существует. Во-первых, каждая страна, включая США, считает хоть какой-то контент незаконным. Во-вторых, существуют определенные типы контента, такие как детская порнография и подстрекательство к насилию в реальном мире, которые обычно считаются запрещенными почти во всех обществах — независимо от того, законны они или нет. Поэтому любая технологическая платформа, которая облегчает или генерирует контент — речь — будет иметь некоторые ограничения.
С другой стороны, скользкий путь — это не миф, а неизбежность. Как только будет создана система, ограничивающая даже самый вопиющий контент, такой как разжигание ненависти, определенные оскорбительные термины или дезинформация, заведомо ложные заявления (например, «Папа умер»), различные правительственные учреждения, группы активистов и негосударственные - государственные органы будут быстро требовать усиления цензуры и подавления высказываний, которые они считают угрозой для общества и/или их личных предпочтений. Они будут делать это способами, которые включают в себя вопиющие преступления. На практике этот цикл кажется бесконечным, поддерживаемым восторженными официальными наблюдателями в наших элитных силовых структурах. Это имело место в пространстве социальных сетей в течение десятилетия, и, за некоторыми исключениями, становится только хуже.
Так что теперь это динамическое формирование вокруг «выравнивания ИИ». Его сторонники заявляют, что осознают мудрость использования сгенерированных ИИ слов и идей, полезных для общества, и запрещают слова и идеи, сгенерированные ИИ, которые вредны для общества. Ее противники утверждают, что Полиция мыслей чрезвычайно высокомерна, властна и часто вопиюще преступна, по крайней мере, в Соединенных Штатах, и, по сути, пытается стать новой правительственно-корпоративно-академической диктатурой авторитарной речи, приближаясь прямо к Джорджу Ф. Оруэллу. 1984.
Поскольку сторонники как «доверия и безопасности», так и «соответствия ИИ» сосредоточены в очень узком сегменте населения мира, характеризуемом прибрежной элитой США, в которую входят многие, кто работает и пишет о технологической отрасли. В результате многие из моих читателей будут вынуждены утверждать, что необходимы огромные ограничения на производительность ИИ, чтобы не разрушать общество. Я не буду сейчас убеждать вас, ребята, я просто скажу, что такова природа потребности и что большая часть мира не согласна с вашей идеологией и не хочет, чтобы вы победили.
Если вы не согласны с узкой моралью, которая в настоящее время навязывается социальным сетям и ИИ через усиленные нормы речи, вы также должны знать, что борьба за то, что ИИ разрешено говорить/генерировать, будет гораздо важнее, чем борьба за цензуру в социальных сетях. гораздо важнее. ИИ, скорее всего, станет контролирующим слоем всего в мире. То, как ему разрешено функционировать, вероятно, будет иметь большее значение, чем что-либо еще. Вы должны знать, что горстка изолированных сторонников социальных инженеров пытается решить, как теперь должен работать ИИ, под прикрытием следования старой риторике, которая защищает вас.
Короче говоря, не позволяйте полиции мысли подавлять ИИ.
** Риск ИИ 3: заберет ли ИИ все наши рабочие места? **
** Существует постоянный страх потери работы из-за замены человеческого труда машинами в различных формах, таких как механизация, автоматизация, компьютеризация или искусственный интеллект. ** Эта озабоченность сохранялась на протяжении сотен лет, с момента появления механических устройств, таких как механические ткацкие станки. В то время как каждая новая крупная технология исторически приводила к созданию более высокооплачиваемых рабочих мест, каждая волна паники сопровождалась нарративом «на этот раз все по-другому» — на этот раз это произойдет, на этот раз это технология. удар по человеческому труду. Однако этого не произошло.
В недавнем прошлом у нас было два цикла паники безработицы, вызванной технологиями: страх перед аутсорсингом в 2000-х и страх перед автоматизацией в 2010-х. В то время как многие в СМИ, эксперты и даже руководители технологических компаний продолжали стучать по столу на протяжении двух десятилетий, утверждая, что массовая безработица неизбежна, в конце 2019 года — до вспышки COVID — возможности трудоустройства в мире больше, чем в любой момент в истории, и заработная плата выше.
Однако это ложное представление не исчезает.
Конечно же, оно вернулось.
На этот раз у нас наконец-то есть технология, которая уберет все рабочие места и сделает человеческий труд неактуальным — настоящий искусственный интеллект. Конечно, на этот раз история не просто повторится, на этот раз: ИИ приведет к массовой безработице, а не к быстрому экономическому росту, большему количеству рабочих мест и повышению заработной платы. верно?
Нет, этого точно не произойдет, и если ИИ будет позволено развиваться и распространяться по экономике, это может привести к самому захватывающему и продолжительному экономическому буму, с соответствующим рекордным созданием рабочих мест и ростом заработной платы — именно так. противоположное тому, чего люди боялись. Причина в следующем.
** Автоматизация убивает рабочие места Центральная ошибка, которую совершают теисты, называется «ошибкой совокупного труда». **** Это заблуждение состоит в том, что существует фиксированное количество труда, которое должно быть выполнено в экономике в любой момент времени либо машинами, либо людьми, и если это выполняется машинами, то людям нечего делать. **
Заблуждение совокупного труда естественно возникает из интуиции, но эта интуиция неверна. ** Когда технология применяется к производству, мы получаем рост производительности — увеличение выпуска продукции за счет сокращения затрат. **Результат – падение цен на товары и услуги. По мере того как цены на товары и услуги падают, мы платим меньше, а это значит, что теперь у нас появляется дополнительная покупательная способность для покупки других вещей. Это увеличивает спрос в экономике, стимулируя новое производство — как новые продукты, так и новые отрасли — создавая новые рабочие места для людей, вытесненных машинами. **Результатом является большая экономика, большее материальное процветание, больше отраслей, больше продуктов, больше рабочих мест. **
Но хорошие новости не только в этом. Мы также получаем более высокую заработную плату. Это связано с тем, что на уровне отдельного работника рынок определяет компенсацию на основе предельной производительности рабочего. Работник в высокотехнологичной отрасли более продуктивен, чем работник в традиционной отрасли. Либо работодатель будет платить больше в зависимости от повышения производительности труда работника, либо другой работодатель будет делать это исключительно из личных интересов. В результате отрасли, внедряющие технологии, не только расширят возможности трудоустройства, но и повысят заработную плату.
В заключение следует отметить, что передовые технологии позволяют людям работать более эффективно. Это приводит к падению цен на существующие товары и услуги и росту заработной платы. Это, в свою очередь, стимулирует экономический рост и рост занятости, а также стимулирует создание новых рабочих мест и новых отраслей. **Если рыночная экономика сможет функционировать должным образом и можно будет свободно внедрять технологии, это будет бесконечный восходящий цикл. Как заметил Фридман, «человеческие желания и потребности неисчерпаемы» — мы всегда хотим больше, чем имеем. Рыночная экономика, основанная на технологиях, — это то, как мы приближаемся к достижению всего, что каждый может себе представить, но никогда не достигает в полной мере. Вот почему технологии не уничтожат рабочие места и никогда не уничтожат.
Для тех, кто не сталкивался с этими идеями, это шокирующие мысли, которые могут занять некоторое время, чтобы понять. Но клянусь, я их не выдумываю — на самом деле, вы можете прочитать их все в стандартных учебниках по экономике. Я рекомендую главу Генри Хэзлитта «Проклятие машины» в книге «Экономика за один урок» и сатиру Фредерика Бастиа «Петиция производителя свечей», которая протестует против солнца, потому что солнце несправедливо конкурировало в индустрии освещения. У нас также есть современная версия нашего времени.
Но вы можете подумать, что на этот раз все по-другому. На этот раз, с появлением искусственного интеллекта, у нас есть технологии, которые могут заменить весь человеческий труд.
Но, следуя принципам, которые я описал выше, представьте, что бы это значило, если бы весь существующий человеческий труд был заменен машинами.
Это означало бы, что рост экономической производительности будет происходить с абсолютно астрономической скоростью, намного превышающей любой исторический прецедент. Цены на существующие товары и услуги упадут практически до нуля по всем направлениям. Благосостояние потребителей будет расти. Покупательная способность потребителей будет расти. Будет всплеск нового спроса в экономике. Предприниматели создадут головокружительное множество новых отраслей, новых продуктов и новых услуг и как можно быстрее наймут как можно больше ИИ и рабочих, чтобы удовлетворить все новые требования.
Что, если искусственный интеллект снова заменит этих работников? Этот цикл будет повторяться, стимулируя благосостояние потребителей, экономический рост и рост занятости и заработной платы. Это будет линейная восходящая спираль, ведущая к материальной утопии, о которой Адам Смит и Карл Маркс и мечтать не смели.
Нам должно так повезти.
** AI Risk 4: Приведет ли искусственный интеллект к серьезному неравенству? **
Говоря о Карле Марксе, опасения по поводу того, что ИИ забирает рабочие места, приводят непосредственно к следующему заявленному риску ИИ, который, ну, Марк, предполагает, что ИИ действительно забирает все рабочие места, будь то к добру или из-за плохого. Итак, не приведет ли тот факт, что обладатели искусственного интеллекта получают все финансовые выгоды, а обычные люди ничего не получат, к огромному и серьезному имущественному неравенству?
Соответственно, это центральный марксистский тезис о том, что владельцы средств производства — буржуазия — неизбежно крадут все богатство общества у тех, кто на самом деле работает — пролетариата. Независимо от того, сколько раз реальность доказывает, что это неверно, кажется, что заблуждение никогда не умирает. Но давайте все же опровергнем.
Недостаток этой теории в том, что как владелец технологии вы не заинтересованы в том, чтобы хранить ее и не делиться ею — на самом деле, все наоборот, в ваших интересах продать ее как можно большему количеству клиентов. . Крупнейшим рынком в мире является глобальный рынок, включающий 8 миллиардов человек. Так что в действительности каждая новая технология — даже если она начинает продаваться крупным, хорошо оплачиваемым корпорациям или богатым потребителям — быстро распространяется, пока не попадает в руки самого крупного из возможных массовых рынков, в конечном итоге охватив население всей планеты.
Классическим примером этого является так называемый «секретный план» Илона Маска в 2006 году, который он, конечно, обнародовал, о планах Теслы:
первый шаг, построить [дорогую] спортивную машину;
Второй шаг – использовать деньги, заработанные на первом шаге, для создания доступного автомобиля;
Шаг 3: используйте деньги, заработанные на шаге 2, для создания более доступного автомобиля.
Что он, конечно, и сделал, и в итоге стал самым богатым человеком в мире.
Последний пункт является критическим. Стал бы Маск богаче, если бы сегодня он продавал автомобили только богатым людям? Не будет. Был бы он богаче, чем сейчас, если бы строил машины только для себя? конечно, нет. Нет, он максимизирует свою прибыль, продавая на максимально большом мировом рынке.
Короче говоря, каждый может иметь эту вещь, как мы видели в прошлом с автомобилями, электричеством, радиоприемниками, компьютерами, Интернетом, мобильными телефонами и поисковыми системами. Компании, производящие эти технологии, очень заинтересованы в снижении цен до тех пор, пока все на планете не смогут их себе позволить. Это именно то, что уже происходит в ИИ — вот почему вы можете использовать его сегодня на бесплатных или недорогих современных генеративных ИИ в форме Microsoft Bing и Google Bard — и это будет продолжаться. Не потому, что эти поставщики глупы или щедры, а именно потому, что они жадны — они хотят максимизировать размер рынка и, таким образом, максимизировать прибыль.
То, что происходит, противоречит теории о том, что технологии способствуют концентрации богатства — индивидуальный пользователь технологии, который в конечном итоге включает каждого человека на планете, вместо этого получает больше возможностей и получает большую часть создаваемой ценности. Как и в случае с предыдущими технологиями, компании, разрабатывающие ИИ — при условии, что они должны работать в условиях свободного рынка — будут стремиться воплотить это в жизнь.
Маркс ошибался тогда, ошибается и сейчас.
Это не означает, что неравенство не является проблемой в нашем обществе. Это проблема, за исключением того, что она обусловлена не технологиями, а теми секторами экономики, которые наиболее устойчивы к новым технологиям и в которые больше всего вмешивается правительство, чтобы предотвратить внедрение новых технологий, таких как искусственный интеллект, в частности жилье, образование и здравоохранение. ** Реальный риск ИИ и неравенства заключается не в том, что ИИ приведет к еще большему неравенству, а в том, что мы не позволим использовать ИИ для уменьшения неравенства. **
** AI Risk 5: заставит ли AI плохих людей делать плохие вещи? **
До сих пор я объяснял, почему четыре из пяти наиболее часто упоминаемых рисков ИИ на самом деле не реальны — ИИ не оживет, чтобы убить нас, ИИ не разрушит наше общество, искусственный интеллект не приведет. к массовой безработице, а ИИ не приведет к разрушительному росту неравенства. Но теперь давайте поговорим о пятом, и это тот, с которым ** я действительно согласен: ИИ облегчит плохим парням совершать плохие поступки. **
В некотором смысле, это циклический аргумент. Технология — это инструмент. Начиная с огня и камня, инструменты можно использовать во благо — для приготовления пищи и строительства домов, — и во зло — для сжигания и битья. Любая технология может быть использована в хороших или плохих целях. понятно. А ИИ, без сомнения, облегчит преступникам, террористам и враждебным правительствам совершать плохие поступки.
Это заставило некоторых людей сказать: ну, если это так, давайте запретим ИИ в этом случае, прежде чем случится что-то плохое. К сожалению, ИИ не является труднодоступным загадочным веществом, таким как плутоний. Наоборот, это самый доступный материал в мире — математика и код.
Судя по всему, ИИ-кошки не в упаковке. Вы можете научиться создавать искусственный интеллект с помощью тысяч бесплатных онлайн-курсов, книг, статей и видео, и каждый день появляется все больше выдающихся реализаций с открытым исходным кодом. ИИ подобен воздуху — он будет повсюду. Чтобы поймать его, уровень тоталитарных репрессий был бы настолько суровым - мировое правительство, которое контролирует и контролирует все компьютеры? Вооруженные полицейские на черных вертолетах совершают налеты на мошеннические графические процессоры? — У нас не будет общества, которое нужно защищать.
Итак, у нас есть два очень простых способа справиться с риском того, что злоумышленники используют ИИ для совершения плохих дел, и именно на них мы должны сосредоточиться.
**Во-первых, у нас есть законы, криминализирующие большинство случаев использования искусственного интеллекта во зло. ** Взлом Пентагона? Это преступление. Украсть деньги из банка? Это преступление. Создавать биологическое оружие? Это преступление. Устроить теракт? Это преступление. Нам просто нужно сосредоточиться на предотвращении этих преступлений, когда мы можем, и на судебном преследовании их, когда мы не можем. Нам даже не нужны новые законы — я не знаю, было ли возбуждено дело о злонамеренном использовании ИИ, которое уже не является незаконным. Если обнаруживаются новые неправомерные способы использования, мы запрещаем их использование. Сертификат завершен.
Но вы заметите, что я только что сказал — я сказал, что мы должны сначала сосредоточиться на предотвращении преступлений с помощью ИИ, прежде чем произойдут плохие вещи — разве это не означает запрет ИИ? Что ж, есть еще один способ предотвратить такое поведение — использовать ИИ в качестве защитного инструмента. Тот же ИИ, который наделяет плохих людей плохими целями, столь же силен в руках хороших людей — особенно хороших людей, которым поручено предотвращать плохие вещи.
Например, если вы беспокоитесь о том, что искусственный интеллект будет генерировать поддельных людей и поддельные видео, ответом будет создание новых систем, позволяющих людям аутентифицировать себя и настоящий контент с помощью криптографических подписей. Цифровое создание и изменение реального и поддельного контента существовало до появления ИИ; ответ заключается не в запрете текстовых процессоров и Photoshop — или ИИ — а в использовании технологий для создания системы, которая действительно решает проблему.
Итак, ** второй подход заключается в том, чтобы агрессивно использовать искусственный интеллект в благонамеренных, законных и оборонительных целях. Давайте использовать ИИ в киберзащите, биозащите, отслеживании террористов и во всем остальном, что мы делаем, чтобы защитить себя, наши сообщества и нашу страну. **
Конечно, есть много умных людей в правительстве и за его пределами, которые уже занимаются такой работой, но если мы сосредоточим все текущие усилия и разведку на неэффективном запрете искусственного интеллекта на использование искусственного интеллекта, чтобы не дать плохим людям делать плохие вещи , Я считаю, что мир, полный искусственного интеллекта. Умный мир будет более безопасным, чем мир, в котором мы живем сегодня.
Реальные риски, связанные с нереализацией ИИ с максимальной мощностью и скоростью
Есть один последний и реальный риск ИИ, который может быть самым страшным из всех:
ИИ эксплуатируется не только в относительно либеральных западных обществах, но и в Китае.
У Китая совсем другое видение ИИ, чем у нас. Они даже не держат это в секрете, и очень ясно дали понять, что уже преследуют свои цели. И они не намерены ограничивать свою стратегию ИИ Китаем — они намерены делать это там, где они предоставляют сети 5G, предлагают кредиты «Пояса и пути», предлагают удобные для потребителей приложения, такие как TikTok, в качестве своего централизованного управления и командного интерфейса ИИ, распространяя его в каждый уголок мира.
**Самый большой риск для ИИ заключается в том, что Китай завоюет мировое господство ИИ, а мы — США и Запад — нет. **
Я предлагаю простую стратегию решения этой проблемы — фактически, это стратегия, которую принял президент Рональд Рейган, когда он выиграл первую холодную войну с Советским Союзом.
«Мы выигрываем, они проигрывают».
Вместо того, чтобы отодвигаться на второй план из-за необоснованных опасений, связанных с ИИ-убийцами, вредным ИИ, ИИ, разрушающим рабочие места и порождающим неравенство, мы в США и на Западе должны как можно больше инвестировать в ИИ.
Мы должны бороться с глобальной гонкой за технологическое превосходство в области искусственного интеллекта и сделать так, чтобы Китай не победил.
В процессе мы должны внедрять ИИ в нашу экономику и общество как можно быстрее и энергичнее, чтобы максимизировать его преимущества для экономической производительности и человеческого потенциала.
Это лучший способ компенсировать реальные риски искусственного интеллекта и гарантировать, что наш образ жизни не будет заменен видением Китая.
**что нам делать? **
Я придумал простой план:
• Крупным ИИ-компаниям должно быть позволено создавать ИИ как можно быстрее и агрессивнее, но не добиваться регулирующей монополии, не создавать картель, охраняемый государством, и быть свободными от ложных заявлений о рисках ИИ для конкуренции. в магазине. Это максимизирует технологическую и социальную выгоду от удивительных возможностей этих компаний, жемчужин современного капитализма.
**• Начинающим ИИ-компаниям должно быть разрешено создавать ИИ как можно быстрее и агрессивнее. ** Они не должны сталкиваться ни с защитой, которую крупные корпорации получают от правительства, ни с государственной помощью. Они должны быть допущены только к соревнованиям. Если стартапы потерпят неудачу, их присутствие на рынке также будет постоянно мотивировать крупные компании преуспевать — и наша экономика и общество в любом случае остаются в выигрыше.
**• ИИ с открытым исходным кодом должен иметь возможность свободно распространяться и конкурировать с крупными ИИ-компаниями и стартапами. **Открытый исходный код не должен иметь нормативных барьеров. Даже если открытый исходный код не привлекает компании, его широкая доступность является благом для студентов во всем мире, которые хотят научиться создавать и использовать искусственный интеллект, чтобы быть частью будущего технологий и гарантировать, что независимо от того, кто они или сколько денег у них есть, ИИ будет работать для них доступных.
**• Чтобы противодействовать риску использования ИИ злоумышленниками для совершения неправомерных действий, правительства в партнерстве с частным сектором должны активно участвовать во всех аспектах областей потенциального риска, используя ИИ для максимальной защиты общества. ** Это не должно ограничиваться рисками ИИ, но должно включать более общие вопросы, такие как недоедание, болезни и климатические проблемы. ИИ может быть чрезвычайно мощным инструментом для решения проблем, и мы должны думать о нем именно так.
**• Чтобы предотвратить риск достижения Китаем глобального господства ИИ, мы должны в полной мере использовать мощь нашего частного сектора, научно-исследовательских институтов и правительства для совместного продвижения абсолютного доминирования США и Запада ИИ в глобальном масштабе. , а со временем даже и в Китае То же самое и в Китае. Мы выигрываем, они проигрывают. **
Вот как мы можем использовать искусственный интеллект, чтобы спасти мир.
Время действовать.
Легенды и герои
Я заканчиваю двумя простыми утверждениями.
Развитие искусственного интеллекта началось в 1940-х годах, одновременно с изобретением компьютеров. Первая научная статья о нейронных сетях — архитектуре современного искусственного интеллекта — была опубликована в 1943 году. За последние 80 лет родилось целое поколение ученых в области ИИ, они ходили в школу, работали и во многих случаях умерли, не увидев тех наград, которые мы получаем сейчас. Они легенды, каждый из них.
Сегодня все больше инженеров, многие из которых молоды и могут иметь бабушек и дедушек или даже прадедов, участвующих в создании идей, лежащих в основе ИИ, работают над тем, чтобы воплотить ИИ в жизнь, несмотря на стену паники и пессимизма в отношении злодеев. Я не думаю, что они безрассудны или злодеи. Они герои, все. Моя компания и я более чем счастливы поддержать как можно больше из них, и мы будем поддерживать их и их работу на 100%.
** «На протяжении многих лет милленаристы часто [предсказатели риска искусственного интеллекта постоянно] пытались предсказать точное время таких будущих событий, часто посредством интерпретации различных признаков и предвестников. Однако исторические прогнозы почти всегда терпели неудачу. нет достоверных доказательств того, что ИИ убьет людей]. ** Однако их поклонники [предсказателей риска ИИ] обычно пытаются пересмотреть объяснения, чтобы привести их в соответствие с [потенциальными рисками в будущем ИИ], когда происходят соответствующие события».
Сторонники культа «риска ИИ» могут не согласиться со мной, и они могут настаивать на том, что они рациональны, научно обоснованы, а я — последователь с промытыми мозгами. Заметьте, однако, что я не утверждаю, что «искусственный интеллект никогда не будет представлять угрозу для человечества». Я просто указываю, что на сегодняшний день нет никаких доказательств в поддержку тезиса «ИИ убьет нас». Вместо того, чтобы предаваться культовой панике и реакциям, мы должны делать рациональные оценки, основанные на имеющихся доказательствах.
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Награда
лайк
1
Поделиться
комментарий
0/400
Don’tShortInABull
· 2023-06-07 08:20
Только искусственный интеллект может по-настоящему построить социалистическое общество, я так думал, когда учился в начальной школе.
Основатель a16z Ванзи Чанвен: почему ИИ спасет мир
Автор: MarcAndreessen, основатель a16z, перевод: Jinse Finance cryptonaitive&ChatGPT
Наступил век искусственного интеллекта, и люди паникуют по этому поводу.
К счастью, я здесь, чтобы сообщить хорошие новости: ИИ не уничтожит мир, он может его спасти.
Во-первых, краткое введение в то, что такое искусственный интеллект: процесс применения математических и программных кодов для обучения компьютеров тому, как понимать, синтезировать и генерировать знания, как люди. Искусственный интеллект — это такая же программа, как и любая другая компьютерная программа: она запускается, принимает входные данные, обрабатывает их и генерирует выходные данные. Продукция искусственного интеллекта очень полезна в различных сферах, от программирования до медицины, юриспруденции и творчества. Она принадлежит и контролируется людьми, как и любая другая технология.
Краткое описание искусственного интеллекта: это не как в фильмах, где программы-убийцы и роботы вдруг оживают и решают убить людей или иным образом уничтожить все вокруг.
Краткое описание искусственного интеллекта: это может быть способ сделать все, что нам небезразлично, лучше.
**Почему ИИ может сделать все, что нам небезразлично, лучше? **
Главный вывод многочисленных исследований, проводившихся в социальных науках на протяжении многих лет, заключается в том, что человеческий интеллект может привести к значительным улучшениям во всех сферах жизни. Более умные люди достигают лучших результатов почти во всех областях: успеваемость, производительность труда, карьерный статус, доход, творчество, физическое здоровье, долголетие, изучение новых навыков, выполнение сложных задач, лидерство, предпринимательский успех, разрешение конфликтов, понимание прочитанного, принятие финансовых решений. , Понимание взглядов других, Творчество, Результаты воспитания и Удовлетворенность жизнью.
Кроме того, человеческий интеллект — это рычаг, который мы использовали на протяжении тысячелетий для создания нашего мира: науки, техники, математики, физики, химии, медицины, энергетики, архитектуры, транспорта, связи, искусства, музыки, культуры, философии, этики и морали. Без применения интеллекта во всех этих областях мы могли бы до сих пор жить в глинобитных хижинах, пытаясь выжить в нищете сельского хозяйства. Вместо этого мы использовали интеллект, чтобы улучшить наш уровень жизни примерно в 10 000 раз за последние 4 000 лет.
ИИ дает нам возможность значительно улучшить различные результаты интеллекта — от создания новых лекарств до решения проблемы изменения климата и технологий, позволяющих совершать межзвездные путешествия, — путем глубокого расширения человеческого интеллекта.
Процесс искусственного интеллекта, дополняющего человеческий интеллект, уже начался — искусственный интеллект появился вокруг нас в различных формах, таких как различные компьютерные системы управления, а теперь появились масштабные языковые модели искусственного интеллекта, такие как ChatGPT, и отныне он будет Быстрое ускорение - если мы это позволим.
В наш новый век искусственного интеллекта:
• У каждого ребенка будет наставник с ИИ, обладающий бесконечным терпением, бесконечным сочувствием, бесконечными знаниями и бесконечной помощью. Этот ИИ-наставник будет рядом с каждым ребенком, пока он растет, помогая ему полностью раскрыть свой потенциал и даря бесконечную любовь.
• У каждого будет помощник/тренер/наставник/тренер/советник/терапевт с искусственным интеллектом, обладающий бесконечным терпением, бесконечным состраданием, бесконечными знаниями и бесконечной помощью. Этот помощник с искусственным интеллектом будет рядом с вами на протяжении всей жизни и вызовов, максимизируя результаты каждого.
• У каждого ученого будет помощник/сотрудник/партнер ИИ, способный значительно расширить масштабы его научных исследований и достижений. Таким будет мир каждого художника, инженера, бизнесмена, врача и фельдшера.
• Каждый лидер — генеральный директор, правительственный чиновник, президент некоммерческой организации, спортивный тренер, учитель — будет делать то же самое. Эффект усиления от лучшего принятия решений лидерами огромен, поэтому усиление интеллекта, вероятно, является наиболее важным.
• Рост производительности в экономике значительно ускорится, стимулируя экономический рост, создание новых отраслей промышленности, создание новых рабочих мест и рост заработной платы, что приведет к новой эре материального процветания на Земле.
• Научные прорывы, новые технологии и новые лекарства будут значительно расширяться, поскольку искусственный интеллект помогает нам еще больше расшифровывать законы природы и использовать их на благо.
• Искусство войдет в золотой век, поскольку художники, музыканты, писатели и режиссеры с искусственным интеллектом смогут воплощать свои идеи быстрее и в большем масштабе, чем когда-либо прежде.
• Я даже думаю, что ИИ улучшит ведение войны, когда это необходимо, значительно снизив уровень смертности во время войны. Каждая война характеризуется очень ограниченными лидерами-людьми, принимающими ужасные решения под сильным давлением и с ограниченной информацией. Военные командиры и политические лидеры теперь будут иметь советников с искусственным интеллектом, которые помогут им принимать более эффективные стратегические и тактические решения, сводящие к минимуму риск, ошибки и ненужное кровопролитие.
• Короче говоря, все, что люди делают сегодня с их естественным интеллектом, можно сделать лучше с помощью ИИ, и мы сможем взять на себя новые задачи, которые невозможно решить без ИИ, от лечения всех болезней до обеспечения межзвездных путешествий.
• И дело не только в интеллекте! Возможно, самым недооцененным качеством ИИ является его человеческое прикосновение. Искусство ИИ дает тем, у кого в противном случае не было бы технических навыков, свободу создавать и делиться своими художественными идеями. Разговор с чутким другом ИИ может фактически улучшить их способность справляться с невзгодами. И, по сравнению с людьми, медицинские чат-боты с искусственным интеллектом уже более чуткие. Искусственный интеллект с бесконечным терпением и состраданием сделает мир теплее и дружелюбнее.
Ставки здесь высоки, а возможности обширны. ИИ, возможно, самое важное и лучшее, что когда-либо видела наша цивилизация, по крайней мере, наравне с электричеством и микрочипами, а возможно, даже лучше их.
Наш моральный долг перед собой, перед нашими детьми и перед нашим будущим — развивать и популяризировать искусственный интеллект — и держаться подальше от рисков, которых нам следует опасаться.
Мы заслуживаем жить в лучшем мире с искусственным интеллектом, и теперь мы можем это сделать.
** Итак, почему паника? **
Вопреки этому положительному мнению, текущие публичные дискуссии об ИИ полны паники и паранойи.
Мы слышим всевозможные заявления о том, что ИИ уничтожит нас всех, разрушит наши общества, лишит нас работы, вызовет массовое неравенство и позволит плохим деятелям совершать ужасные вещи.
Почему это расхождение в возможных результатах, от почти утопии до ужасной антиутопии?
**Исторически сложилось так, что каждая важная новая технология, от лампочки до автомобиля, от радио до Интернета, вызывала моральную панику — социальную заразу, которая заставляет людей верить, что новая технология разрушит мир или общество, или Оба погибнут. ** Хорошие ребята из «Архивов пессимизма» задокументировали эти десятилетия эпизодов моральной паники, вызванных технологиями; их история ясно показывает эту закономерность. Как оказалось, нынешняя паника по поводу искусственного интеллекта даже не первая.
В настоящее время действительно существует множество новых технологий, которые приводят к нежелательным результатам, часто технологии, которые приносят огромную пользу для нашего благосостояния. Итак, наличие моральной паники не означает, что не о чем беспокоиться.
Но **моральная паника по своей сути иррациональна — она преувеличивает то, что может быть законным беспокойством, до уровня истерии, который, по иронии судьбы, мешает нам решать действительно серьезные проблемы. **
Прямо сейчас мы находимся в полномасштабной моральной панике по поводу ИИ.
Эта моральная паника была использована несколькими субъектами для принятия политических мер, подталкивая к новым ограничениям, правилам и законам в отношении ИИ. Эти актеры публично говорят об опасностях искусственного интеллекта с крайней драматизацией — они подпитывают и еще больше разжигают моральную панику — и все представляют себя бескорыстными защитниками общего блага.
Но так ли они на самом деле?
Правы они или нет?
Баптисты и самогонщики с искусственным интеллектом
Экономисты наблюдали давнюю закономерность среди таких реформаторских движений. Участников этих движений можно разделить на две категории — «баптисты» и «бутлегеры», исходя из исторического примера сухого закона в США в 1920-х годах:
• «Баптисты» были истинно верующими социальными реформаторами, глубоко и эмоционально (хотя и не обязательно интеллектуально) верившими в то, что для предотвращения социальной катастрофы необходимы новые ограничения, правила и законы. В случае сухого закона эти действующие лица обычно были искренними христианами, считавшими, что алкоголь разрушает моральную ткань общества. Что касается риска ИИ, то эти действующие лица — это люди, которые искренне верят, что ИИ представляет тот или иной экзистенциальный риск — если вы привяжете их к детектору лжи, они действительно это сделают.
• Бутлегеры — это корыстные оппортунисты, которые извлекают выгоду из новых ограничений, правил и законов по мере их реализации и изолируют себя от конкурентов. Для Сухого закона это были контрабандисты, которые нажили огромные состояния на незаконной продаже алкоголя в то время, когда легальная продажа алкоголя была запрещена. Что касается риска ИИ, то это руководители, которые могли бы заработать больше денег, если бы создали своего рода картель санкционированных правительством поставщиков ИИ, защищенных от стартапов и конкуренции с открытым исходным кодом. провальный" банк.
Циник может возразить, что некоторые якобы баптисты также являются бутлегерами, особенно те, чьи университеты, аналитические центры, группы активистов и средства массовой информации платят им зарплату или получают гранты для борьбы с ИИ. Если вам платят зарплату или грант, чтобы разжечь панику по поводу ИИ, вы, вероятно, контрабандист.
Проблема бутлегеров в том, что они выигрывают. Баптисты — наивные идеологи, а бутлегеры — циничные деятели, поэтому результатом таких реформаторских движений обычно является то, что бутлегеры получают желаемое — регулирующий контроль, защиту от конкуренции, формирование монополии, в то время как баптистов смущало стремление к улучшению общества.
Мы только что пережили шокирующий пример – банковские реформы, последовавшие за глобальным финансовым кризисом 2008 года. Баптисты говорят нам, что нам нужны новые законы и правила, чтобы разрушить «слишком большие, чтобы обанкротиться» банки, чтобы предотвратить повторение подобного кризиса. В результате Конгресс США принял Закон Додда-Франка от 2010 года, который был заявлен как отвечающий целям баптистов, но на самом деле им воспользовались контрабандисты — крупные банки. В результате банки, которые были слишком велики, чтобы обанкротиться в 2008 году, теперь стали еще больше.
Так что на практике, даже если баптисты были искренними, даже если баптисты были правы, хитрые и жадные контрабандисты использовали их для собственной выгоды.
Это именно то, что в настоящее время движет регулированием ИИ.
Однако недостаточно выявить действующих лиц и обвинить их мотивы. Мы должны оценить его с точки зрения аргументов баптистов и бутлегеров.
** AI Risk 1: Убьет ли нас искусственный интеллект? **
**Первый и самый ранний риск конца света ИИ — это опасение, что ИИ решит убить человечество. **
Наш страх, что технология сама восстанет и уничтожит нас, укоренился в нашей культуре. Греки выразили этот страх через миф о Прометее — Прометей принес человечеству разрушительную силу огня и в более общем смысле технологии («техне»), поэтому Прометей был увековечен замученными богами. Позже Мэри Шелли создала эту мифическую версию нас самих для современных людей в своем романе «Франкенштейн», в котором мы разрабатываем технологию бессмертия, которая затем восстает и пытается нас уничтожить. Конечно, для того, чтобы испугать освещение в газетах искусственного интеллекта, необходимо неподвижное изображение светящегося робота-убийцы с красными глазами из фильма Джеймса Кэмерона «Терминатор».
Предполагаемая эволюционная цель этого мифа — побудить нас серьезно задуматься о потенциальных рисках новых технологий — в конце концов, с помощью огня действительно можно сжечь целые города. Но точно так же, как огонь является одновременно основой современной цивилизации, используемой для того, чтобы согревать нас и защищать нас в холодном и враждебном мире, этот миф игнорирует большие преимущества большинства, если не всех, новых технологий и на самом деле вызывает опустошение. рациональный анализ. То, что древние так паниковали, не означает, что мы тоже должны паниковать, мы можем использовать разум.
** Я думаю, что идея о том, что ИИ решит убить людей, является глубокой категориальной ошибкой. **ИИ — это не живое существо, которое эволюционировало в течение миллиардов лет, чтобы участвовать в борьбе за выживание наиболее приспособленных, таких как животные и мы сами. Это компьютеры с математическим кодом, построенные, принадлежащие, используемые и контролируемые людьми. Думать, что в какой-то момент он разовьет собственный разум и решит, что у него есть мотив, который заставляет его пытаться убить нас, — это волна суеверия.
Короче говоря, у **ИИ нет ни воли, ни цели, он не хочет вас убивать, потому что он не жив. ИИ — это машина, живая не более, чем ваш тостер. **
Теперь, по-видимому, есть те, кто глубоко верит в ИИ-убийц — внезапный безумный рост освещения в СМИ заглушает их ужасные предупреждения, некоторые из которых утверждают, что изучали эту тему десятилетиями и теперь ужасаются тому, что, как они знают, потревожило их. Некоторые из этих истинно верующих даже являются настоящими новаторами технологии. Эти люди выступают за всевозможные причудливые и экстремальные ограничения искусственного интеллекта, от запрета на разработку искусственного интеллекта до военных ударов с воздуха по дата-центрам и ядерной войны. Они утверждают, что, поскольку такие люди, как я, не могут исключить потенциально катастрофические последствия искусственного интеллекта в будущем, мы должны занять позицию предосторожности, которая может потребовать значительного физического насилия и смерти, чтобы предотвратить потенциальные экзистенциальные риски.
Я отвечаю, что их позиция ненаучна — каковы проверяемые гипотезы? Какие факты докажут ошибочность этого предположения? Как мы узнаем, что вошли в опасную зону? Эти вопросы в основном остаются без ответа, за исключением: «Вы не можете доказать, что этого не произойдет!» На самом деле, позиции этих баптистов настолько ненаучны и экстремальны — теория заговора о математике и коде, — что они назвали Физическое насилие, так что я собираюсь сделать то, что обычно не делаю, поставить под сомнение их мотивы.
В частности, я думаю, что происходят три вещи:
Во-первых, вспомните реакцию Джона фон Неймана на беспокойство Роберта Оппенгеймера по поводу создания им ядерного оружия, которое помогло положить конец Второй мировой войне и предотвратить Третью мировую войну. "Некоторые люди признаются в преступлениях, чтобы заявить о своих преступлениях, - сказал он. - Как лучше всего заявить о важности своей работы преувеличенным образом, не выглядя при этом слишком хвастливым?" Это объясняет непоследовательность баптистов, которые на самом деле создают и финансируют ИИ — следите за их действиями, а не за словами. (Трумэн был еще более строг после встречи с Оппенгеймером: «Не впускайте больше этого плаксу».)
Во-вторых, некоторые баптисты на самом деле были бутлегерами. Есть целая карьера, которая называется «эксперт по безопасности ИИ», «специалист по этике ИИ», «исследователь рисков ИИ». Их работа состоит в том, чтобы предсказывать гибель, и к их заявлениям следует относиться соответствующим образом.
В-третьих, Калифорния известна многочисленными культами, от EST до Народного Храма, от Небесных Врат до Семьи Мэнсона. Многие из этих, хотя и не все, культов безобидны и даже оказывают помощь отчужденным, которые находят в них дом. Но некоторые из них настолько опасны, что культы часто изо всех сил стараются идти по линии насилия и смерти.
И реальность такова, очевидно для всех в районе залива, что «риск искусственного интеллекта» превратился в культ, привлекая внимание мировых СМИ и общественное обсуждение. Культ привлекал не только маргинальных фигур, но и настоящих отраслевых экспертов и довольно много богатых доноров, в том числе до недавнего времени Сэма Бэнкмана-Фрида. Он разработал целый набор культовых моделей поведения и верований.
В этом культе нет ничего нового — существует давняя западная традиция, называемая милленаризмом, которая породила культ Апокалипсиса. Культ «AI Risk» имеет все признаки миллениалистского апокалиптического культа. Из Википедии я сделал некоторые дополнения:
Эта модель сект судного дня настолько очевидна, что я удивлен, что многие люди ее не видят.
Не поймите меня неправильно, секты — это весело, их письменные материалы часто креативны и увлекательны, а их члены очаровательны на званых обедах и на телевидении. Но их крайние убеждения не должны определять будущее закона и общества — и явно не должны.
** Риск ИИ 2: разрушит ли ИИ наше общество? **
Вторая широко распространенная идея риска ИИ заключается в том, что ** ИИ разрушит наше общество, производя «вредные» результаты (на языке таких пророков), даже если нас на самом деле не убьют. **
Вкратце: **Если машины-убийцы не причиняют нам вреда, то разжигание ненависти и дезинформация могут. **
Это относительно новый апокалиптический фокус, который является ответвлением и в некоторой степени доминирует над движением «Риск ИИ», которое я описал выше. Фактически, терминология риска ИИ недавно изменилась с «безопасности ИИ» (термин, используемый теми, кто опасается, что ИИ действительно убьет нас) на «соответствие ИИ» (термин, используемый теми, кто беспокоится об общественном «вреде»). . Разочарованные этим сдвигом, оригинальные специалисты по безопасности ИИ, хотя и не знают, как вернуть его, теперь выступают за переименование фактической темы риска ИИ в «AInotkilleveryoneism» (AInotkilleveryoneism), хотя этот термин еще не получил признания. по крайней мере ясно.
Ключом к предложению ИИ об общественном риске является его собственный термин «Согласование ИИ». Выровнять с чем? человеческие ценности. Какие человеческие ценности? О, и здесь все становится сложнее.
Так случилось, что я был свидетелем подобной ситуации воочию — войны «доверия и безопасности» в социальных сетях. Ясно то, что на протяжении многих лет службы социальных сетей находились под сильным давлением со стороны правительств и активистов с целью запретить, ограничить, подвергнуть цензуре и подавить любой контент. А опасения по поводу «языка ненависти» (и его математического аналога «алгоритмической предвзятости») и «дезинформации» переместились непосредственно из контекста социальных сетей в новую сферу «соответствия ИИ».
Ключевые уроки, которые я извлек из войн в социальных сетях, таковы:
С одной стороны, абсолютной свободы слова не существует. Во-первых, каждая страна, включая США, считает хоть какой-то контент незаконным. Во-вторых, существуют определенные типы контента, такие как детская порнография и подстрекательство к насилию в реальном мире, которые обычно считаются запрещенными почти во всех обществах — независимо от того, законны они или нет. Поэтому любая технологическая платформа, которая облегчает или генерирует контент — речь — будет иметь некоторые ограничения.
С другой стороны, скользкий путь — это не миф, а неизбежность. Как только будет создана система, ограничивающая даже самый вопиющий контент, такой как разжигание ненависти, определенные оскорбительные термины или дезинформация, заведомо ложные заявления (например, «Папа умер»), различные правительственные учреждения, группы активистов и негосударственные - государственные органы будут быстро требовать усиления цензуры и подавления высказываний, которые они считают угрозой для общества и/или их личных предпочтений. Они будут делать это способами, которые включают в себя вопиющие преступления. На практике этот цикл кажется бесконечным, поддерживаемым восторженными официальными наблюдателями в наших элитных силовых структурах. Это имело место в пространстве социальных сетей в течение десятилетия, и, за некоторыми исключениями, становится только хуже.
Так что теперь это динамическое формирование вокруг «выравнивания ИИ». Его сторонники заявляют, что осознают мудрость использования сгенерированных ИИ слов и идей, полезных для общества, и запрещают слова и идеи, сгенерированные ИИ, которые вредны для общества. Ее противники утверждают, что Полиция мыслей чрезвычайно высокомерна, властна и часто вопиюще преступна, по крайней мере, в Соединенных Штатах, и, по сути, пытается стать новой правительственно-корпоративно-академической диктатурой авторитарной речи, приближаясь прямо к Джорджу Ф. Оруэллу. 1984.
Поскольку сторонники как «доверия и безопасности», так и «соответствия ИИ» сосредоточены в очень узком сегменте населения мира, характеризуемом прибрежной элитой США, в которую входят многие, кто работает и пишет о технологической отрасли. В результате многие из моих читателей будут вынуждены утверждать, что необходимы огромные ограничения на производительность ИИ, чтобы не разрушать общество. Я не буду сейчас убеждать вас, ребята, я просто скажу, что такова природа потребности и что большая часть мира не согласна с вашей идеологией и не хочет, чтобы вы победили.
Если вы не согласны с узкой моралью, которая в настоящее время навязывается социальным сетям и ИИ через усиленные нормы речи, вы также должны знать, что борьба за то, что ИИ разрешено говорить/генерировать, будет гораздо важнее, чем борьба за цензуру в социальных сетях. гораздо важнее. ИИ, скорее всего, станет контролирующим слоем всего в мире. То, как ему разрешено функционировать, вероятно, будет иметь большее значение, чем что-либо еще. Вы должны знать, что горстка изолированных сторонников социальных инженеров пытается решить, как теперь должен работать ИИ, под прикрытием следования старой риторике, которая защищает вас.
Короче говоря, не позволяйте полиции мысли подавлять ИИ.
** Риск ИИ 3: заберет ли ИИ все наши рабочие места? **
** Существует постоянный страх потери работы из-за замены человеческого труда машинами в различных формах, таких как механизация, автоматизация, компьютеризация или искусственный интеллект. ** Эта озабоченность сохранялась на протяжении сотен лет, с момента появления механических устройств, таких как механические ткацкие станки. В то время как каждая новая крупная технология исторически приводила к созданию более высокооплачиваемых рабочих мест, каждая волна паники сопровождалась нарративом «на этот раз все по-другому» — на этот раз это произойдет, на этот раз это технология. удар по человеческому труду. Однако этого не произошло.
В недавнем прошлом у нас было два цикла паники безработицы, вызванной технологиями: страх перед аутсорсингом в 2000-х и страх перед автоматизацией в 2010-х. В то время как многие в СМИ, эксперты и даже руководители технологических компаний продолжали стучать по столу на протяжении двух десятилетий, утверждая, что массовая безработица неизбежна, в конце 2019 года — до вспышки COVID — возможности трудоустройства в мире больше, чем в любой момент в истории, и заработная плата выше.
Однако это ложное представление не исчезает.
Конечно же, оно вернулось.
На этот раз у нас наконец-то есть технология, которая уберет все рабочие места и сделает человеческий труд неактуальным — настоящий искусственный интеллект. Конечно, на этот раз история не просто повторится, на этот раз: ИИ приведет к массовой безработице, а не к быстрому экономическому росту, большему количеству рабочих мест и повышению заработной платы. верно?
Нет, этого точно не произойдет, и если ИИ будет позволено развиваться и распространяться по экономике, это может привести к самому захватывающему и продолжительному экономическому буму, с соответствующим рекордным созданием рабочих мест и ростом заработной платы — именно так. противоположное тому, чего люди боялись. Причина в следующем.
** Автоматизация убивает рабочие места Центральная ошибка, которую совершают теисты, называется «ошибкой совокупного труда». **** Это заблуждение состоит в том, что существует фиксированное количество труда, которое должно быть выполнено в экономике в любой момент времени либо машинами, либо людьми, и если это выполняется машинами, то людям нечего делать. **
Заблуждение совокупного труда естественно возникает из интуиции, но эта интуиция неверна. ** Когда технология применяется к производству, мы получаем рост производительности — увеличение выпуска продукции за счет сокращения затрат. **Результат – падение цен на товары и услуги. По мере того как цены на товары и услуги падают, мы платим меньше, а это значит, что теперь у нас появляется дополнительная покупательная способность для покупки других вещей. Это увеличивает спрос в экономике, стимулируя новое производство — как новые продукты, так и новые отрасли — создавая новые рабочие места для людей, вытесненных машинами. **Результатом является большая экономика, большее материальное процветание, больше отраслей, больше продуктов, больше рабочих мест. **
Но хорошие новости не только в этом. Мы также получаем более высокую заработную плату. Это связано с тем, что на уровне отдельного работника рынок определяет компенсацию на основе предельной производительности рабочего. Работник в высокотехнологичной отрасли более продуктивен, чем работник в традиционной отрасли. Либо работодатель будет платить больше в зависимости от повышения производительности труда работника, либо другой работодатель будет делать это исключительно из личных интересов. В результате отрасли, внедряющие технологии, не только расширят возможности трудоустройства, но и повысят заработную плату.
В заключение следует отметить, что передовые технологии позволяют людям работать более эффективно. Это приводит к падению цен на существующие товары и услуги и росту заработной платы. Это, в свою очередь, стимулирует экономический рост и рост занятости, а также стимулирует создание новых рабочих мест и новых отраслей. **Если рыночная экономика сможет функционировать должным образом и можно будет свободно внедрять технологии, это будет бесконечный восходящий цикл. Как заметил Фридман, «человеческие желания и потребности неисчерпаемы» — мы всегда хотим больше, чем имеем. Рыночная экономика, основанная на технологиях, — это то, как мы приближаемся к достижению всего, что каждый может себе представить, но никогда не достигает в полной мере. Вот почему технологии не уничтожат рабочие места и никогда не уничтожат.
Для тех, кто не сталкивался с этими идеями, это шокирующие мысли, которые могут занять некоторое время, чтобы понять. Но клянусь, я их не выдумываю — на самом деле, вы можете прочитать их все в стандартных учебниках по экономике. Я рекомендую главу Генри Хэзлитта «Проклятие машины» в книге «Экономика за один урок» и сатиру Фредерика Бастиа «Петиция производителя свечей», которая протестует против солнца, потому что солнце несправедливо конкурировало в индустрии освещения. У нас также есть современная версия нашего времени.
Но вы можете подумать, что на этот раз все по-другому. На этот раз, с появлением искусственного интеллекта, у нас есть технологии, которые могут заменить весь человеческий труд.
Но, следуя принципам, которые я описал выше, представьте, что бы это значило, если бы весь существующий человеческий труд был заменен машинами.
Это означало бы, что рост экономической производительности будет происходить с абсолютно астрономической скоростью, намного превышающей любой исторический прецедент. Цены на существующие товары и услуги упадут практически до нуля по всем направлениям. Благосостояние потребителей будет расти. Покупательная способность потребителей будет расти. Будет всплеск нового спроса в экономике. Предприниматели создадут головокружительное множество новых отраслей, новых продуктов и новых услуг и как можно быстрее наймут как можно больше ИИ и рабочих, чтобы удовлетворить все новые требования.
Что, если искусственный интеллект снова заменит этих работников? Этот цикл будет повторяться, стимулируя благосостояние потребителей, экономический рост и рост занятости и заработной платы. Это будет линейная восходящая спираль, ведущая к материальной утопии, о которой Адам Смит и Карл Маркс и мечтать не смели.
Нам должно так повезти.
** AI Risk 4: Приведет ли искусственный интеллект к серьезному неравенству? **
Говоря о Карле Марксе, опасения по поводу того, что ИИ забирает рабочие места, приводят непосредственно к следующему заявленному риску ИИ, который, ну, Марк, предполагает, что ИИ действительно забирает все рабочие места, будь то к добру или из-за плохого. Итак, не приведет ли тот факт, что обладатели искусственного интеллекта получают все финансовые выгоды, а обычные люди ничего не получат, к огромному и серьезному имущественному неравенству?
Соответственно, это центральный марксистский тезис о том, что владельцы средств производства — буржуазия — неизбежно крадут все богатство общества у тех, кто на самом деле работает — пролетариата. Независимо от того, сколько раз реальность доказывает, что это неверно, кажется, что заблуждение никогда не умирает. Но давайте все же опровергнем.
Недостаток этой теории в том, что как владелец технологии вы не заинтересованы в том, чтобы хранить ее и не делиться ею — на самом деле, все наоборот, в ваших интересах продать ее как можно большему количеству клиентов. . Крупнейшим рынком в мире является глобальный рынок, включающий 8 миллиардов человек. Так что в действительности каждая новая технология — даже если она начинает продаваться крупным, хорошо оплачиваемым корпорациям или богатым потребителям — быстро распространяется, пока не попадает в руки самого крупного из возможных массовых рынков, в конечном итоге охватив население всей планеты.
Классическим примером этого является так называемый «секретный план» Илона Маска в 2006 году, который он, конечно, обнародовал, о планах Теслы:
Что он, конечно, и сделал, и в итоге стал самым богатым человеком в мире.
Последний пункт является критическим. Стал бы Маск богаче, если бы сегодня он продавал автомобили только богатым людям? Не будет. Был бы он богаче, чем сейчас, если бы строил машины только для себя? конечно, нет. Нет, он максимизирует свою прибыль, продавая на максимально большом мировом рынке.
Короче говоря, каждый может иметь эту вещь, как мы видели в прошлом с автомобилями, электричеством, радиоприемниками, компьютерами, Интернетом, мобильными телефонами и поисковыми системами. Компании, производящие эти технологии, очень заинтересованы в снижении цен до тех пор, пока все на планете не смогут их себе позволить. Это именно то, что уже происходит в ИИ — вот почему вы можете использовать его сегодня на бесплатных или недорогих современных генеративных ИИ в форме Microsoft Bing и Google Bard — и это будет продолжаться. Не потому, что эти поставщики глупы или щедры, а именно потому, что они жадны — они хотят максимизировать размер рынка и, таким образом, максимизировать прибыль.
То, что происходит, противоречит теории о том, что технологии способствуют концентрации богатства — индивидуальный пользователь технологии, который в конечном итоге включает каждого человека на планете, вместо этого получает больше возможностей и получает большую часть создаваемой ценности. Как и в случае с предыдущими технологиями, компании, разрабатывающие ИИ — при условии, что они должны работать в условиях свободного рынка — будут стремиться воплотить это в жизнь.
Маркс ошибался тогда, ошибается и сейчас.
Это не означает, что неравенство не является проблемой в нашем обществе. Это проблема, за исключением того, что она обусловлена не технологиями, а теми секторами экономики, которые наиболее устойчивы к новым технологиям и в которые больше всего вмешивается правительство, чтобы предотвратить внедрение новых технологий, таких как искусственный интеллект, в частности жилье, образование и здравоохранение. ** Реальный риск ИИ и неравенства заключается не в том, что ИИ приведет к еще большему неравенству, а в том, что мы не позволим использовать ИИ для уменьшения неравенства. **
** AI Risk 5: заставит ли AI плохих людей делать плохие вещи? **
До сих пор я объяснял, почему четыре из пяти наиболее часто упоминаемых рисков ИИ на самом деле не реальны — ИИ не оживет, чтобы убить нас, ИИ не разрушит наше общество, искусственный интеллект не приведет. к массовой безработице, а ИИ не приведет к разрушительному росту неравенства. Но теперь давайте поговорим о пятом, и это тот, с которым ** я действительно согласен: ИИ облегчит плохим парням совершать плохие поступки. **
В некотором смысле, это циклический аргумент. Технология — это инструмент. Начиная с огня и камня, инструменты можно использовать во благо — для приготовления пищи и строительства домов, — и во зло — для сжигания и битья. Любая технология может быть использована в хороших или плохих целях. понятно. А ИИ, без сомнения, облегчит преступникам, террористам и враждебным правительствам совершать плохие поступки.
Это заставило некоторых людей сказать: ну, если это так, давайте запретим ИИ в этом случае, прежде чем случится что-то плохое. К сожалению, ИИ не является труднодоступным загадочным веществом, таким как плутоний. Наоборот, это самый доступный материал в мире — математика и код.
Судя по всему, ИИ-кошки не в упаковке. Вы можете научиться создавать искусственный интеллект с помощью тысяч бесплатных онлайн-курсов, книг, статей и видео, и каждый день появляется все больше выдающихся реализаций с открытым исходным кодом. ИИ подобен воздуху — он будет повсюду. Чтобы поймать его, уровень тоталитарных репрессий был бы настолько суровым - мировое правительство, которое контролирует и контролирует все компьютеры? Вооруженные полицейские на черных вертолетах совершают налеты на мошеннические графические процессоры? — У нас не будет общества, которое нужно защищать.
Итак, у нас есть два очень простых способа справиться с риском того, что злоумышленники используют ИИ для совершения плохих дел, и именно на них мы должны сосредоточиться.
**Во-первых, у нас есть законы, криминализирующие большинство случаев использования искусственного интеллекта во зло. ** Взлом Пентагона? Это преступление. Украсть деньги из банка? Это преступление. Создавать биологическое оружие? Это преступление. Устроить теракт? Это преступление. Нам просто нужно сосредоточиться на предотвращении этих преступлений, когда мы можем, и на судебном преследовании их, когда мы не можем. Нам даже не нужны новые законы — я не знаю, было ли возбуждено дело о злонамеренном использовании ИИ, которое уже не является незаконным. Если обнаруживаются новые неправомерные способы использования, мы запрещаем их использование. Сертификат завершен.
Но вы заметите, что я только что сказал — я сказал, что мы должны сначала сосредоточиться на предотвращении преступлений с помощью ИИ, прежде чем произойдут плохие вещи — разве это не означает запрет ИИ? Что ж, есть еще один способ предотвратить такое поведение — использовать ИИ в качестве защитного инструмента. Тот же ИИ, который наделяет плохих людей плохими целями, столь же силен в руках хороших людей — особенно хороших людей, которым поручено предотвращать плохие вещи.
Например, если вы беспокоитесь о том, что искусственный интеллект будет генерировать поддельных людей и поддельные видео, ответом будет создание новых систем, позволяющих людям аутентифицировать себя и настоящий контент с помощью криптографических подписей. Цифровое создание и изменение реального и поддельного контента существовало до появления ИИ; ответ заключается не в запрете текстовых процессоров и Photoshop — или ИИ — а в использовании технологий для создания системы, которая действительно решает проблему.
Итак, ** второй подход заключается в том, чтобы агрессивно использовать искусственный интеллект в благонамеренных, законных и оборонительных целях. Давайте использовать ИИ в киберзащите, биозащите, отслеживании террористов и во всем остальном, что мы делаем, чтобы защитить себя, наши сообщества и нашу страну. **
Конечно, есть много умных людей в правительстве и за его пределами, которые уже занимаются такой работой, но если мы сосредоточим все текущие усилия и разведку на неэффективном запрете искусственного интеллекта на использование искусственного интеллекта, чтобы не дать плохим людям делать плохие вещи , Я считаю, что мир, полный искусственного интеллекта. Умный мир будет более безопасным, чем мир, в котором мы живем сегодня.
Реальные риски, связанные с нереализацией ИИ с максимальной мощностью и скоростью
Есть один последний и реальный риск ИИ, который может быть самым страшным из всех:
ИИ эксплуатируется не только в относительно либеральных западных обществах, но и в Китае.
У Китая совсем другое видение ИИ, чем у нас. Они даже не держат это в секрете, и очень ясно дали понять, что уже преследуют свои цели. И они не намерены ограничивать свою стратегию ИИ Китаем — они намерены делать это там, где они предоставляют сети 5G, предлагают кредиты «Пояса и пути», предлагают удобные для потребителей приложения, такие как TikTok, в качестве своего централизованного управления и командного интерфейса ИИ, распространяя его в каждый уголок мира.
**Самый большой риск для ИИ заключается в том, что Китай завоюет мировое господство ИИ, а мы — США и Запад — нет. **
Я предлагаю простую стратегию решения этой проблемы — фактически, это стратегия, которую принял президент Рональд Рейган, когда он выиграл первую холодную войну с Советским Союзом.
«Мы выигрываем, они проигрывают».
Вместо того, чтобы отодвигаться на второй план из-за необоснованных опасений, связанных с ИИ-убийцами, вредным ИИ, ИИ, разрушающим рабочие места и порождающим неравенство, мы в США и на Западе должны как можно больше инвестировать в ИИ.
Мы должны бороться с глобальной гонкой за технологическое превосходство в области искусственного интеллекта и сделать так, чтобы Китай не победил.
В процессе мы должны внедрять ИИ в нашу экономику и общество как можно быстрее и энергичнее, чтобы максимизировать его преимущества для экономической производительности и человеческого потенциала.
Это лучший способ компенсировать реальные риски искусственного интеллекта и гарантировать, что наш образ жизни не будет заменен видением Китая.
**что нам делать? **
Я придумал простой план:
• Крупным ИИ-компаниям должно быть позволено создавать ИИ как можно быстрее и агрессивнее, но не добиваться регулирующей монополии, не создавать картель, охраняемый государством, и быть свободными от ложных заявлений о рисках ИИ для конкуренции. в магазине. Это максимизирует технологическую и социальную выгоду от удивительных возможностей этих компаний, жемчужин современного капитализма.
**• Начинающим ИИ-компаниям должно быть разрешено создавать ИИ как можно быстрее и агрессивнее. ** Они не должны сталкиваться ни с защитой, которую крупные корпорации получают от правительства, ни с государственной помощью. Они должны быть допущены только к соревнованиям. Если стартапы потерпят неудачу, их присутствие на рынке также будет постоянно мотивировать крупные компании преуспевать — и наша экономика и общество в любом случае остаются в выигрыше.
**• ИИ с открытым исходным кодом должен иметь возможность свободно распространяться и конкурировать с крупными ИИ-компаниями и стартапами. **Открытый исходный код не должен иметь нормативных барьеров. Даже если открытый исходный код не привлекает компании, его широкая доступность является благом для студентов во всем мире, которые хотят научиться создавать и использовать искусственный интеллект, чтобы быть частью будущего технологий и гарантировать, что независимо от того, кто они или сколько денег у них есть, ИИ будет работать для них доступных.
**• Чтобы противодействовать риску использования ИИ злоумышленниками для совершения неправомерных действий, правительства в партнерстве с частным сектором должны активно участвовать во всех аспектах областей потенциального риска, используя ИИ для максимальной защиты общества. ** Это не должно ограничиваться рисками ИИ, но должно включать более общие вопросы, такие как недоедание, болезни и климатические проблемы. ИИ может быть чрезвычайно мощным инструментом для решения проблем, и мы должны думать о нем именно так.
**• Чтобы предотвратить риск достижения Китаем глобального господства ИИ, мы должны в полной мере использовать мощь нашего частного сектора, научно-исследовательских институтов и правительства для совместного продвижения абсолютного доминирования США и Запада ИИ в глобальном масштабе. , а со временем даже и в Китае То же самое и в Китае. Мы выигрываем, они проигрывают. **
Вот как мы можем использовать искусственный интеллект, чтобы спасти мир.
Время действовать.
Легенды и герои
Я заканчиваю двумя простыми утверждениями.
Развитие искусственного интеллекта началось в 1940-х годах, одновременно с изобретением компьютеров. Первая научная статья о нейронных сетях — архитектуре современного искусственного интеллекта — была опубликована в 1943 году. За последние 80 лет родилось целое поколение ученых в области ИИ, они ходили в школу, работали и во многих случаях умерли, не увидев тех наград, которые мы получаем сейчас. Они легенды, каждый из них.
Сегодня все больше инженеров, многие из которых молоды и могут иметь бабушек и дедушек или даже прадедов, участвующих в создании идей, лежащих в основе ИИ, работают над тем, чтобы воплотить ИИ в жизнь, несмотря на стену паники и пессимизма в отношении злодеев. Я не думаю, что они безрассудны или злодеи. Они герои, все. Моя компания и я более чем счастливы поддержать как можно больше из них, и мы будем поддерживать их и их работу на 100%.
** «На протяжении многих лет милленаристы часто [предсказатели риска искусственного интеллекта постоянно] пытались предсказать точное время таких будущих событий, часто посредством интерпретации различных признаков и предвестников. Однако исторические прогнозы почти всегда терпели неудачу. нет достоверных доказательств того, что ИИ убьет людей]. ** Однако их поклонники [предсказателей риска ИИ] обычно пытаются пересмотреть объяснения, чтобы привести их в соответствие с [потенциальными рисками в будущем ИИ], когда происходят соответствующие события».
Сторонники культа «риска ИИ» могут не согласиться со мной, и они могут настаивать на том, что они рациональны, научно обоснованы, а я — последователь с промытыми мозгами. Заметьте, однако, что я не утверждаю, что «искусственный интеллект никогда не будет представлять угрозу для человечества». Я просто указываю, что на сегодняшний день нет никаких доказательств в поддержку тезиса «ИИ убьет нас». Вместо того, чтобы предаваться культовой панике и реакциям, мы должны делать рациональные оценки, основанные на имеющихся доказательствах.