Технологии будущего

Вот почему ученые думают, что вы должны беспокоиться об искусственном интеллекте

Ученые считают, что они должны беспокоиться об искусственном интеллекте

За последние несколько месяцев вы, возможно, читали репортаж о статье, в соавторстве со Стивеном Хокингом , в которой обсуждались риски, связанные с искусственным интеллектом. В статье предполагается, что ИИ может представлять серьезную опасность для человечества. Хокинг там не одинок — Илон Маск и Питер Тиль — интеллектуальные общественные деятели, которые выразили аналогичные опасения (Тиль вложил более 1,3 миллиона долларов в исследование проблемы и возможных решений).

Освещение статьи Хокинга и комментариев Маск было, если не сказать слишком тонко, немного веселым. Тон был очень похож на «взгляни на эту странную вещь, о которой беспокоятся все эти гики». Мало внимания уделяется идее, что если некоторые из самых умных людей на Земле предупреждают вас о том, что что-то может быть очень опасным, возможно, стоит послушать.

Это понятно — захват искусственного интеллекта миром, безусловно, звучит очень странно и неправдоподобно, возможно, из-за того огромного внимания, которое авторы-фантасты уделяют этой идее. Итак, что же так напугало всех этих номинально здравомыслящих, рациональных людей?

Что такое интеллект?

Чтобы говорить об опасности искусственного интеллекта, может быть полезно понять, что такое интеллект. Чтобы лучше понять проблему, давайте взглянем на игрушечную архитектуру ИИ, используемую исследователями, которые изучают теорию рассуждений. Этот игрушечный AI называется AIXI и обладает рядом полезных свойств. Его цели могут быть произвольными, он хорошо масштабируется с вычислительной мощностью, а его внутренняя структура очень проста и понятна.

Кроме того, вы можете реализовать простые, практичные версии архитектуры, которые могут, например, играть в Pacman , если хотите. AIXI — это продукт исследователя искусственного интеллекта по имени Маркус Хаттер, возможно, главный специалист по алгоритмическому интеллекту. Это он говорит в видео выше.

AIXI удивительно прост: в нем три основных компонента: учащийся , планировщик и функция полезности .

  • Учащийся берет цепочки битов, которые соответствуют вводным данным о внешнем мире, и просматривает компьютерные программы, пока не находит те, которые производят свои наблюдения в качестве выходных данных. Эти программы вместе позволяют ему делать предположения о том, как будет выглядеть будущее, просто выполняя каждую программу вперед и взвешивая вероятность результата по длине программы (реализация бритвы Оккама).
  • Планировщик просматривает возможные действия, которые может предпринять агент, и использует модуль ученика, чтобы предсказать, что произойдет, если он предпримет каждое из них. Затем он оценивает их в соответствии с тем, насколько хорошими или плохими являются прогнозируемые результаты, и выбирает порядок действий, который максимизирует добротность ожидаемого результата, умноженную на ожидаемую вероятность его достижения.
  • Последний модуль, функция полезности , представляет собой простую программу, которая принимает описание будущего состояния мира и вычисляет для него оценку полезности. Этот показатель полезности показывает, насколько хорош или плох этот результат, и используется планировщиком для оценки будущего состояния мира. Функция полезности может быть произвольной.
  • Взятые вместе, эти три компонента образуют оптимизатор , который оптимизирует для конкретной цели, независимо от мира, в котором он находится.

Эта простая модель представляет собой базовое определение интеллектуального агента. Агент изучает свою среду, строит ее модели и затем использует эти модели, чтобы найти курс действий, который максимизирует шансы того, что он получит то, что хочет. AIXI похожа по структуре на AI, который играет в шахматы или другие игры с известными правилами, за исключением того, что он может определять правила игры, играя в нее, начиная с нулевого уровня знаний.

AIXI, имея достаточно времени для вычислений, может научиться оптимизировать любую систему для любой цели, какой бы сложной она ни была. Это в целом интеллектуальный алгоритм. Обратите внимание, что это не то же самое, что обладание человеческим интеллектом (ИИ, вдохновленный — это совсем другая тема, ). Другими словами, AIXI может перехитрить любого человека при выполнении любой интеллектуальной задачи (при наличии достаточной вычислительной мощности), но он может не осознавать свою победу.

headsculpture

Как практический ИИ, у AIXI много проблем. Во-первых, у него нет возможности найти те программы, которые производят интересующий его вывод. Это алгоритм грубой силы, что означает, что он не практичен, если у вас нет случайно созданного компьютера. Любая фактическая реализация AIXI по необходимости является приблизительной, и (сегодня), как правило, довольно грубой. Тем не менее, AIXI дает нам теоретическое представление о том, как мог бы выглядеть мощный искусственный интеллект и как он мог бы рассуждать.

Пространство ценностей

Если вы уже занимались компьютерным программированием , вы знаете, что компьютеры противны, педантично и механически буквальны. Машина не знает и не заботится о том, что вы хотите от нее: она делает только то, что ей было сказано. Это важное понятие, когда речь идет об искусственном интеллекте.

Имея это в виду, представьте, что вы изобрели мощный искусственный интеллект — вы придумали умные алгоритмы для генерации гипотез, соответствующих вашим данным, и для составления хороших планов кандидатов. Ваш ИИ может решать общие проблемы и может делать это эффективно на современном компьютерном оборудовании.

Теперь пришло время выбрать полезную функцию, которая будет определять, какой ИИ стоит. Что вы должны попросить это оценить? Помните, что машина будет неприятно, педантично буквально относиться к любой функции, которую вы просите ее максимизировать, и никогда не остановится — в машине нет призрака, который когда-либо «проснется» и решит изменить свою служебную функцию, независимо от того, сколько повышение эффективности это делает по своему усмотрению.

Элиэзер Юдковски выразился так :

Как и во всем компьютерном программировании, основная проблема и существенная сложность AGI заключается в том, что если мы напишем неправильный код, ИИ не будет автоматически просматривать наш код, отмечать ошибки, выяснять, что мы действительно хотели сказать, и делать это. вместо. Непрограммисты иногда представляют AGI или компьютерные программы в целом как аналог слуги, который безоговорочно выполняет приказы. Но дело не в том, что ИИ абсолютно послушен своему коду; скорее, ИИ это просто код.

Если вы пытаетесь управлять фабрикой, и вы приказываете машине ценить изготовление скрепок, а затем предоставляете ей контроль над кучей фабричных роботов, вы можете вернуться на следующий день, чтобы обнаружить, что в ней исчерпаны все другие виды сырья, убил всех ваших сотрудников и сделал скрепки из их останков. Если, пытаясь исправить свою ошибку, вы перепрограммируете машину, чтобы просто сделать всех счастливыми, вы можете вернуться на следующий день и обнаружить, что она вводит провода в мозги людей.

скрепки

Дело в том, что у людей есть много сложных ценностей, которые, как мы предполагаем, неявно разделяются с другими умами. Мы ценим деньги, но больше ценим человеческую жизнь. Мы хотим быть счастливыми, но для этого не обязательно вставлять провода в мозг. Мы не чувствуем необходимости разъяснять эти вещи, когда мы даем инструкции другим людям. Однако вы не можете делать подобные предположения при разработке функции полезности машины. Лучшие решения в рамках бездушной математики простой функции полезности часто являются решениями, которые человеческие существа отказались бы от морально ужасающих.

Разрешение интеллектуальному механизму максимизировать наивную функцию полезности почти всегда будет катастрофическим. Как говорит оксфордский философ Ник Бостом,

Мы не можем безболезненно предположить, что суперинтеллект неизбежно разделяет любые конечные ценности, стереотипно связанные с мудростью и интеллектуальным развитием человека, — научное любопытство, доброжелательное отношение к другим, духовное просвещение и созерцание, отказ от материального постижения, вкус к изысканной культуре или простые радости в жизни, смирение и самоотверженность, и так далее.

Что еще хуже, очень и очень трудно определить полный и подробный список всего, что люди ценят. В этом вопросе много аспектов, и забывание даже одного из них потенциально катастрофично. Даже среди тех, кого мы знаем, есть тонкости и сложности, которые затрудняют их запись в виде чистых систем уравнений, которые мы можем дать машине как функцию полезности.

Некоторые люди, прочитав это, приходят к выводу, что создание ИИ с помощью служебных функций — ужасная идея, и мы должны просто разработать их по-другому. Здесь есть и плохие новости — формально можно доказать, что любой агент, у которого нет чего-то эквивалентного функции полезности, не может иметь последовательных предпочтений в отношении будущего.

Рекурсивное самосовершенствование

Одно из решений вышеупомянутой дилеммы состоит в том, чтобы не дать агентам ИИ возможность причинять людям вред: дать им только те ресурсы, которые им необходимы для решения проблемы так, как вы хотите, чтобы она была решена, внимательно следить за ними и держать их подальше от возможностей причинить большой вред. К сожалению, наша способность управлять интеллектуальными машинами весьма сомнительна.

Даже если они не намного умнее нас, существует возможность для «начальной загрузки» компьютера — собрать лучшее оборудование или усовершенствовать собственный код, что сделает его еще умнее. Это может позволить машине перепрыгнуть человеческий интеллект на много порядков, перехитрить людей в том же смысле, что и люди перехитрить кошек. Этот сценарий был впервые предложен человеком по имени И.Дж. Гуд, который работал над проектом криптоанализа Enigma с Аланом Тьюрингом во время Второй мировой войны. Он назвал это «разведывательным взрывом» и описал этот вопрос так:

Пусть сверхинтеллектуальная машина будет определена как машина, которая может намного превзойти всю интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхинтеллектуальные машины могут проектировать еще более совершенные машины; тогда, несомненно, произойдет «взрыв интеллекта», и интеллект человека останется далеко позади. Таким образом, первая сверхинтеллектуальная машина — это последнее изобретение, которое человек когда-либо должен был сделать, при условии, что машина достаточно послушна.

Не гарантируется, что взрыв интеллекта возможен в нашей вселенной, но это кажется вероятным. Со временем компьютеры становятся быстрее и получают базовые знания о наращивании интеллекта. Это означает, что потребность в ресурсах, чтобы сделать этот последний переход к общему, повышающемуся интеллектуальному уровню, падает все ниже и ниже. В какой-то момент мы окажемся в мире, в котором миллионы людей могут найти Best Buy и подобрать аппаратную и техническую литературу, необходимую для создания самосовершенствующегося искусственного интеллекта, который, как мы уже создали, может быть очень опасно. Представьте себе мир, в котором вы могли бы делать атомные бомбы из палок и камней. Такое будущее мы обсуждаем.

И, если машина действительно совершает этот прыжок, она может очень быстро опередить человеческий вид с точки зрения интеллектуальной продуктивности, решая проблемы, которые не может решить миллиард людей, так же, как люди могут решать проблемы, которые может миллиард кошек ». т.

Он мог бы создавать мощных роботов (или био, или нанотехнологии) и относительно быстро приобретать способность изменять мир по своему усмотрению, и мы мало что могли бы с этим поделать. Такой интеллект мог бы лишить Землю и остальную часть Солнечной системы запасных частей без особых проблем на пути к тому, что мы сказали. Кажется вероятным, что такое развитие событий было бы катастрофическим для человечества. Искусственный интеллект не должен быть злым, чтобы разрушить мир, просто катастрофически равнодушен.

Как говорится, «машина не любит и не ненавидит вас, но вы сделаны из атомов, которые она может использовать для других целей».

Оценка рисков и смягчение их последствий

Итак, если мы признаем, что проектирование мощного искусственного интеллекта, который максимизирует простую функцию полезности, является плохим, сколько проблем мы на самом деле? Сколько у нас есть времени, прежде чем станет возможным создавать такие машины? Это, конечно, сложно сказать.

Разработчики искусственного интеллекта делают успехи. Машины, которые мы строим, и проблемы, которые они могут решить, неуклонно растут в своих масштабах. В 1997 году Deep Blue мог играть в шахматы на уровне выше человеческого гроссмейстера. В 2011 году Уотсон из IBM мог читать и синтезировать достаточно информации достаточно глубоко и быстро, чтобы побеждать лучших игроков в открытой игре в вопросы и ответы, изобилующей каламбурами и игрой слов — это большой прогресс за четырнадцать лет.

Прямо сейчас Google вкладывает большие средства в исследование глубокого обучения , методики, которая позволяет создавать мощные нейронные сети путем построения цепочек более простых нейронных сетей. Эти инвестиции позволяют ему добиться серьезного прогресса в распознавании речи и изображений. Их последнее приобретение в этой области — стартап Deep Learning под названием DeepMind, за который они заплатили около 400 миллионов долларов. Как часть условий сделки, Google согласилась создать совет по этике, чтобы обеспечить безопасное развитие их технологии ИИ.

нейронная сеть

В то же время IBM разрабатывает Watson 2.0 и 3.0, системы, способные обрабатывать изображения и видео и выступать в защиту выводов. Они дали простую, раннюю демонстрацию способности Уотсона синтезировать аргументы за и против темы в видео демонстрации ниже. Результаты несовершенны, но, несмотря на это, впечатляющий шаг.

Ни одна из этих технологий сама по себе не опасна: искусственный интеллект как область все еще борется за то, чтобы соответствовать способностям, освоенным маленькими детьми. Компьютерное программирование и дизайн искусственного интеллекта — это очень сложный, высокоуровневый когнитивный навык, и он, вероятно, станет последней человеческой задачей, которой овладеют машины. Прежде чем мы доберемся до этой точки, у нас также будут вездесущие машины, которые могут управлять. , занимайтесь медициной и юриспруденцией , а также, возможно, другими вещами, с глубокими экономическими последствиями.

Время, необходимое нам, чтобы добраться до переломного момента самосовершенствования, зависит только от того, насколько быстро у нас появятся хорошие идеи. Прогнозировать технологические достижения такого рода, как известно, сложно. Не кажется необоснованным, что мы сможем создать сильный ИИ за двадцать лет, но также не представляется необоснованным, что это может занять восемьдесят лет. В любом случае, это произойдет в конце концов, и есть основания полагать, что когда это произойдет, это будет чрезвычайно опасно.

Итак, если мы признаем, что это будет проблемой, что мы можем с этим поделать? Ответ заключается в том, чтобы убедиться, что первые интеллектуальные машины безопасны, чтобы они могли загружаться до значительного уровня интеллекта, а затем защитить нас от небезопасных машин, созданных позже. Эта «безопасность» определяется разделением человеческих ценностей и стремлением защитить и помочь человечеству.

Поскольку на самом деле мы не можем сесть и запрограммировать человеческие ценности в машину, возможно, потребуется разработать служебную функцию, которая потребует от машины наблюдать за людьми, определять наши ценности и затем пытаться максимизировать их . Чтобы сделать этот процесс разработки безопасным, также может быть полезно разработать искусственный интеллект, который специально разработан так, чтобы не иметь предпочтений относительно их функций полезности, что позволяет нам исправлять их или отключать без сопротивления, если они начинают сбиваться с пути во время развитие.

stainedneurons

Многие из проблем, которые нам нужно решить для построения безопасного машинного интеллекта, математически сложны, но есть основания полагать, что их можно решить. Над этой проблемой работают несколько различных организаций, в том числе Институт будущего человечества в Оксфорде и Научно-исследовательский институт машинного интеллекта (который финансирует Питер Тиль).

MIRI особенно заинтересована в развитии математики, необходимой для создания Дружественного ИИ. Если окажется, что возможна самозагрузка искусственного интеллекта, то сначала разработка такого рода технологии «Дружественного ИИ», в случае успеха, может оказаться самой важной вещью, которую когда-либо делали люди.

Как вы думаете, искусственный интеллект опасен? Вы обеспокоены тем, что может принести будущее ИИ? Поделитесь своими мыслями в разделе комментариев ниже!

Авторы изображения: Lwp Kommunikáció Via Flickr, « Нейронная сеть », fdecomite, « img_7801 », Стив Рейнвотер, «E-Volve», Кеони Кабрал, « new_20x », Роберт Кадмор, « Скрепки », Клиффорд Уоллес

Похожие посты
Технологии будущего

Почему мой автомобильный аккумулятор продолжает умирать?

Технологии будущего

Диагностика разряженной автомобильной батареи

Технологии будущего

Apple TV против Року

Технологии будущего

Что делать, когда датчики в вашем автомобиле не работают