Разные вещи приходят в голову разным людям, когда они слышат слова «искусственный интеллект (ИИ)». Некоторые представляют голливудские представления об ИИ, изображенные в таких фильмах, как Терминатор , Матрица или Я, Робот . Другие представляют себе более консервативный образ, например, ИИ-игроки в видеоиграх или цифровые помощники, такие как Кортана. Тем не менее, другие предполагают сложные алгоритмы, обеспечивающие интеллектуальное облако, которое предоставляет полезную информацию для принятия решений в бизнесе. Все это ИИ или «интеллект, демонстрируемый машинами или программным обеспечением, и изучение того, как создавать компьютеры и компьютерные программы, способные к интеллектуальному поведению».
Хотя голливудские представления об ИИ являются чрезмерным преувеличением технологий, намного превосходящим то, на что мы способны сегодня, они предлагают предостерегающее предупреждение, коренящееся в этических проблемах, которые ИИ представляет в настоящее время. ИИ принципиально «сделан по нашему образу». Он основан на сценариях машинного обучения, когда люди предоставляют системы с данными для «создания» своего интеллекта.
Когда человеческие предубеждения или ограниченные перспективы создают основу для того, как эти искусственные системы воспринимают мир, они неизменно отражают негативные и часто позорные представления, которые преследуют человеческие культуры. Таким образом, по мере того, как ИИ становится частью судебной системы, системы здравоохранения, занятости, правительства и других систем, нам следует умерить его эволюцию с помощью упреждающего руководства, которое предотвращает антиутопическое проявление человеческих предрассудков.
1. AI, афроамериканцы, пол и алгоритмический уклон
Многие люди стремятся отделить свое потребление технических новостей от отрезвляющих реалий, таких как грязная история расизма и нынешние предрассудки, с которыми все еще сталкиваются афроамериканцы и другие. Однако переплетение технологий, имитирующих человеческое восприятие в наших социальных структурах, таких как распознавание лиц, делает эту задачу невозможной.
Мы должны признать, что компьютерные системы настолько надежны, насколько подвержены ошибкам люди, которые их создают. И когда дело доходит до способности ИИ воспринимать и различать людей разных цветов кожи и полов, некоторые человеческие предубеждения могут превратить его в системы ИИ. Исследование показало, что службы анализа лица Microsoft и IBM часто не могли точно различить чернокожие, особенно чернокожие женщины. Уровень точности системы для белых мужчин был значительно лучше. Его «тренировка» с низкой представленностью темнокожих людей способствовала неравенству. Этот «надзор», вероятно, является производной от более глубокой проблемы низкого представительства чернокожих в технологиях . Более разнообразная рабочая сила, вероятно, осознала бы дефицит пула данных.
Еще более смущающий (и, по общему признанию, неудобный для обсуждения) инцидент с искусственным интеллектом и расой произошел, когда служба организации фотографий Google помечала чернокожих людей как «обезьян», «шимпанзе» или «горилл». Начиная с 2018 года, обходной путь Google удалял из словаря системы горилл и других приматов. Учитывая историю, в которой чернокожих сравнивали с приматами, этическое влияние алгоритмов ИИ, которые повторяли эти предрассудки, отражает необходимость широкого и разнообразного пула данных и людей для предотвращения этих проблем.
2. Уголовное правосудие
От правительства , магазинов, образования, транспорта, бизнеса, обороны, здравоохранения и многого другого, Microsoft и другие толкают ИИ во все аспекты нашей жизни и культуры. AI использовался в судебной системе для определения необходимости освобождения преступника. ИИ «решил» освободить человека, который впоследствии кого-то убил. Было обнаружено, что соответствующие данные криминальной истории не были частью набора данных, который AI использовал для принятия решения.
3. Интеллектуальные камеры
В 2016 году Microsoft представила технологию камер, управляемую искусственным интеллектом, которая распознает людей, действия и объекты, а также может получать доступ к данным о людях и действовать автономно. Потенциальное злоупотребление этой технологией со стороны правительств, работодателей или отдельных лиц для отслеживания людей, их привычек, взаимодействий и рутины является глубоким. Кроме того, в прошлом году Google подвергся критике даже со стороны своих сотрудников за партнерство с Пентагоном, которое использует технологию камер для анализа данных о беспилотниках.
4. Здравоохранение
В области здравоохранения многочисленные исследования показали, что врачи и жители считают, что черные чувствуют меньше боли, чем белые. Следовательно, они назначали обезболивающие препараты реже черным, чем белым с аналогичными заболеваниями. Рассмотрите потенциальные этические и постоянные различия в качестве медицинской помощи, если ИИ в здравоохранении получают данные от специалистов, которые придерживаются этих и других предубеждений.
5. Почти человек
В прошлом году Google продемонстрировал Google Duplex , интеллектуального бота, который мог ориентироваться в телефонных звонках, назначать встречи и был неотличим от человека. Этические проблемы изобилуют, когда пользователи не знают, что они разговаривают с ИИ, а не с человеком.
Столкнувшись с проблемами предвзятости и искусственного интеллекта
Microsoft , Google и другие начали решать этические проблемы, которые представляет AI. Были сформированы внутренние советы, и признание опасностей AI было включено в отчеты компаний по ценным бумагам и биржам США (SEC) . Тем не менее, без внешнего руководства сохраняется непоследовательность и универсально применяемые стандарты, что дает возможность для постоянных предубеждений в отношении ИИ.
Даже с внешними платами уклоны могут оставаться проблемой. В прошлом году Axon , производитель Taser, сформировал совет по проверке искусственного интеллекта в телекамерах, используемых полицией. В ответ 40 гражданских прав, академические и общественные группы обвинили компанию в исключении представителей сообществ, которые, вероятно, окажут негативное влияние на технологию.
ИИ все больше становится частью нашей культуры, и он и те, кто его создает, управляя его разработкой и реализацией, должны «выглядеть» как все мы. Такие группы, как « Черные» для ИИ и « Женщины в машинном обучении» , пытаются обеспечить именно это. Тем не менее, компании подталкивают ИИ к таким продуктам, как интеллектуальные колонки и контрольные точки распознавания лиц, быстрее, чем могут быть сформированы адекватные системы учета . Это потребует коллективных усилий от всех нас, усердного контроля и честного размышления о том, кто мы такие, чтобы гарантировать, что худшие части нас не являются частью ИИ, на который мы все больше полагаемся.
Мы можем заработать комиссию за покупки, используя наши ссылки. Узнайте больше