Tech новости

5 этических рисков, которые AI представляет для Microsoft и других технологических гигантов

Разные вещи приходят в голову разным людям, когда они слышат слова «искусственный интеллект (ИИ)». Некоторые представляют голливудские представления об ИИ, изображенные в таких фильмах, как Терминатор , Матрица или Я, Робот . Другие представляют себе более консервативный образ, например, ИИ-игроки в видеоиграх или цифровые помощники, такие как Кортана. Тем не менее, другие предполагают сложные алгоритмы, обеспечивающие интеллектуальное облако, которое предоставляет полезную информацию для принятия решений в бизнесе. Все это ИИ или «интеллект, демонстрируемый машинами или программным обеспечением, и изучение того, как создавать компьютеры и компьютерные программы, способные к интеллектуальному поведению».

Хотя голливудские представления об ИИ являются чрезмерным преувеличением технологий, намного превосходящим то, на что мы способны сегодня, они предлагают предостерегающее предупреждение, коренящееся в этических проблемах, которые ИИ представляет в настоящее время. ИИ принципиально «сделан по нашему образу». Он основан на сценариях машинного обучения, когда люди предоставляют системы с данными для «создания» своего интеллекта.

Когда человеческие предубеждения или ограниченные перспективы создают основу для того, как эти искусственные системы воспринимают мир, они неизменно отражают негативные и часто позорные представления, которые преследуют человеческие культуры. Таким образом, по мере того, как ИИ становится частью судебной системы, системы здравоохранения, занятости, правительства и других систем, нам следует умерить его эволюцию с помощью упреждающего руководства, которое предотвращает антиутопическое проявление человеческих предрассудков.

1. AI, афроамериканцы, пол и алгоритмический уклон

Многие люди стремятся отделить свое потребление технических новостей от отрезвляющих реалий, таких как грязная история расизма и нынешние предрассудки, с которыми все еще сталкиваются афроамериканцы и другие. Однако переплетение технологий, имитирующих человеческое восприятие в наших социальных структурах, таких как распознавание лиц, делает эту задачу невозможной.

Мы должны признать, что компьютерные системы настолько надежны, насколько подвержены ошибкам люди, которые их создают. И когда дело доходит до способности ИИ воспринимать и различать людей разных цветов кожи и полов, некоторые человеческие предубеждения могут превратить его в системы ИИ. Исследование показало, что службы анализа лица Microsoft и IBM часто не могли точно различить чернокожие, особенно чернокожие женщины. Уровень точности системы для белых мужчин был значительно лучше. Его «тренировка» с низкой представленностью темнокожих людей способствовала неравенству. Этот «надзор», вероятно, является производной от более глубокой проблемы низкого представительства чернокожих в технологиях . Более разнообразная рабочая сила, вероятно, осознала бы дефицит пула данных.

Еще более смущающий (и, по общему признанию, неудобный для обсуждения) инцидент с искусственным интеллектом и расой произошел, когда служба организации фотографий Google помечала чернокожих людей как «обезьян», «шимпанзе» или «горилл». Начиная с 2018 года, обходной путь Google удалял из словаря системы горилл и других приматов. Учитывая историю, в которой чернокожих сравнивали с приматами, этическое влияние алгоритмов ИИ, которые повторяли эти предрассудки, отражает необходимость широкого и разнообразного пула данных и людей для предотвращения этих проблем.

2. Уголовное правосудие

От правительства , магазинов, образования, транспорта, бизнеса, обороны, здравоохранения и многого другого, Microsoft и другие толкают ИИ во все аспекты нашей жизни и культуры. AI использовался в судебной системе для определения необходимости освобождения преступника. ИИ «решил» освободить человека, который впоследствии кого-то убил. Было обнаружено, что соответствующие данные криминальной истории не были частью набора данных, который AI использовал для принятия решения.

3. Интеллектуальные камеры

В 2016 году Microsoft представила технологию камер, управляемую искусственным интеллектом, которая распознает людей, действия и объекты, а также может получать доступ к данным о людях и действовать автономно. Потенциальное злоупотребление этой технологией со стороны правительств, работодателей или отдельных лиц для отслеживания людей, их привычек, взаимодействий и рутины является глубоким. Кроме того, в прошлом году Google подвергся критике даже со стороны своих сотрудников за партнерство с Пентагоном, которое использует технологию камер для анализа данных о беспилотниках.

4. Здравоохранение

В области здравоохранения многочисленные исследования показали, что врачи и жители считают, что черные чувствуют меньше боли, чем белые. Следовательно, они назначали обезболивающие препараты реже черным, чем белым с аналогичными заболеваниями. Рассмотрите потенциальные этические и постоянные различия в качестве медицинской помощи, если ИИ в здравоохранении получают данные от специалистов, которые придерживаются этих и других предубеждений.

5. Почти человек

В прошлом году Google продемонстрировал Google Duplex , интеллектуального бота, который мог ориентироваться в телефонных звонках, назначать встречи и был неотличим от человека. Этические проблемы изобилуют, когда пользователи не знают, что они разговаривают с ИИ, а не с человеком.

Столкнувшись с проблемами предвзятости и искусственного интеллекта

Microsoft , Google и другие начали решать этические проблемы, которые представляет AI. Были сформированы внутренние советы, и признание опасностей AI было включено в отчеты компаний по ценным бумагам и биржам США (SEC) . Тем не менее, без внешнего руководства сохраняется непоследовательность и универсально применяемые стандарты, что дает возможность для постоянных предубеждений в отношении ИИ.

Даже с внешними платами уклоны могут оставаться проблемой. В прошлом году Axon , производитель Taser, сформировал совет по проверке искусственного интеллекта в телекамерах, используемых полицией. В ответ 40 гражданских прав, академические и общественные группы обвинили компанию в исключении представителей сообществ, которые, вероятно, окажут негативное влияние на технологию.

ИИ все больше становится частью нашей культуры, и он и те, кто его создает, управляя его разработкой и реализацией, должны «выглядеть» как все мы. Такие группы, как « Черные» для ИИ и « Женщины в машинном обучении» , пытаются обеспечить именно это. Тем не менее, компании подталкивают ИИ к таким продуктам, как интеллектуальные колонки и контрольные точки распознавания лиц, быстрее, чем могут быть сформированы адекватные системы учета . Это потребует коллективных усилий от всех нас, усердного контроля и честного размышления о том, кто мы такие, чтобы гарантировать, что худшие части нас не являются частью ИИ, на который мы все больше полагаемся.

Мы можем заработать комиссию за покупки, используя наши ссылки. Узнайте больше

Похожие посты
Tech новости

Про совет: Протрите порно с вашего телефона перед заменой его

Tech новости

Охранная фирма детализирует проблемы конфиденциальности; разработчик рассказывает нам свою сторону истории

Tech новости

Проект Android UI Utilities приносит унифицированные инструменты дизайна для разработчиков

Tech новости

Google утверждает, что популярные обои-приложения считаются безопасными