Объяснение технологий

Сверните проклятие: как злоупотребление вашим устройством ИИ может стоить вам работы

Сверните проклятие: как злоупотребление вашим устройством ИИ может стоить вам работы

Вы когда-нибудь ругались на Siri, Alexa или Google за неспособность понять ваши слова? Ты не один. Мы можем быть виновны в лоббировании оскорбления или двух. сами.

Разблокируйте «Мега список 100+ полезных команд Amazon Alexa» прямо сейчас!

Это подпишет вас на нашу рассылку

Введите адрес электронной почты

Но мы все должны быть осторожны.

Хотя на другом конце вашего оскорбления нет действительного человека, эти ругательства не исчезают и в пустоте. Наши бессмысленные зазубрины передаются через сеть на удаленные серверы. То, как мы относимся к цифровым личным помощникам, может научить их худшему из человечества, и это может заставить некоторые компании считать некоторых из нас слишком расстроенными, чтобы их нанимать.

Оказывается, то, что мы можем считать безобидным подшучиванием, не так уж и безопасно.

Они учатся у нас

Сири появилась на сцене в 2011 году, а через год появился Google Now. К 2014 году у Microsoft была Cortana. В том же году Amazon сунула ИИ по имени Алекса в пластиковую трубку, которую люди могли оставить на своих столешницах. С тех пор Google и Apple сделали то же самое. Технические гиганты быстро ищут способы превратить искусственный интеллект в готовые к использованию продукты

Эти цифровые личные помощники могут показаться зрелыми. У них даже могут быть моменты, которые радуют нас. Но они подростки. Они очень грамотные малыши и активно учатся на информации, которую мы им предоставляем. Как и компании, которые делают их.

Команда Siri работает над Viv (в настоящее время принадлежит Samsung ), цифровым помощником, который интегрируется со сторонними сервисами, такими как Weather Underground и Uber, чтобы предоставить докладчикам более подробные ответы. Демонстрации на сцене показывают, что Вив отвечает на вопросы, которые мы задаем другим людям, а не на язык, который мы подбираем для машин. Это результат изучения того, как люди используют язык.

Цифровые личные помощники — это не то, что большинство из нас представляет, когда мы изображаем искусственный интеллект. В отличие от ELIZA, компьютерной программы 1960-х годов, которая имитирует естественный язык (вы можете попробовать поговорить с ним онлайн ), эти ИИ не слишком много «думают» о себе. Эта работа полностью загружена через Интернет.

Есть несколько шагов к процессу.

Первый компонент — распознавание речи. Устройство либо загружает прямую запись, либо переводит ваши слова в текст, который он может отправить на удаленные серверы (Apple, Google, Amazon, кто угодно). Вот где происходит магия. Вернее, программное обеспечение ищет в базе данных подходящий ответ. Затем он передает эту информацию обратно к личному помощнику.

Вкратце: кто-то задает вам вопрос, вы спрашиваете Сири, а затем Сири спрашивает серверы Apple. Серверы дают Сири ответ, она отвечает вам, и вы либо счастливы, либо ушли с вопросом, как справиться с разочарованием, .

Эти базы данных не просто содержат ответы. Некоторые хранят записи голоса, которые помогают компьютеру ориентироваться во многих нюансах разных диалектов. Эта информация не только помогает ботам понять нас. Facebook использовал тысячи переговоров на естественном языке между двумя людьми, чтобы научить чат-роботов Messenger вести переговоры.

Мы подаем хороший пример?

Это едва ли единственные ИИ, которые учатся тому, как мы говорим.

В прошлом году Microsoft выпустила чат-бота на Twitter, Kik и GroupMe с целью симуляции американской девочки-подростка. Через несколько часов «Тай» согласился с Гитлером и поддерживал всевозможные оскорбительные высказывания. Microsoft отключила Tay до окончания рабочего дня .

Хотя Тай был провалом, это не замедлило распространение чат-ботов. Вы можете найти их в социальных сетях, таких как Facebook и Snapchat, наряду с клиентами обмена сообщениями, такими как HipChat и Slack. Некоторые вокруг для разговора. Другие подключают вас к услугам. Некоторые из этих ботов более безопасны, потому что они не пытаются имитировать естественную беседу, потому что сейчас машинам не обязательно подражать тому, как мы разговариваем.

Мы точно не показываем лучший пример для ботов, чтобы учиться. Профессор колледжа университета штата Миссури Шерил Brahnam провел исследование к выводу , что от 10 до 50 процентов взаимодействий исследуемого показал люди являются оскорбительными или иным средним компьютерными ассистентами (из которых цифровых персональных помощники только один типа). Это очень много. Некоторые родители чувствуют вину за то, что произнесли хоть одно плохое слово перед своими детьми. Это далеко от того, что половина их взаимодействий негативна.

Те чат-боты Facebook Messenger, о которых я упоминал ранее? Они не только научились вести переговоры, изучая естественный язык, но и научились лгать .

Ваш будущий работодатель может наблюдать

В будущем мы можем достичь такого уровня, когда общение с ботами может стоить нам работы. Согласно Harvard Business Review , этот сдвиг может произойти, если мы перестанем рассматривать плохого обращения с ботом как сломанный мобильный телефон, а скорее как выгнанного котенка. Неуважение к боту компании может привести к увольнению.

концепция чатбота
Изображение предоставлено: Chatbot Concept через Shutterstock

Это не означает, что работники или работодатели начнут рассматривать ботов как очаровательных живых существ. Тем не менее, они могут быть достаточно разумными, чтобы плохо обращаться с ними, чтобы они казались непрофессиональными и контрпродуктивными. Если вы менеджер, злоупотребление ИИ может вызвать вас в HR за плохое руководство.

Это звучит слишком гипотетически? Подумайте, что мы уже знаем, что происходит. Все, что мы печатаем или говорим этим помощникам, отправляется через Интернет, и мы на самом деле не знаем, что с ним будет потом. Большая часть этой информации заносится в журнал. Даже если эта информация не всегда привязана к вашей учетной записи, она все равно сохраняется.

Google технически прозрачен в этом , но это не делает это очевидным. Такого рода, если сбор данных расширяет определение наличия чьего-либо согласия перед их записью.

Эти собранные данные сейчас могут показаться безвредными, но ничто не мешает техническим гигантам в конечном итоге составить подробные портфели данных о каждом из нас, которые будущие работодатели, банки и другие организации могут проверить, прежде чем вступать с нами в контакт, подобно отчету о кредитных операциях.

Правоохранительные органы тоже следят

В деле, касающемся человека из Арканзаса, обвиняемого в убийстве своего друга (бывшего сотрудника полиции), прокурор пытался использовать записи с «Эхо Амазонки» в качестве доказательств. Amazon отклонил запрос, но это только отчасти утешительно. Что нервирует, так это то, что Amazon хранит данные в первую очередь. С тех пор подозреваемый предоставил доступ к этим данным .

Я упомянул, что компании могут проверить наши записи данных, прежде чем взаимодействовать с нами. В случае с правоохранительными органами, они уже видят эту информацию. Нужно ли АНБ собирать данные самостоятельно? может ли он полагаться на частный сектор, чтобы собирать эту информацию для них? Должны ли мы доверять кому-либо с таким большим количеством данных о каждом из нас?

В данные включены не только то, что мы искали или команды, которые мы выпустили, но и то, как мы это сделали. Мы не просто даем понимание наших интересов и действий — мы даем другим взгляд на то, как мы действуем. То, что происходит между вами и Алекса, не остается между вами и Алекса.

Что мы говорим, имеет значение

В то время как Тэй должен был уйти в тайм-аут, Microsoft нашла ошеломительный успех с другим ботом. Это имя Сяоице. В Китае и Японии этот бот взаимодействовал с более чем 40 миллионами человек. То, что Сяоице не самоуничтожился, отчасти связано с различием в культуре. В Китае некоторые виды речи не допускаются в Интернете.

Теперь боты начали сами заниматься охраной. Социальные сети начинают использовать ботов Лишать речи ненависти . Возможно, мы не говорим напрямую с этими ботами, но они все еще изучают нашу речь, чтобы узнать, что квалифицируется как насилие.

Неважно, как вы подходите к вопросу, что мы говорим и как мы говорим, это имеет значение. Боты и компании, которые их производят, слушают. Когда-нибудь наши работодатели могут присоединиться к ним. И если бы компьютеры могли заменить нас в будущем, разве мы не хотели бы, чтобы они были хорошими?

Как вы реагируете, когда цифровые личные помощники терпят неудачу? Вы относитесь к ним так, как будто у них есть чувства? Вас волнует, если кто-то следит за тем, что вы говорите? Что вы видите в качестве ответственного пути вперед? Человек будет следить за вашими комментариями ниже.

Кредит изображения: deagreez1 / Depositphotos

Похожие посты
Объяснение технологий

Как работает жесткий диск? [Технология объяснила]

Объяснение технологий

Что такое программное обеспечение с открытым исходным кодом? [MakeUseOf Объясняет]

Объяснение технологий

Разрешения графического дисплея - что означают цифры? [MakeUseOf Объясняет]

Объяснение технологий

Как переформатировать внешний жесткий диск, не теряя на нем все