Этика искусственного интеллекта

Официальный поставщик продукции Leroy-Somer

По обе стороны Атлантики существует обеспокоенность тем, что искусственный интеллект (ИИ) играет вредную роль в наших демократиях, а сообщения направлены на то, чтобы найти отклик у конкретных избирателей и повлиять на результаты опросов.

Например, все чаще мы слышим о Cambridge Analytica и ее способности собирать данные из аккаунтов отдельных лиц в Facebook, Twitter, Instagram и других социальных сетях. Используя эти данные с передовая технология искусственного интеллекта – по крайней мере, в сфере национальных выборов – к влиянию на исход в основном относятся с неодобрением.

Искусственный интеллект проникает гораздо глубже, чем наша политика. Если, например, вы не смогли стать победителем торгов на eBay, искусственный интеллект использует когнитивную проницательность, чтобы предлагать похожие товары. Алгоритмы используются для того, чтобы рекомендовать фильм для просмотра, человека для свидания или квартиру для аренды. Если вы пользуетесь смартфоном или компьютером, искусственный интеллект взаимодействует с вами.

Вдали от наших персональных экранов искусственный интеллект продолжает играть важную роль в развитии автоматизация в промышленности, на транспорте, где автономный или беспилотный автомобиль является ярким примером, в сфере услуг, где алгоритмы могут определять страховые взносы, ипотечные кредиты и займы, и даже в область психического здоровья и консультирования. Компании и учреждения все чаще используют машинное обучение модели для принятия решений, которые прямо или косвенно влияют на жизнь людей, таких как отбор кандидатов для собеседований при приеме на работу.

Это всего лишь несколько основных примеров применения искусственного интеллекта. Давай не будем подходить слишком близко Корейские роботы-убийцы, или Мэтта Макмаллена Секс-робот, Гармония. Однако ссылки есть, если вам это необходимо.

Несмотря на потенциально огромные выгоды, которые ИИ может принести человечеству, это, пожалуй, самый большой вызов моральным устоям, лежащим в основе цивилизованного общества. Этические соображения делятся на две отдельные группы: первая — это влияние, которое искусственный интеллект и автоматизация в конечном итоге окажут на рабочие места и экономическая система, в которой мы живем.

Второй — это моральный аспект: в какой степени искусственный интеллект вторгается в нашу частную жизнь (сбор данных и распознавание лиц) и скрыто влияет на принятие нами личных решений? Когда это необходимо, принимает ли он правильные решения за нас? Как принимаются эти решения? Была ли предвзятость непреднамеренно или намеренно введена в алгоритмы? Есть ли прозрачность?

Когда большинство людей думают об ИИ, они спрашивают, что будет с джобсом. В свете исследования, проведенного Оксфордский университет в 2013 году, который предсказал, что 47% рабочих мест в США рискуют стать автоматизированными в ближайшие 20 лет, это оправданное беспокойство. Некоторые люди сравнивали то, что происходит с автоматизацией и искусственным интеллектом, как вторая промышленная революция.

Однако на конференции Ассоциации по развитию искусственного интеллекта (AAAI-16) в Фениксе, штат Аризона, экономист Эрик Бриньольфссон утверждал, что, хотя исследования показывают, что 60% рабочих мест будут в некоторой степени автоматизированы, ожидается, что только 5% рабочих мест будут полностью автоматизированы.

Тем не менее, очевидно, что мир занятости претерпит значительные изменения, что людям и машинам, по крайней мере, придется работать вместе. И мы говорим не только о роботах на заводе. Возможности ИИ в области сортировки данных, таких как электронные таблицы, где ИИ может сортировать тысячи фрагментов данных за секунды, намного превосходят возможности человека.

Но будет ли это означать падение занятости? Или люди просто будут освобождены для выполнения действий более высокого порядка? Консенсус, по-видимому, заключается в том, что влияние на занятость людей будет увеличиваться по мере того, как искусственный интеллект становится все более изощренным. Вот тут-то и возникает идея перестройки экономики. Возможно, в духе Схемы всеобщего базового дохода (UBI), идея которой заключается в том, что каждый гражданин страны получает регулярную, не зависящую от средств выплату от правительства, независимо от того, работает он или нет, чтобы каждый мог позволить себе свои основные потребности.

Действительно, дивный новый мир. Хотя и не такая уж новая, поскольку эта экономическая система уже была опробована, и ее недоброжелатели, по-видимому, доказали свою неправоту. Например, был сделан вывод, что моральное состояние людей, получающих UBI, не ухудшается. Что, вместо того чтобы провоцировать рост праздности и употребления наркотиков и алкоголя, UBI способствует экономической активности и предприимчивости.

То, как люди взаимодействуют с ИИ на ежедневной основе, и каковы результаты этого взаимодействия, лежит в основе этических соображений ИИ. В какой степени эта технология манипулирует людьми? В случае вовлечения в политику подрывается ли демократия? Полемика с Cambridge Analytica высветила эти опасения.

Специальный комитет Палаты лордов Великобритании по искусственному интеллекту вынес следующие рекомендации. То, что они называют пятью этическими принципами, которые должны применяться на национальном и международном уровнях:

Второй момент: ‘ИИ должен действовать на принципах понятности и справедливости» — это особенно сложная концепция, учитывая сущностную природу ИИ. Это открывает вопросы, касающиеся прозрачности и предвзятости в ИИ, заключительные соображения в этой статье.

Проблема «черного ящика» (отсутствие прозрачности) является серьезной проблемой в этой развивающейся отрасли искусственного интеллекта, машинное обучение (МЛ). Это особенно важно, когда речь идет о людях. ML может быть применен, например, для рекомендации 10 лучших кандидатов из 100 претендентов на должность. Но как можно проверить этот выбор? Можно было бы проверить, сделал ли выбор другой человек. Там были бы заметки и резюме.

Но не так с машинами. Аналогичным образом, банк может использовать искусственный интеллект для оценки того, может или не может клиент получить кредит, но если клиент спрашивает, почему ему отказали в этом кредите, машина не дает никакого ответа, кроме «Компьютер говорит нет’.

Вопросы прозрачности становятся еще более актуальными, когда есть предвзятость, даже если она, скорее всего, непреднамеренна. Если искусственный интеллект используется для оценки кандидатов на руководящую должность в компании, и данные, введенные в машину, детализируют предыдущие аналогичные назначения, большинство из которых были белыми мужчинами, он повторит это при отборе. Если раса или пол исключены из данных, подаваемых в модель, другие, казалось бы, невинные факторы, такие как почтовый индекс или образование, могут поставить в невыгодное положение людей определенного происхождения.

Компании-разработчики программного обеспечения несут ответственность за то, чтобы открыть черный ящик искусственного интеллекта и обеспечить его максимальную прозрачность.

Вот последнее соображение для читателей. В случае дорожно-транспортного происшествия, когда необходимо предпринять решительные действия по уклонению, какого пешехода предпочтет сбить автомобиль без водителя?