этика искусственного интеллекта

Искусственный интеллект постепенно начинает решать задачи в разных сферах наравне с живым специалистом или заменяя его. В производительности и точности алгоритмы часто превосходят человека. Но моральных качеств ему недостает: в частности, этичности. И это одна из причин, по которой внедрение подобных технологий происходит медленно. Раз мир движется к повсеместному использованию «умных» машин, их придется научить этике.

Зачем «воспитывать» машину

Активному распространению инноваций в целом и искусственного интеллекта в частности мешают не только сложности государственного регулирования и стоимость таких проектов. Есть еще один барьер — общественный протест. Хотя многие люди соглашаются с тем, что технологии делают жизнь лучше, а порой даже спасают [1] ее, например, в медицине и сфере безопасности, общество обеспокоено вопросами этичности. Многие инновации люди воспринимают как инструмент слежки и контроля, и потому не хотят их появления.

Почти 40% людей в мире признаются, что искусственный интеллект их тревожит. А по мнению [2] The Harvard Gazette, чем глубже искусственный интеллект проникает в разные отрасли и влияет на принятие решений, тем больше обостряются вопросы этики. Нарушаются принципы конфиденциальности, растет риск избыточного контроля, предвзятости и дискриминации в решениях искусственного интеллекта.

Исследование [3] сервисов определения голоса у Amazon, Apple, Google, IBM и Microsoft показало, что искусственный интеллект хуже расшифровывает речь афроамериканцев. А системы видеоаналитики Microsoft и IBM, работающие с фотографиями, точнее распознают [4] белых мужчин, чем женщин. Частота ошибок в случае с женщинами на фото достигала 35%. Оба примера могут восприниматься как предвзятость и дискриминация со стороны нейросетей, даже если она не умышленная.

Когда в мире доминирует повестка равенства, такие ситуации становятся темным пятном на репутации бизнеса и порой приводят к скандалам, В 2015 году сервису Google пришлось публично приносить извинения за то, что в ходе распознавания изображения нейросеть назвала [5] афроамериканца «гориллой».

Какой он — этичный искусственный интеллект

Аналитики Deloitte полагают [6], что искусственный интеллект должен соответствовать требованиям прозрачности и ответственности. А эксперты PewResearch выделяют [7] также принципы подотчетности и справедливости.
То есть, если говорить про системы распознавания лиц, они должны с одинаковой точностью определять людей разных рас и полов.

Компании-разработчики любых технологий на базе искусственного интеллекта должны документировать возможности и ограничения технологий. А использовать инновации можно только под контролем человека: машина не должна принимать решения самостоятельно. Она не должна нарушать первый закон [8] робототехники Азимова: «Робот не может причинить вред человеческому существу или, своим бездействием способствовать этому».

Есть и другие критерии этичного искусственного интеллекта. Например, все его решения должны быть понятны человеку и зависеть от сферы применения. В государственном секторе на первый план выходит следование букве закона, в бизнесе — достижение высокой эффективности от всех процессов.

Кто этим займется

В опросе Capgemini больше 70% респондентов считают [9], что развивать этичность у искусственного интеллекта должно государство: главные органы власти и независимые отраслевые — вроде IEEE, Института инженеров электроники и электротехники. Они совместно должны установить принципы, которые будут определять справедливое использование искусственного интеллекта. В Европе власти уже подняли этот вопрос: ЕС разработал программу [10] по этическим аспектам ИИ и робототехники.

Но в идеале все стороны, которые соприкасаются с технологиями, должны работать в связке. То есть, и государство, и компании-разработчики, и бизнес-потребитель. За рубежом уже есть такая практика: например, специальный отдел [11] у Microsoft по вопросам справедливости, подотчетности, прозрачности и этики в вопросах ИИ. Его сотрудники составляют контрольный список требований к разработке продуктов и услуг на базе искусственного интеллекта. И клиент компании видит, что бизнес заботится о том, чтобы нейросеть работала непредвзято.

А ещё для контроля этичности искусственного интеллекта может понадобиться технологический омбудсмен: независимая сторона (один человек или несколько), которая тоже будет контролировать происходящее и вносить свои предложения.

Почти 70% респондентов опроса Pew Research Center — разработчики, бизнесмены, политики — сомневаются [12], что в ближайшие 10 лет идея этичного искусственного интеллекта станет естественной для всех. Однако мир постепенно движется в этом направлении. И чем быстрее каждый участник технологического мира решит внести свой вклад в развитие этичного искусственного интеллекта, тем менее острым будет становиться вопрос принятия инноваций в целом.

Источники:

  1. https://www.forbes.com/sites/forbestechcouncil/2021/05/13/saving-millions-of-lives-per-year-with-intelligent-automation/?sh=344057fe1349
  2. https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/
  3. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7149386/
  4. https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
  5. https://www.bbc.com/news/technology-33347866
  6. https://www2.deloitte.com/nl/nl/pages/innovatie/artikelen/bringing-transparency-and-ethics-into-ai.html
  7. https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/
  8. https://asimovonline.ru/zakony-robototekhniki/
  9. https://www.capgemini.com/wp-content/uploads/2019/07/CRI-AI-in-Ethics_web-1.pdf
  10. https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_EN.pdf
  11. https://www.microsoft.com/en-us/research/theme/fate/
  12. https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/