logo
 

РУССКИЙ ЯЗЫК

ЛИТЕРАТУРА

 

ИСТОРИЯ РОССИИ

БИОЛОГИЯ

ГЕОГРАФИЯ

МАТЕМАТИКА

Контролируемое обучение (с использованием сверточных нейронных сетей и множества других методов), без сомнения, совершило революцию в ИИ и робототехнике. И это действительно захватывающе, однако в то же время тревожно, поскольку в подобных технологиях отражаются и наши предрассудки. Несмотря на то что у нас имеется огромное количество данных, из-за различных предубеждений современного общества ИИ обучаются преимущественно на изображениях светлокожих мужчин. И в результате с помощью ИИ далеко не всегда удается распознать лица темнокожих женщин, к примеру. В недавних тестах системы ИИ от ведущих компаний, IBM, Microsoft и Amazon, неправильно идентифицировали лица Опры Уинфри, Мишель Обамы и Серены Уильямс, не испытав при этом никаких затруднений с лицами белых мужчин.

Если наборы данных, используемых для обучения ИИ, искажены (в одном случае набор данных с лицами членов американского правительства, собранных для обучения, включал 75 % мужчин и 80 % лиц со светлой кожей), результаты прогноза будут неверны. В контролируемом обучении то, каким окажется ИИ, зависит от того, как мы его обучаем. Это может иметь явные и очевидные последствия, когда компьютерное зрение используется с целью обеспечения безопасности или полицией. В этих случаях предвзятость может привести к искаженным результатам идентификации определенных групп людей. А если у вас есть акцент, то, вероятно, и распознавание вашего голоса будет менее эффективным.

 

Я впервые столкнулась с этим, когда в 2015 году была аспиранткой в МТИ и обнаружила, что некоторые программы для распознавания лиц не могут распознать мое лицо с темной кожей, пока я не надену белую маску.

ДЖОЙ БУОЛАМВИНИ, исследователь ИИ (2019)

 

Сети компьютерного зрения не обязательно учить с помощью контролируемого обучения (см. главу 6), но часто есть смысл его привлекать. Когда мы обучаем искусственные нейронные сети, то должны предоставить им возможность получить достаточно большой опыт, чтобы они могли эффективно функционировать. Плохое обучение приведет к плохому ИИ.

К сожалению, предубеждения все еще распространены в нашем обществе. В классных комнатах и университетских лекционных залах, где изучают компьютерные науки и инженерию, по-прежнему преобладают студенты мужского пола, причем эта тенденция не меняется уже несколько лет. В результате становится все больше мужчин – исследователей ИИ. Но пришло время восстановить баланс!

Предвзятость при обучении – не единственная проблема, связанная с разработкой компьютерного зрения. Сегодня алгоритмы «дипфейк» (deepfake: deep – «глубокий» и fake – «подделка») легко могут заменить лицо одного человека лицом другого в видео, что широко используется в порнографии. Эта технология применяется также с целью мошенничества или для манипулирования в политике. Отличить факт от фикции никогда еще не было так сложно. В США это привело к принятию новых нормативных актов: Акта о запрете злонамеренных дипфейков, рассмотренного Сенатом США в 2018 году, и Акта об ответственности за дипфейки, рассмотренного Палатой представителей в 2019 году.

Нравится нам это или нет, но в развитии компьютерного зрения мы добились чрезвычайных успехов. Несмотря на искажения и злоупотребления, сегодня иногда кажется, что компьютерное зрение – это уже решенная проблема с точки зрения архитектуры нейронной сети. Но хотя мы можем соединить сети способами, напоминающими связи в зрительной коре, искусственные нейронные сети пока не дотягивают до уровня нейронных сетей живых организмов. Наши методы работают, но часто используя грубую силу с массивами данных, тысячи искусственных нейронов и огромные вычислительные мощности для обучения. Оса-малютка показывает нам, что существуют намного более изящные, более простые способы восприятия нашего мира. Нам еще многое предстоит узнать.

 

Поиск

 

ФИЗИКА

 

Блок "Поделиться"

 
 
Яндекс.Метрика Top.Mail.Ru

Copyright © 2021 High School Rights Reserved.