Запрет распознавания лиц, опасный шаг

Когда люди начинают бояться распознавания лиц, мы должны сделать шаг назад и пересмотреть технологию и наши возможности.

Ради прозрачности я считаю своим долгом заявить, что я работаю в индустрии компьютерного зрения. Я использую эту статью не для того, чтобы продвигать корпоративную повестку дня или пытаться сохранить свою работу, а для того, чтобы дать контекст для сильно критикуемой и неправильно понимаемой области.

Это правда, разговоры об использовании искусственного интеллекта для обследования городов вызывают мысли о антиутопиях, о которых предупреждал Джордж Оруэлл. Знание того, как определенные правительства использовали такую ​​технологию, не приносит утешения. За последние несколько месяцев были предприняты усилия, чтобы обуздать неправомерное использование компьютерного зрения. Сан-Франциско принял закон, запрещающий использование технологии распознавания лиц законными муниципалитетами. Член палаты представителей Окасио-Кортез указал на некоторые из опасений во время слушания с основателем Алгоритмической лиги справедливости. Совсем недавно была опубликована напыщенная статья в Buzzfeed с требованием полного запрета всех технологий распознавания лиц.

Технология распознавания лиц - это новая область. Первая статья, описывающая рабочий метод распознавания лиц, была опубликована в 1987, а обнаружение звезд - в 2001. Тем не менее, эта технология добилась больших успехов в патентных заявках. Google Photos умеет классифицировать ваши фотографии по конкретным людям (и собакам!). Недавний фиаско с фотокатастрофой Facebook продемонстрировало его способность распознавать людей и эмоции на фотографиях.

Хотя это может показаться впечатляющим и даже опасным, важно понимать зависимости и ограничения распознавания лиц. Кроме того, как и во многих других технологиях, мы должны признать, что всегда будут люди, злоупотребляющие этой технологией. Это не означает, что у технологии нет благоприятных применений.

Любой вид искусственного интеллекта, машинного обучения или других страшных технических модных словечек - это применение математики. Распознавание лиц ничем не отличается. В теме реализована линейная алгебра и статистика для достижения конкретной цели. Есть несколько методов, используемых для обнаружения лиц, но основной метод включает в себя получение значительного количества изображений лиц и передачу их «тренеру». Тренер определяет, какие черты схожи между изображениями и макияжем, что мы считаем лицом. Это не такие черты, как мы думаем о них, такие как нос, рот, два глаза и т. Д. Компьютер не знает, что такое нос. Нет, эти элементы состоят из набора дискретных краев, линий, точек и пробелов. На основе достаточно большого и достаточно разнообразного набора данных этот тренажер может создать математическое выражение. Это выражение может дать оценку достоверности нового изображения на основе извлеченных функций. Затем внешний пользователь может объявить оценку уверенности, которая, по его мнению, оправдывает успешный результат.

Это простой метод, и были разработаны более быстрые и точные методы. Тем не менее, их основная посылка та же. Для достижения успеха алгоритмы полагаются на огромные объемы данных, и они дают оценку достоверности, а не абсолютные ответы.

В этом подходе можно увидеть явную проблему. Если используемый набор данных имеет явную систематическую ошибку, выбросы вызовут проблему. Смещение повлияет на систему в целом. Во-вторых, если происходит неправильная интерпретация оценок достоверности, отдельные случаи могут быть обработаны неправильно.

Именно это и происходит при расследовании уголовных дел. Разработчики алгоритмов по своей сути не создают системы, избирательные по отношению к определенным группам меньшинств, пигментам кожи или половому признаку. Более вероятное объяснение заключается в том, что на этапе обучения использовался однородный набор данных. Если большинство лиц, используемых в наборе данных, принадлежат мужчинам европеоидной расы в возрасте от двадцати до тридцати лет, то любое другое лицо будет считаться выбросом и давать неверные оценки достоверности. Во время обременительных сроков разработки может быть сложно собрать надежный набор данных, который содержит реалистичное представление о населении.

Сообщенные оценки являются вторым источником ошибок. Появляется второй уровень человеческой ошибки. Если результаты сообщаются пользователям без оценки достоверности, то у интерпретатора нет другой информации, с которой можно было бы действовать. Это плохой дизайн с инженерной точки зрения. В качестве альтернативы, если получены оценки достоверности, пользователи могут не понять, как были получены оценки достоверности. Обе эти проблемы, скорее всего, возникают из-за недопонимания между инженерами, руководителями проектов, продажами и маркетологами. Где-то в этой цепочке распространения детали опускаются, а конечный пользователь остается в неведении.

Предложены правила решения этих проблем. Некоторые в политике данных предложили публикацию данных. Если алгоритм использует неизвестную информацию, чтобы сделать выводы, возможно, его пользователи должны знать априорную информацию. Технологические компании будут жаловаться, что это подрывает конкурентное преимущество.

Альтернативным решением является создание стандарта для отчетов о доверии. Могут быть реализованы законы, утверждающие, что сами алгоритмы не могут принимать решения на основе определенных показателей уверенности. Они могут сообщать метрики пользователям, оставляя человека с полномочиями. Подобные правила установят более высокие стандарты для технологических компаний. Законы могут иметь смысл применять в сценариях повышенного риска, таких как уголовное преступление и защита, но не должны применяться повсеместно. Некоторые захватывающие технологии, такие как автономное вождение автомобилей, основаны на принятии решений на основе оценок уверенности.

Регулировать умный

Учитывая вышеизложенное, важно обсудить, почему полный запрет таких детских технологий опасен. В прошлом мы демонизировали и наказывали технологии на ранних стадиях, за что платим цену сегодня. Ядерная энергия - яркий тому пример. Ядерная технология заработала ужасную репутацию из-за своего использования в оружии, и это справедливо. Не помогли и инциденты в Чернобыле и Фукусиме. Тем не менее, в современную эпоху ядерная энергия на самом деле может быть нашим лучшим шансом сократить потребление ископаемого топлива и обратить вспять последствия изменения климата. К сожалению, предложение такой технологии стало политическим самоубийством и сейчас игнорируется.

Федеральное изгнание марихуаны - еще один пример. После минимальных исследований препарат был объявлен вне закона в США. Сейчас мы узнаем о некоторых преимуществах этого препарата для здоровья, однако легализация и прогресс были встречены скептическим сопротивлением.

Если мы будем действовать опрометчиво в отношении технологии распознавания лиц, мы не знаем, какую область науки и исследований мы разрушаем. Возможно, существуют медицинские приложения, которые помогут выявить дефекты на лице и выбросы, которые иначе невозможно было бы обнаружить. Некоторые компании внедряют системы распознавания лиц в автомобилях для повышения внимательности и безопасности водителя. Эта область все еще остается неизученной.

Запрет технологии опасен не только с точки зрения научного любопытства, но и с точки зрения законодательства. Когда нормативные акты введены в действие, практики можно будет тестировать, изучать, а нормативные акты можно дальше редактировать. Петлевые отверстия можно обнаружить и закрыть. Жесткие ограничения можно переоценить. Когда вводится полный запрет, любая попытка его отмены может оказаться практически невозможной.