Горячая новость: Как фобии мешают нам жить

Как коронавирус и протесты сломали искусственный интеллект и почему это хорошо

  • 13-11-2020
  • комментариев

ЯНЧЖОУ, КИТАЙ - 28 апреля 2020 г. - Посетители посещают выставочный центр цифровой экономики Цзянду, город Янчжоу, провинция Цзянсу, Китай, 28 апреля 2020 г. Открывается конференция по развитию цифровой экономики Китая в Янчжоу (Цзянду) 2020 года. Costfoto / Barcroft Media через Getty Images

До февраля 2020 года Amazon считал, что алгоритмы, управляющие всем, от места на полках до продвигаемых продуктов, практически невозможно сломать. В течение многих лет они использовали простой и эффективный искусственный интеллект (ИИ) для прогнозирования моделей покупок и планировали объемы своих запасов, маркетинг и многое другое, исходя из простого вопроса: кто что обычно покупает?

Тем не менее, когда COVID-19 охватил весь земной шар, они обнаружили, что технология, на которую они полагались, была намного более нестабильной, чем они думали. По мере роста продаж дезинфицирующих средств для рук, масок для лица и туалетной бумаги такие сайты, как Amazon, обнаружили, что их автоматизированные системы стали практически бесполезными, поскольку модели искусственного интеллекта пришли в полный беспорядок.

В другом месте использование ИИ во всем, от журналистики до полицейской деятельности, ставится под сомнение. Поскольку в последние недели в США возникла потребность в давно назревших действиях по борьбе с расовым неравенством, компании столкнулись с проблемой использования технологий, которые регулярно демонстрируют иногда катастрофические этнические предубеждения.

Microsoft недавно была привлечена к ответственности после того, как алгоритмы искусственного интеллекта, которые она использовала на своем новостном веб-сайте MSN, запутали представительниц смешанной расы из группы Little Mix, и многие компании теперь приостановили продажу технологий распознавания лиц правоохранительным органам после того, как стало известно, что они значительно менее эффективны при идентификации изображений представителей меньшинств, что приводит к потенциально неточным расследованиям со стороны полиции.

«В прошлом месяце стало очевидным множество проблем расовой и экономической несправедливости, - говорит Редиет Абебе, новый доцент кафедры информатики в Калифорнийском университете в Беркли. «Исследователи искусственного интеллекта пытаются понять, какой должна быть наша роль в устранении системного расизма, экономического угнетения и других форм несправедливости и дискриминации. Это дало возможность более глубоко осмыслить наши исследовательские практики, чьи проблемы мы считаем важными, кому мы стремимся служить, на кого мы ориентируемся и как мы проводим наши исследования ».

СМОТРИ ТАКЖЕ: искусственный интеллект используется в юридической профессии

От пандемии COVID-19 до протестов Black Lives Matter 2020 год стал годом глобальной непредсказуемости и социальных потрясений. Технологии были решающим средством осуществления изменений и обеспечения безопасности людей, от тестирования и отслеживания приложений до широкого использования социальных сетей для распространения информации о протестах и петициях. Но при этом ИИ машинного обучения иногда не справлялся со своими обязанностями, отставал от быстрых изменений в социальном поведении и не справлялся с тем, что должен делать лучше всего: оценивать вводимые в него данные и принимать разумные решения.

Проблема часто заключается не в самой технологии, а в нехватке данных, используемых для построения алгоритмов, а это означает, что они не могут отражать широту нашего общества и непредсказуемый характер событий и человеческого поведения.

«Большинство вызовов ИИ, которые были выявлены в результате пандемии, связаны со значительными изменениями в поведении людей и, следовательно, с точностью моделей ИИ человеческого поведения», - говорит Дуглас Фишер, доцент кафедры информатики в Университете Вандербильта. . «Прямо сейчас системы искусственного интеллекта и машинного обучения являются дугами, так что, хотя текущая система машинного обучения может делать точные прогнозы поведения в условиях, в которых они обучались, система не имеет более широких знаний».

Последние несколько месяцев высветили необходимость в расширении нюансов ИИ - короче говоря, нам нужны технологии, которые могут быть более человечными. Но в обществе, которое все чаще экспериментирует с использованием ИИ для выполнения таких важных задач, как выявление подозреваемых в совершении преступлений или управление цепочками поставок продуктов питания, как мы можем гарантировать, что модели машинного обучения достаточно осведомлены?

«Большинство проблем, связанных с машинным обучением за последние месяцы, возникло в результате изменения данных, вводимых в алгоритмы», - объясняет Касия Боровска, управляющий директор консалтинговой компании Brainpool.ai в области ИИ. «В наши дни мы часто видим компании, создающие алгоритмы, которые практически выполняют свою работу. Они ненадежны, не масштабируемы и склонны к предвзятости ... это часто происходило из-за небрежности или попытки сократить расходы - у предприятий есть четкие цели, и они часто связаны с экономией денег или простой автоматизацией ручных процессов, а часто и с этической стороной - устранение предубеждений или подготовка к изменениям - не рассматривается как основная цель ».

данные искусственного интеллекта Pixabay / Герд Альтманн

Касия считает, что и предубеждения в алгоритмах искусственного интеллекта, и неспособность адаптироваться к изменениям и кризисам проистекают из одной и той же проблемы и представляют возможность для создания более совершенных технологий в будущем. Она утверждает, что, инвестируя в создание более совершенных алгоритмов, можно устранить такие проблемы, как предвзятость и неспособность предсказать поведение пользователей во время кризиса.

Хотя компании, возможно, раньше не хотели вкладывать время и деньги в создание наборов данных, которые делали бы гораздо больше, чем минимум, необходимый для работы, она надеется, что сочетание COVID и повышение осведомленности о предвзятостях машинного обучения может стать тем толчком, который им нужен. .

«Я думаю, что многие компании, которые столкнулись с проблемой машинного обучения, теперь дважды подумают, прежде чем пытаться развернуть решение, которое не является надежным и не было достаточно протестировано», - говорит она. «Надеюсь, что отказ некоторых систем ИИ побудит специалистов по обработке данных, а также корпорации инвестировать время и ресурсы в фоновую работу, прежде чем приступить к разработке решений ИИ… мы увидим, что больше усилий будет направлено на обеспечение надежности и надежности продуктов ИИ. без предвзятости ».

Неудачи ИИ, несомненно, проблематичны, но, возможно, они предоставляют возможность построить более разумное будущее. В конце концов, в последние месяцы мы также увидели потенциал ИИ с новым программным обеспечением для предотвращения вспышек заболеваний и моделями глубокого обучения, которые помогают медицинскому сообществу прогнозировать лекарства и методы лечения и разрабатывать прототипы вакцин. Эти успехи демонстрируют силу сочетания интеллектуальных технологий с вмешательством человека и показывают, что с помощью правильных данных ИИ способен вызвать серьезные позитивные изменения.

В этом году был раскрыт весь спектр искусственного интеллекта, выявив проблемы, с которыми сталкиваются разработчики, а также потенциал огромных преимуществ. Создание наборов данных, охватывающих самый широкий спектр человеческого опыта, может быть сложной задачей, но это также сделает машинное обучение более справедливым, более полезным и гораздо более мощным. Это возможность, которую игроки на поле должны стремиться загнать в угол.

комментариев

Добавить комментарий