И что Вашингтон делает для этого за кулисами.
Авторы: Оливия Оландер, Маккензи Уилкс, Кэти О’Доннел, Даниэль Пэйн и Рут Ридер
«Есть вещи, для которых мы можем использовать ИИ, которые действительно принесут пользу людям, но есть и множество способов, которыми ИИ может навредить людям и увековечить неравенство и дискриминацию, которые мы наблюдали на протяжении всей нашей истории» — говорит Лиза Райс, президент и генеральный директор Национального альянса за справедливое жилье.
В то время как ключевые федеральные регулирующие органы заявили, что существовавшие десятилетиями антидискриминационные законы и другие меры защиты могут быть использованы для регулирования некоторых аспектов искусственного интеллекта, Конгресс с трудом продвигает предложения о новых системах лицензирования и ответственности для моделей ИИ, а также требования, направленные на обеспечение прозрачности и безопасности детей.
«Среднестатистический обыватель не знает, каковы границы этой технологии» — говорит Апостол Васильев, руководитель исследовательской группы, занимающейся вопросами искусственного интеллекта в Национальном институте стандартов и технологий. «Каковы возможные пути для сбоев и как эти сбои могут повлиять на вашу жизнь?»
Вот как ИИ уже влияет на …
То, как люди устраиваются на работу…
ИИ уже повлиял на прием на работу, особенно у работодателей, использующих инструмент видеособеседования.
По словам Линдси Зулоага (Lindsey Zuloaga), главного специалиста по анализу данных в компании HireVue, специализирующейся на подборе персонала с помощью ИИ и известной своими инструментами для проведения видеоинтервью, в наши дни технологии найма не просто проверяют ключевые слова в резюме — они используют мощные инструменты обработки языка для анализа ответов кандидатов на вопросы письменного и видеоинтервью.
По словам Зулоаги, может наступить момент, когда люди, проводящие собеседования, станут устаревшими для некоторых видов работ, особенно в отраслях с высокой текучестью кадров, таких как фастфуд.
Комиссия по обеспечению равных возможностей в сфере занятости, небольшое агентство, которому поручено следить за соблюдением гражданских прав на рабочем месте, внимательно следит за развитием технологий. Она выпустила руководство, разъясняющее, что антидискриминационные законы по-прежнему действуют, и работодатели могут быть привлечены к ответственности за их нарушение, даже если ИИ помогает принимать решения. Однако новых нормативных актов она не выпустила.
В прошлом году Нью-Йорк ввел требование о прозрачности и ежегодных проверках на предмет потенциальной предвзятости при принятии автоматизированных решений о найме, хотя форма этих проверок еще уточняется.
Председатель EEOC Шарлотта Берроуз ранее заявила POLITICO, что вопрос о принятии правил в ее ведомстве все еще находится на рассмотрении; однако член комиссии от республиканцев Кит Сондерлинг заявил, что такие вопросы, как раскрытие информации об искусственном интеллекте при приеме на работу, могут быть оставлены на усмотрение работодателей и органов власти штатов и местных органов власти.
В январе главный юрисконсульт агентства Карла Гилбрайд сообщила журналистам, что в рамках плана правоприменения на ближайшие несколько лет ее ведомство специально ищет случаи дискриминации с использованием искусственного интеллекта. Ссылаясь на предыдущее руководство агентства, она сказала, что потенциальные зоны риска включают в себя ИИ, дискриминирующий соискателей с ограниченными возможностями.
«Это развивающийся ландшафт», — сказала Гилбрайд. «Не только EEOC, но и вся страна и мир в целом все еще приспосабливаются к этому».
… и то, как сохраняют её.
В то время как генеративный искусственный интеллект прославился как сложный помощник для многих типов работников, лидеры профсоюзов обеспокоены тем, не превратится ли он в инструмент для инвазивного наблюдения за производительностью труда.
Кроме того, работодатели могут использовать алгоритм, чтобы отменить решения работников на месте. Президент AFL-CIO Лиз Шулер сказала в интервью, что отели уже видят, как технология используется подобным образом: уборщицы, возможно, хотят навести порядок в номерах, а алгоритм может приказать им «иди конкретно сюда», чтобы отдать предпочтение более высокооплачиваемым клиентам.
По словам Шулера, частичным решением может стать создание государственного регулятора новых технологий ИИ, аналогичного FDA для пищевых продуктов и лекарств. По ее словам, не помешала бы и федеральная поддержка обучения и переобучения работников.
Министерство труда, возглавляемое Байденом, заявило, что хочет направлять развитие ИИ таким образом, чтобы учитывать мнение работников.
То, как учат детей…
В то время как ChatGPT будоражит академические круги, вызывая опасения по поводу списывания и способов его пресечения, искусственный интеллект начинает помогать ученикам и учителям школ в решении повседневных задач и обучении.
Некоторые школы используют эту технологию для повышения успеваемости учащихся с помощью репетиторства на базе ИИ. Например, в школах Ньюарка в штате Нью-Джерси в экспериментальном режиме работает чат-бот Khan Academy с искусственным интеллектом Khanmigo.
Другие школьные округа используют искусственный интеллект для развития творческих способностей учащихся. В объединенном школьном округе Марикопа к югу от Феникса, штат Аризона, некоторые школы используют Canva и другие платформы искусственного интеллекта для создания изображений, помогающих в работе над художественными проектами и редактировании фотографий.
«Идея в том, чтобы они использовали его для творчества» — говорит Кристин Дикинсон, директор по технологиям в округе Марикопа. «Я знаю, что они часто используют его дома, но наши учителя также очень внимательно относятся к имеющимся у них инструментам, чтобы убедиться, что все ученики создают свои собственные результаты, а не используют его только для замены реального продукта».
…на усмотрение округов.
Школы обращаются к правительствам своих штатов и образовательным группам за советом, как лучше использовать искусственный интеллект в классе, преодолевая множество дилемм, связанных с неприкосновенностью частной жизни и справедливостью, которые может создать эта технология.
В конечном итоге решения о том, как использовать искусственный интеллект в классе, будут принимать школьные округа. Но федеральные, государственные и местные чиновники четко заявили, что ИИ должен просто помогать в преподавании и обучении, а не заменять педагогов.
«Многие школьные округа и преподаватели очень рано начали интересоваться тем, как мы собираемся использовать это как возможность, но и как предостережение» — сказала директор департамента образования штата Орегон Шарлин Уильямс об искусственном интеллекте. Но «ничто и никогда не заменит учителя и важность контроля со стороны взрослых».
То, как покупатели жилья ориентируются на рынке недвижимости…
Поскольку искусственный интеллект хорошо справляется с анализом сложных данных, он способен перестроить жилищную индустрию и — подобно найму — закрепить человеческие предубеждения, которые формировали американскую практику покупки жилья на протяжении многих поколений.
Zillow приводит свой инструмент «Zestimate», который рассчитывает стоимость дома, в качестве примера того, как искусственный интеллект может вооружить покупателей и продавцов жилья дополнительной информацией при принятии сложных финансовых решений.
«Мы используем искусственный интеллект, чтобы понять предпочтения пользователей и помочь им найти подходящий дом» — говорит Ондрей Линда, директор по прикладным научным исследованиям Zillow. «Как помочь людям представить себя в том или ином доме? ИИ облегчает понимание недвижимости, помогает принять правильное решение и спланировать все наперед».
Но алгоритмы не беспристрастны, предупреждают группы по защите гражданских прав: они получают данные из общества, где наследие «редлайнинга» — расистской практики использования выданных правительством карт, чтобы отговорить банки от выдачи кредитов в черных кварталах, — отражается в информации о расположении школ, домов и продуктовых магазинов спустя десятилетия после того, как эта практика была официально запрещена.
Райс, представитель Национального альянса за справедливое жилье, говорит, что ее беспокоит, что модели отбора арендаторов, включающие искусственный интеллект, усложняют для потребителей возможность прозондировать решение, которое может отказать им в жилье.
«За этими системами очень мало прозрачности, поэтому людям отказывают в возможности получить жилье, и они не знают, почему» — сказала Райс.
…поскольку новые инструменты привлекают внимание федералов.
Алгоритмы уже нарушали федеральный закон о справедливом жилье, согласно расследованию Министерства жилищного строительства и городского развития.
Компания Meta в 2022 году заключила соглашение с Министерством юстиции после того, как HUD заявило, что алгоритмы Facebook нарушают закон, позволяя рекламодателям направлять объявления о продаже жилья пользователям на основе расы, пола и других факторов. Компания, которая не признала никаких правонарушений в рамках урегулирования, согласилась прекратить использование рекламного инструмента и пересмотреть свои методы доставки объявлений о жилье в рамках урегулирования.
Жилищное строительство — одна из областей, где федеральные агентства вплотную занялись вопросом разработки правил в отношении искусственного интеллекта. Опасаясь того, что искусственный интеллект может кодифицировать человеческие предубеждения, Бюро финансовой защиты потребителей, Федеральное агентство по финансированию жилищного строительства и другие регулирующие органы предложили в июне ввести правило, регулирующее использование искусственного интеллекта при оценке стоимости жилья.
Затем в сентябре CFPB выпустило руководство с подробным описанием шагов, которые должны предпринять кредиторы, чтобы гарантировать, что они указывают «конкретные и точные причины» для отказа в кредите, когда полагаются на ИИ или другие сложные алгоритмы.
А октябрьский указ президента Джо Байдена предписывает Федеральному агентству жилищного финансирования рассмотреть вопрос о том, чтобы обязать федеральных ипотечных финансистов оценивать свои модели андеррайтинга на предмет дискриминации и использовать автоматизацию таким образом, чтобы свести к минимуму предвзятость.
То, как врачи взаимодействуют с пациентами…
ИИ все чаще становится вторым пилотом для врачей по всей стране.
Когда пациенту делают рентген, системы искусственного интеллекта помогают врачам расшифровывать снимки, а некоторые из них, согласно последним исследованиям, могут делать это не хуже человека. Их уже используют для оценки и повышения эффективности работы рентгенологов.
Помимо визуализации, новые системы искусственного интеллекта помогают врачам разобраться в своих записях, беседах с пациентами и результатах анализов. Они используются для того, чтобы предложить врачам вероятные причины недомоганий пациента, хотя иногда эти технологии обходят стороной правительственные правила, которые тщательно проверяют новые медицинские приборы и лекарства.
Онколог из Медицинского центра Калифорнийского университета Уэйн Брисбен использует искусственный интеллект, чтобы предсказать, как проявляется рак простаты в организме человека.
«Рак простаты — коварное заболевание» — сказал он в интервью. Опухоли растут в нескольких местах и расширяются таким образом, что их можно не заметить при визуализации.
«Это как осьминог или краб. Есть большое тело, но от него отходят маленькие щупальца. Поэтому определить границы, где вы собираетесь проводить люмпэктомию или лечение, может быть непросто», — говорит Брисбен.
По его словам, искусственный интеллект значительно упрощает планирование операции.
Управление по санитарному надзору за качеством пищевых продуктов и медикаментов применяет экспериментальный подход к регулированию искусственного интеллекта в медицинских устройствах, в основном выпуская стратегические планы и методические рекомендации.
Самая большая проблема регулирования искусственного интеллекта заключается в том, что он развивается с течением времени, и компании не хотят повторно подавать заявку на получение разрешения FDA для продвижения своих технологий на рынок. В результате в апреле 2023 года FDA опубликовало проект руководства, в котором говорится о том, как компании должны раскрывать информацию о планируемых обновлениях своих алгоритмов в своих первоначальных заявках. На данный момент агентство одобрило около 700 таких устройств.
Тем временем Управление национального координатора Министерства здравоохранения и социальных служб в конце прошлого года выпустило правило прозрачности данных, требующее от разработчиков ИИ обеспечить определенный уровень прозрачности данных для систем здравоохранения, чтобы они могли убедиться в безопасности и справедливости технологии.
Указ Байдена об ИИ также поручает HHS создать целевую группу по ИИ, программу безопасности и политику обеспечения безопасности.
…и кто оплачивает счета.
Даже больше, чем медицинская практика, ИИ делает успехи в переваривании бумажной работы, которая стала определять 4 триллиона долларов в медицинских счетах, которые американцы получают каждый год.
Компании экспериментируют с новыми инструментами, которые могут произвести революцию в том, как формируются и обрабатываются счета между поставщиками услуг и страховщиками. Во всем секторе на карту поставлены огромные суммы денег — не только из-за потенциальной экономии труда и времени, но и потому, что технологии позволяют более эффективно проверять счета и увеличивают доходы.
Сторонники технологии говорят, что это означает сокращение времени обработки заявлений пациентов, что сделает медицинскую помощь более доступной.
Но скептики опасаются, что ИИ может снизить прозрачность и подотчетность в принятии решений как поставщиками, так и страховщиками.
Компании UnitedHealthcare и Cigna столкнулись с судебными исками, обвиняющими их в использовании искусственного интеллекта и других сложных формул для систематического отказа в обслуживании.
В жалобе против Cigna утверждается, что компания использовала алгоритм, чтобы отмечать любое лечение пациента, которое не входило в список допустимых методов лечения при данном диагнозе. Алгоритм выносил решение по заявлению пациента, а врач просматривал и подписывал это заключение, тратя на такие отказы всего одну секунду, сообщает ProPublica.
UnitedHealthcare обвиняют в использовании собственного алгоритма для урезания расходов пациентов на лечение. В иске также утверждается, что алгоритм имеет 90-процентный процент ошибок — утверждение, которое, если оно верно, имеет серьезные последствия для 52,9 миллиона американцев, обслуживаемых United.
Компания Cigna выступила с заявлением, в котором говорится, что ее технология не является искусственным интеллектом и используется только при работе с низкозатратными заявлениями. Она также заявила, что не отказывает в обслуживании, поскольку проверка происходит уже после лечения, и большинству заявителей не приходится оплачивать дополнительные расходы, даже если заявка отклонена.
UnitedHealth Group также заявила, что ее инструмент прогнозирования naviHealth не является генеративным ИИ и не используется для принятия решений о страховом покрытии. «Решения о неблагоприятном покрытии принимаются медицинскими директорами и соответствуют критериям покрытия Medicare для планов Medical Advantage», — говорится в заявлении представителя компании.
Но, как и в случае с жильем, есть опасения, что алгоритмы могут относиться к людям не одинаково. В 2021 году в Нью-Йорке была создана Коалиция по борьбе с расизмом в клинических алгоритмах, чтобы заставить системы здравоохранения отказаться от использования предвзятых методик, поскольку ИИ, использующий наборы данных с недостаточным разнообразием, может давать искаженные результаты.
Однако в разных отраслях усилия по снижению предвзятости ИИ путем удаления определенной информации могут также сделать эти системы менее надежными, говорит Вассилев из NIST.
По его словам, определение правильного баланса также может зависеть от отрасли, и на данный момент эта чаша весов находится в стороне без вмешательства государства.
«Нельзя получить все», — сказал он. «Вы должны пойти на компромисс и научиться жить с определенным бюджетом риска на любом из этих направлений».
Оригинал: Politico