2024/04/15 17:49:05

Риски использования искусственного интеллекта

Развитие технологий искусственного интеллекта в перспективе может нести не только пользу, но и вред. Потенциальным рискам применения ИИ посвящена данная статья.

Содержание

Основная статья: Искусственный интеллект

Преимущества и недостатки ИИ в сравнении с человеком

Человек против ИИ – какая предельная глубина интеграции и какая способность замещения человека ИИ?

Вопрос крайне важный, писал Spydell Finance в 2023 г, т.к. от этого зависит способность ИИ интегрироваться в человеческие сферы деятельности, а следовательно, фундаментально влиять на структуру рынка труда со всеми вытекающими последствиями.

Какие фундаментальные преимущества ИИ над человеком?

  • Неограниченный объем памяти и скорость накопления информации. Скорость обучения человека крайне низка, но даже обучившись, человек ежедневно теряет навыки и информацию, т.е. требуется постоянная концентрация на информационной единице (объекте исследований) и поддержка навыков. ИИ достаточно обучиться один раз, чтобы держать информацию в прямом доступе.

  • Скорость обработки информации. Параллельная обработка неограниченных массивов информации позволяет практически неограниченно масштабировать вычислительные мощности, где математические задачи могут решаться в миллиарды раз быстрее, чем средний человек. Для чтения и осмысления 5 млн знаков у среднего человека потребуется около 3500 минут, тогда как ИИ может управиться в пределах доли секунды.

Если у человека не хватит жизни, чтобы познакомиться со всеми произведениями мировой литературы (даже основными), то для ИИ это мгновения. Даже прочитав литературу, человек уже забудет, что было в предыдущей книге (по крайней мере, основные детали), тогда как ИИ помнит все. За пренебрежительно малый временной интервал, ИИ может изучить всю научную литературу по физике, химии, астрономии, биологии, истории и т.д. Не просто изучить, но и в первичном виде помнить до мельчайших деталей.

  • Точность и объективность. ИИ не ошибается, по крайней мере, если не ошибается вшитый алгоритм функционирования. Человек ошибается постоянно из-за ограниченных способностей удержания, обработки и интерпретации информации. Человек склонен к предубеждениям, ИИ воспроизводит информацию по принципу «как есть».

  • Информационная трансмиссия. Выход на правильный вектор исследования одним из сегментов ИИ моментально транслируется на всю подсеть ИИ, что расширяет знания одного сегмента на всю подсеть сразу. Открытие одного человека или группы ученых невозможно моментально расширить на заинтересованный круг лиц. ИИ можно масштабировать, копировать и клонировать, но нельзя пересадить знания одного человека в другого.

  • Отсутствие усталости. Производительность и эффективность человека падает по мере выработки ресурса, как в пределах дня, так и возрастом. ИИ может работать 24 на 7 с паритетной эффективностью стабильно и без провалов (до тех пор, пока работают серверы). Человек стареет, когнитивные функции ослабевают, тогда как у ИИ только увеличиваются.

  • Непрерывное обучение. Человеку необходимо менять род деятельности, чтобы поддерживать необходимый эмоциональный баланс, тогда как ИИ непрерывно расширяет свое могущество.

  • Отсутствие эмоциональности. ИИ не подвержен перепадам настроения, ИИ не требует повышения зарплаты, уважения, не требует справедливости и не рефлексирует об уровне свободы, ИИ не чувствует ни жалости, ни боли, ни усталости, не плетет интриг, заговоров и не пытается соскочить с рабочего процесса, т.к. «внезапно появились неотложные дела».

Минусов немного, но они есть:

  • Сложность в понимании контекста информации (исправимо со временем);

  • Отсутствие эмпатии, что формирует этические проблемы, если в пользу ИИ дать слишком много прав;

  • Ограниченное пространство для творчества и инноваций из-за фундаментальных встроенных ограничений на понимание того «что такое хорошо, а что такое плохо».

ИИ способен реплицировать успешные творческие опыты на основе анализа паттернов и предпочтений, но способен ли ИИ создавать принципиально новые продукты? Пока нет.Игорь Лейпи, ГК Softline: Объем поставок российских операционных систем в ближайшие годы увеличится как минимум вдвое

Способен ли ИИ к неупорядоченной интеграции и принятию решений, где важным элементом может быть интуиция? Сейчас нет.

Ограничений много, но на 2024 год пока баланс сильно в пользу ИИ.

Как роботы заменяют людей

Основная статья: Как роботы заменяют людей

2024

Минэкономразвития создает комиссию по расследованию ИИ-инцидентов

В середине апреля 2024 года появилась информация о том, что Минэкономразвития РФ создает специальную комиссию по расследованию инцидентов, связанных с использованием искусственного интеллекта. Новая структура также будет регламентировать права собственности на результаты интеллектуальной деятельности, полученные с применением ИИ.

Как сообщает газета «Ведомости», ссылаясь на информацию, предоставленную представителями Минэкономразвития, изменения вносятся в законопроект «Об экспериментальных правовых режимах (ЭПР) в сфере цифровых инноваций» (258-ФЗ). В общей сложности подготовлены более 20 поправок. В частности, речь идет о сокращении перечня предоставляемых документов при подаче инициативного предложения по ЭПР и уменьшении сроков согласования благодаря оптимизации процедур.

Минэкономразвития РФ создает специальную комиссию по расследованию инцидентов, связанных с использованием искусственного интеллекта

Идея состоит в том, что создать ЭПР можно будет быстрее. Гендиректор ассоциации разработчиков и пользователей ИИ в медицине «Национальная база медицинских знаний» Борис Зингерман отмечает, что в случае введения страхование инцидентов, связанных с ЭПР, оценкой страховых случаев будет заниматься специальная комиссия.

«
ЭПР мало, и процесс их рассмотрения идет медленно, потому что ведомства боятся этих экспериментов исходя из того, что могут возникнуть какие-то проблемы. Чтобы ЭПРы двигались быстрее, пытаются придумать механизм, с помощью которого можно будет защититься от таких инцидентов, но, как это будет работать на практике, не совсем понятно, — говорит Зингерман.
»

Вместе с тем сенатор Артем Шейкин подчеркивает, что участник ЭПР должен будет вести реестр лиц, которые связаны с технологией и которые являются ответственными при использовании решений, созданных с применением ИИ. В случае инцидента с ИИ субъект ЭПР в течение двух рабочих дней обязан предоставить комиссии документы, необходимые для расследования причин и установления круга ответственных. Далее комиссия займется подготовкой заключения о причинах происшедшего, обстоятельствах, указывающих на виновность лиц, а также о необходимых мерах по возмещению вреда.[1]

Искусственный интеллект начали применять для подделки документов

В интернете появился сайт OnlyFake, с помощью которого любой пользователь может создать фотографию поддельных документов, говорится в сообщении Известий. При этом данных о создателях сервиса нигде нет. Об этом 13 февраля 2024 года сообщила пресс-служба депутата ГосДумы РФ Антона Немкина.

Сервис функционирует на основе нейросети и может создавать поддельные фотографии как паспорта, так и водительских прав. Генерация изображения занимает минуты, при этом стоимость услуги относительно невысока – всего порядка 1,4 тысяч рублей. На февраль 2024 года с помощью нейросети можно получить фотографии паспортов и водительских прав 26 государств, в том числе России, США, Великобритании, Австралии, Канады и ряда стран Евросоюза.

«
Для генерации изображения достаточно выбрать шаблон, написать необходимую информацию и загрузить фото. Затем ИИ обрабатывает запрос и за короткое время создает документ, который для большей убедительности можно замаскировать под «неудачное» фото, – рассказал руководитель компонента R-Vision Endpoint компании R-Vision Петр Куценко.
»

Фотографии документов, подделанных с помощью нейросетей, могут стать опасным инструментом в руках злоумышленников. Например, таким образом можно попробовать записать на имя пользователя сайт, распространяющий противоправную информацию, взять небольшой кредит (в случае перехвата контроля над каналами коммуникации жертвы), оформить SIM-карту и даже попробовать зарегистрировать фирму-однодневку, предупреждают эксперты.

По данным Известий, на 13 февраля 2024 года сервис недоступен. Так, открытие интернет-страницы сопровождается надписью – «Site is down. Everything will be restored soon» («Сайт не работает. Скоро всё будет восстановлено»).

Аналоги сервиса OnlyFake давно есть на рынке, отметил депутат.

Парламентарий также отметил, что отсутствие регулирования искусственного интеллекта может привести к серьезным вызовам в будущем.

«
При этом необходим баланс. Избыточное регулирование может привести к тому, что развитие технологии если не остановится, то значительно замедлится. С этим уже столкнулись некоторые страны. Правовая рамка должна быть гибкой, но ограничивающей использование технологии в противоправных целях, – добавил он.
»

Уже идет активная проработка вопроса о маркировке контента, созданного при помощи ИИ.

2023

В ЦБ России перечислили главные риски внедрения искусственного интеллекта

В конце сентября 2023 года в Банке России назвали основные риски при внедрении искусственного интеллекта. Главными среди них, как следует из презентации статс-секретаря - зампреда ЦБ Алексея Гузнова, являются:

  • Вероятность возникновения монополизации среди крупных игроков технологий. Для поддержки ИИ необходимы большие инвестиции для вычислительных мощностей, инфраструктур обработки данных, подготовки профессиональных кадров и так далее. Гузнов отметил, что результат при использовании ИИ смогут получить только компании, которые имеют возможность «вложить», что станет причиной «перекосов» на рынке;
  • Риск утечки информации, которая используется для обучения ИИ;
  • Риск принятия предвзятых или дискриминационных решений на фоне того, что модель ИИ предусматривает выдачу решений, основываясь на определенных факторов и внесенных алгоритмов. «По большей степени это не наша проблема. Она сейчас осмысляется как философская, если хотите, проблема сочетания человеческого интеллекта и искусственного», — заявил Гузнов. Так он отметил, что в рамках особой работы ИИ могут возникнуть проблемы при общении искусственного интеллекта с потребителями.

ЦБ назвал основные риски внедрения ИИ

Банк России до конца 2023 года планирует выпустить консультативный доклад по искусственному интеллекту, в котором затронет вопросы применения и регулирования ИИ в сфере финансов, говорила в начале сентября 2023-го первый зампред ЦБ Ольга Скоробогатова. Банк России также намерен создать центр компетенций по ИИ. Регулятора в первую очередь интересует вопрос безопасности данных и операций клиентов. И уже на основе общественных обсуждений ЦБ будет принимать решение о необходимости регулирования ИИ.

По словам Алексея Гузнов, к концу сентября 2023 года в вопросе регулирования применения искусственного интеллекта ЦБ не предполагает каких-то радикальных решений, но «вопрос стоит».[2]

Минэкономразвития разработало механизм защиты от причиненного технологиями ИИ вреда

В декабре 2023 года Министерство экономического развития РФ сообщило о разработке механизма защиты от причиненного искусственным интеллектом вреда. Поправки внесены в закон «Об экспериментальных правовых режимах в сфере цифровых инноваций».

Участники экспериментальных правовых режимов (ЭПР) в сфере инновационных разработок будут обязаны оформлять страхование, предусматривающее ответственность за негативные эффекты технологии ИИ.

МЭР разработало механизм защиты от причиненного искусственным интеллектом вреда
«
Апробация даже такого сложного инструмента, как ИИ, была безопасной и последовательной, чтобы можно было зафиксировать, в каких отраслях, в каких бизнес-процессах его можно применять эффективно и какие при этом правовые механизмы могут это обеспечить, — отметили РБК в пресс-службе Минэкономразвития.
»

Издание перечисляет основные нововведения, инициированные Минэкономразвития:

  • субъекты экспериментального правового режима (в основном это юрлица, но также могут быть и госорганы, в том числе региональные) будут обязаны вести реестр лиц, вступивших с ним в правоотношения, и в этом реестре должна будет содержаться информация об ответственных за использование решений, основанных на ИИ. Кроме того, законопроектом предлагается обязать компании вести реестр результатов интеллектуальной деятельности, созданных с применением ИИ, с указанием их правообладателя;
  • в реестре будет отображаться информация о лицах, непосредственно работающих с технологиями ИИ, которые «в случае возникновения нештатных ситуаций будут нести ответственность за неправильную эксплуатацию таких технологий», отмечается в сопроводительных материалах к поправкам;
  • участникам «цифровых песочниц» будет предписано страховать гражданскую ответственность за причинение вреда жизни, здоровью или имуществу других лиц в результате использования ИИ. Программа экспериментального режима (акт спецрегулирования с условиями режима) должна будет содержать требования к условиям такого страхования — в том числе к минимальному размеру страховой суммы, перечню рисков и страховых случаев.[3]

Известный криптограф предупредил о риске использования ИИ для массового шпионажа

Известный американский криптограф Брюс Шнайер[4] опубликовал в своем блоге запись, озаглавленную «ИИ и массовый шпионаж». В ней он объясняет разницу между слежкой (сбором данных о человеке) и шпионажем, который направлен на выяснение контекста тех или иных действий каждого отдельного человека.

«
Если бы я нанял частного детектива, чтобы шпионить за вами, этот детектив мог бы спрятать жучок в вашем доме или машине, прослушивать ваш телефон и слушать, что вы говорите, – пояснил свою мысль Брюс Шнайер[5]. – В конце я бы получил отчет обо всех разговорах, которые у вас были, и о содержании этих разговоров. Если бы я нанял того же частного детектива, чтобы он установил за вами слежку, я бы получил другой отчет: куда вы ходили, с кем разговаривали, что покупали, что делали
»

По его словам интернет упростил слежку за человеком, и отказаться от нее практически невозможно, поскольку большая часть деятельности человека в современном мире так или иначе оставляет следы в интернете или различных базах данных. Причем за счет использования технологий больших данных появилась возможность анализировать накопленную информацию и делать выводы.

«
Массовая слежка коренным образом изменила природу слежки, – считает Брюс Шнайер. – Поскольку все данные сохраняются, массовая слежка позволяет людям вести наблюдение в прошлом и даже не зная, на кого конкретно вы хотите нацелиться. Скажите, где этот человек был в прошлом году. Перечислите все красные седаны, которые проехали по этой дороге за последний месяц. Перечислите всех людей, которые приобрели все ингредиенты для бомбы-скороварки в прошлом году. Найдите мне все пары телефонов, которые двигались навстречу друг другу, выключились, а затем снова включились через час, удаляясь друг от друга (признак тайной встречи)
»

Американский криптограф Брюс Шнайер со своей книгой

Однако до недавнего времени шпионить за всеми с помощью технологий было сложно, поскольку для понимания контекста тех или иных действий приходилось привлекать человека, который разбирался в последовательности событий и делал вывод об их целях. С привлечением технологий искусственного интеллекта это ограничение может быть снято – ИИ в состоянии самостоятельно построить непротиворечивую картину для последовательности действий человека и предположить ее цель. Поэтому использование ИИ для анализа накопленной в различных базах данных информации позволит организовать массовый шпионаж.

«
Массовый шпионаж изменит природу шпионажа, – предупреждает известный криптограф. – Все данные будут сохранены. Все это будет доступно для поиска и понятно для массового использования. Скажите, кто говорил на ту или иную тему в прошлом месяце, и как развивались дискуссии на эту тему. Человек А что-то сделал – проверьте, не сказал ли ему кто-нибудь это сделать. Найдите всех, кто замышляет преступление, распространяет слухи или планирует принять участие в политическом протесте.

И это еще не все. Чтобы раскрыть организационную структуру, найдите кого-нибудь, кто дает аналогичные инструкции группе людей, а затем всем людям, которым они передали эти инструкции. Чтобы найти доверенных лиц людей, посмотрите, кому они рассказывают секреты. Вы можете отслеживать дружбу и союзы по мере их формирования и распада в мельчайших подробностях. Короче говоря, вы можете знать все о том, о чем все говорят

»

Конечно, Брюс Шнайер, как американец, в первую очередь боится использования массового шпионажа со стороны государства для выявления протестных настроений и лидеров противоположных мнений, приводя в пример разработчика шпионского ПО NSO Group и правительство Китая. Намекает, что крупные корпорации и технологические монополии не смогут устоять от соблазна использовать технологии массового шпионажа для точечного маркетинга своих продуктов и формирования предложений, от которых невозможность отказаться. Однако он совсем не говорит, что то же самое может делать и криминал для оптимизации своей мошеннической и фишинговой активности. Сейчас мошенники тратят много сил и средств впустую, обзванивая всех, а с использованием технологий массового шпионажа они смогут выбирать наиболее приоритетные цели, которые им принесут больше «дохода». И сейчас подобные технологии уже вырабатываются, а данные накапливаются, чтобы в дальнейшем обучить на них криминальные искусственные интеллекты.

«
Мы могли бы ограничить эту возможность, – подводит итог Брюс Шнайер. – Мы могли бы запретить массовый шпионаж. Мы могли бы принять строгие правила конфиденциальности данных. Но мы ничего не сделали, чтобы ограничить массовую слежку. Почему шпионаж должен быть другим?
»

2022

Администрация президента США выпустила 5 положений о защите людей от ИИ

7 октября 2022 года Управление по научно-технической политике (OSTP) Белого дома выпустило пять положений, которыми следует руководствоваться при разработке, использовании и внедрении автоматизированных систем. Документ подготовлен на фоне того, как по мере развития искусственного интеллекта все больше голосов присоединяются к призыву принять меры по защите людей от этой технологии. Опасность, по мнению экспертов, заключается в том, что нейросети легко становятся предвзятыми, неэтичными и опасными.

Управление по научно-технической политике Белого дома выпустило пять положений, которыми следует руководствоваться при разработке, использовании и внедрении автоматизированных систем
  • Безопасные и эффективные системы

Пользователь должен быть защищен от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться на основе консультаций с различными сообществами, заинтересованными сторонами и экспертами в данной области для определения проблем, рисков и потенциального воздействия системы. Системы должны проходить тестирование перед развертыванием для выявления и снижения рисков, а также постоянный мониторинг, который продемонстрирует их безопасность и эффективность.

  • Защита от алгоритмической дискриминации

Пользователь не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться на принципах равноправия. В зависимости от конкретных обстоятельств, алгоритмическая дискриминация может нарушать правовую защиту. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны принимать проактивные и последовательные меры для защиты отдельных лиц и сообществ от алгоритмической дискриминации, а также для использования и проектирования систем на основе равноправия.

  • Конфиденциальность данных

Пользователь должен быть защищен от неправомерного использования данных с помощью встроенных средств защиты, и он должен иметь право распоряжаться тем, как используются данные о нем. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны запрашивать у пользователя разрешение и уважать его решения относительно сбора, использования, доступа, передачи и удаления его данных соответствующими способами и в максимально возможной степени; если это невозможно, следует использовать альтернативные средства защиты конфиденциальности на основе дизайна.

  • Уведомление и разъяснение

Пользователь должен знать, что автоматизированная система используется, и понимать, как и почему она способствует достижению результатов, которые влияют на него. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны предоставлять общедоступную документацию на простом языке, включающую четкое описание общего функционирования системы и роли, которую играет автоматизация, уведомление о том, что такие системы используются, о лице или организации, ответственной за систему, и объяснение результатов, которое должно быть четким, своевременным и доступным.

  • Альтернативы для человека, принятие решений и запасной вариант

Пользователь должен иметь возможность отказаться от услуг, где это необходимо, и иметь доступ к специалисту, который может быстро рассмотреть и устранить возникшие проблемы. Пользователь должен иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно.[6]

Бывший глава Google Эрик Шмидт создаёт фонд для решения "ключевых" проблем ИИ и его предвзятости

16 февраля 2022 года появилась информация о том, что бывший исполнительный директор Google Эрик Шмидт (Eric Schmidt) объявил о создании благотворительного фонда с общим капиталом 125 млн долларов, который будет оказывать содействие исследованиям в сфере искусственного интеллекта. Речь, в первую очередь, идёт об исследованиях, направленных на решение кардинальных проблем, проявляющихся при использовании технологий искусственного интеллекта, в том числе предвзятости (феномен AI bias - прим. TAdviser), возможности причинения вреда и злоупотреблений. В списке значатся также геополитические конфликты и научная ограниченность самой технологии. Подробнее здесь.

2019: Сексизм и шовинизм искусственного интеллекта. Почему так сложно его побороть?

В основе всего того, что является практикой ИИ (машинный перевод, распознавание речи, обработка текстов на естественных языках, компьютерное зрение, автоматизация вождения автомобилей и многое другое) лежит глубинное обучение. Это подмножество машинного обучения, отличающееся использованием моделей нейронных сетей, о которых можно сказать, что они имитируют работу мозга, поэтому их с натяжкой можно отнести к ИИ. Любая модель нейронной сети обучается на больших наборах данных, таким образом, она обретает некоторые «навыки», но то, как она ими пользуется - для создателей остается не ясным, что в конечном счете становится одной из важнейших проблем для многих приложений глубинного обучения. Причина в том, что такая модель работает с образами формально, без какого-либо понимания того, что она делает. Является ли такая система ИИ и можно ли доверять системам, построенным на основе машинного обучения? Значение ответа на последний вопрос выходит за пределы научных лабораторий. Поэтому заметно обострилось внимание средств массовой информации к явлению, получившему название AI bias. Его можно перевести как «необъективность ИИ» или «пристрастность ИИ». Подробнее здесь.

2017: Риск уничтожения человечества

Британский ученый Стивен Хокинг часто высказывался о развитии искусственного интеллекта (ИИ) как о реальной причине возможного уничтожения человеческого рода.

В апреле 2017 года Стивен Хокинг в ходе видеоконференции в Пекине, состоявшейся в рамках Глобальной конференции мобильного интернета, заявил:

"Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он собой представляет", - подчеркнул он[7].

Как рассказал ученый в своем интервью изданию Wired в конце ноября 2017 года, он опасается того, что ИИ может в целом заменить людей.

По словам самого Хокинга, люди могут создать слишком мощный искусственный интеллект, который будет чрезвычайно хорош в достижении своих целей. И если эти цели не будут совпадать с человеческими, то у людей будут проблемы, считает ученый. Подробнее здесь

Примечания