Home » Россия Рискует Остаться Без Глобального Саммита По Безопасности ИИ
Национальная безопасность Новости Россия Россия Технологии

Россия Рискует Остаться Без Глобального Саммита По Безопасности ИИ


Распространение технологий искусственного интеллекта (ИИ) благоприятно повлияет на рынок труда, считают в Международной организации труда (МОТ). В бедных странах внедрение ИИ пройдет почти незаметно. А самые большие изменения затронут работниц, которые заняты канцелярской работой в странах с высоким и средним уровнем дохода. Новый доклад МОТ появился накануне глобального саммита по безопасности ИИ, проведение которого Великобритания уже согласовала с Вашингтоном. Но лидерство в регулировании ИИ, похоже, захватил Китай.

Внедрение технологий ИИ с высокой вероятностью увеличит занятость в мире, а не сократит ее, утверждается в новом докладе Международной организации труда, которая является специализированным учреждением ООН. 

Автоматизация труда с внедрением ИИ в наибольшей степени затронет рабочие места, которые занимают труженицы с не самой высокой квалификацией. Весьма вероятно, что будут сокращены или модернизированы рабочие места с «высокой занятостью женщин на канцелярской работе, особенно в странах с высоким и средним уровнем дохода».

Распространение технологий ИИ в конкретных странах в докладе МОТ не анализируется. Но приводятся вероятные последствия внедрения ИИ для трех групп стран – с высоким, средним или низким уровнем дохода. В странах с высокими доходами на душу населения изменения могут затронуть около 5,5% всех трудящихся. В странах с низкими доходами «риск автоматизации затрагивает лишь около 0,4% рабочих мест». Потенциал увеличения числа рабочих мест «почти одинаков во всех странах», и это дает основания ожидать увеличения занятости при правильной политике использования ИИ. Распространение технологий искусственного интеллекта «может принести значительные выгоды развивающимся странам», считают в МОТ.

Эксперты МОТ считают, что социально-экономические последствия внедрения ИИ будут зависеть от качества управления. В МОТ выступают за разработку «политики, поддерживающей упорядоченный, справедливый и основанный на консультациях переход» к технологиям искусственного интеллекта. Мнение работников, их обучение и адекватная социальная защита имеют ключевое значение для управления процессом такого перехода, считают в МОТ. Однако есть риск, что от внедрения новых технологий ИИ «выиграют лишь несколько хорошо подготовленных стран и участников рынка».

Наша газета уже писала, что в мире наблюдаются признаки столкновения и соперничества «западного» и «восточного» искусственного интеллекта (см. «НГ» от 09.07.23). Премьер-министр Великобритании Риши Сунак обсуждал с президентом США Джозефом Байденом создание «барьеров» на пути внедрения искусственного интеллекта, а также создание международного органа по контролю за ИИ по образцу МАГАТЭ. Об этом, в частности, сообщила в начале июня британская Times. По согласованию с Вашингтоном Сунак надеется создать в своей стране «международный хаб по безопасности ИИ», который будет играть роль площадки для согласования принципов работы американской и китайской модели ИИ.

Между тем многие американцы считают, что западный вариант искусственного интеллекта настроен на обман и манипуляцию. При этом есть опасность, что люди в скором времени уже перестанут замечать эти манипуляции или даже обман, предупреждает предприниматель Илон Маск. По его словам, существующий на Западе ИИ навязывает миру «нишевую идеологию Сан-Франциско и Беркли», которая окажется неприемлемой для остального мира. Одновременно с анонсом британского глобального саммита по безопасности ИИ в Китае крупнейшие компании уже договаривались с властями о регулировании китайского варианта ИИ, который сможет противостоять американским идеологическим установкам.

С середины августа 2023 года Китай ввел у себя 24 пункта правил для регулирования искусственного интеллекта (ИИ), сообщило агентство Bloomberg. В частности, вводится обязательная регистрация услуг и алгоритмов с использованием ИИ. Создаваемый искусственным интеллектом контент (включая текст, фото или видео) должен быть помечен заметными ярлыками, чтобы не вводить общественность в заблуждение. Создатели контента обязаны проводить проверку его безопасности до вывода на рынок. Для обучения ИИ-моделей необходимо использовать «законные данные» и раскрывать эти данные регулирующим органам по мере необходимости. Кроме того, китайские компании должны предоставить четкий механизм рассмотрения публичных жалоб на услуги или контент, который был создан с использованием ИИ. Ответственность за контроль новых правил Пекин возложил на семь ведомств, в том числе на центральный орган регулирования интернета, Министерство образования, Министерство науки и технологий, Национальную комиссию по развитию и реформам.

Подобные базовые требования к использованию ИИ кажутся очевидными для многих разумных людей. И почему, например, в России нет обязательной маркировки продукции, которая создается с использованием технологий ИИ – можно только догадываться. Также можно только гадать, почему обществу или властям не гарантирован доступ к обучающим алгоритмам или наборам данных, которые используются для обучения ИИ.

В России существует концепция развития регулирования отношений в сфере технологий искусственного интеллекта (ИИ) и робототехники на период до 2024 года, которая была утверждена правительством три года назад. То есть еще до взрыва общественного и коммерческого интереса к технологиям и возможностям ИИ. Однако и сегодня «мер ответственности за нарушения при внедрении ИИ в гражданский оборот по-прежнему нет», признает член думского комитета по информационной политике Антон Немкин. По его словам, важным становится вопрос регулирования авторских и смежных прав на сгенерированный ИИ контент. «Сегодня в РФ практически отсутствует четко закрепленный правовой статус созданных нейросетями произведений. Опираться в таких случаях можно только на Гражданский кодекс, из которого следует, что авторские права признаны за человеком, внесшим деятельный творческий вклад в создание произведения. Но в контексте использования ИИ для создания контента ситуация сложнее, так как нейросети обучают на контенте из интернета, который также может защищаться авторскими правами. Кроме того, нарушаться могут и права актеров, чьи образы используются, например, для создания дипфейков», – рассуждает депутат. 

Источник : Независимая газета

Translate