Распространение технологий искусственного интеллекта (ИИ) благоприятно повлияет на рынок труда, считают в Международной организации труда (МОТ). В бедных странах внедрение ИИ пройдет почти незаметно. А самые большие изменения затронут работниц, которые заняты канцелярской работой в странах с высоким и средним уровнем дохода. Новый доклад МОТ появился накануне глобального саммита по безопасности ИИ, проведение которого Великобритания уже согласовала с Вашингтоном. Но лидерство в регулировании ИИ, похоже, захватил Китай.
Внедрение технологий ИИ с высокой вероятностью увеличит занятость в мире, а не сократит ее, утверждается в новом докладе Международной организации труда, которая является специализированным учреждением ООН.
Автоматизация труда с внедрением ИИ в наибольшей степени затронет рабочие места, которые занимают труженицы с не самой высокой квалификацией. Весьма вероятно, что будут сокращены или модернизированы рабочие места с «высокой занятостью женщин на канцелярской работе, особенно в странах с высоким и средним уровнем дохода».
Распространение технологий ИИ в конкретных странах в докладе МОТ не анализируется. Но приводятся вероятные последствия внедрения ИИ для трех групп стран – с высоким, средним или низким уровнем дохода. В странах с высокими доходами на душу населения изменения могут затронуть около 5,5% всех трудящихся. В странах с низкими доходами «риск автоматизации затрагивает лишь около 0,4% рабочих мест». Потенциал увеличения числа рабочих мест «почти одинаков во всех странах», и это дает основания ожидать увеличения занятости при правильной политике использования ИИ. Распространение технологий искусственного интеллекта «может принести значительные выгоды развивающимся странам», считают в МОТ.
Эксперты МОТ считают, что социально-экономические последствия внедрения ИИ будут зависеть от качества управления. В МОТ выступают за разработку «политики, поддерживающей упорядоченный, справедливый и основанный на консультациях переход» к технологиям искусственного интеллекта. Мнение работников, их обучение и адекватная социальная защита имеют ключевое значение для управления процессом такого перехода, считают в МОТ. Однако есть риск, что от внедрения новых технологий ИИ «выиграют лишь несколько хорошо подготовленных стран и участников рынка».
Наша газета уже писала, что в мире наблюдаются признаки столкновения и соперничества «западного» и «восточного» искусственного интеллекта (см. «НГ» от 09.07.23). Премьер-министр Великобритании Риши Сунак обсуждал с президентом США Джозефом Байденом создание «барьеров» на пути внедрения искусственного интеллекта, а также создание международного органа по контролю за ИИ по образцу МАГАТЭ. Об этом, в частности, сообщила в начале июня британская Times. По согласованию с Вашингтоном Сунак надеется создать в своей стране «международный хаб по безопасности ИИ», который будет играть роль площадки для согласования принципов работы американской и китайской модели ИИ.
Между тем многие американцы считают, что западный вариант искусственного интеллекта настроен на обман и манипуляцию. При этом есть опасность, что люди в скором времени уже перестанут замечать эти манипуляции или даже обман, предупреждает предприниматель Илон Маск. По его словам, существующий на Западе ИИ навязывает миру «нишевую идеологию Сан-Франциско и Беркли», которая окажется неприемлемой для остального мира. Одновременно с анонсом британского глобального саммита по безопасности ИИ в Китае крупнейшие компании уже договаривались с властями о регулировании китайского варианта ИИ, который сможет противостоять американским идеологическим установкам.
С середины августа 2023 года Китай ввел у себя 24 пункта правил для регулирования искусственного интеллекта (ИИ), сообщило агентство Bloomberg. В частности, вводится обязательная регистрация услуг и алгоритмов с использованием ИИ. Создаваемый искусственным интеллектом контент (включая текст, фото или видео) должен быть помечен заметными ярлыками, чтобы не вводить общественность в заблуждение. Создатели контента обязаны проводить проверку его безопасности до вывода на рынок. Для обучения ИИ-моделей необходимо использовать «законные данные» и раскрывать эти данные регулирующим органам по мере необходимости. Кроме того, китайские компании должны предоставить четкий механизм рассмотрения публичных жалоб на услуги или контент, который был создан с использованием ИИ. Ответственность за контроль новых правил Пекин возложил на семь ведомств, в том числе на центральный орган регулирования интернета, Министерство образования, Министерство науки и технологий, Национальную комиссию по развитию и реформам.
Подобные базовые требования к использованию ИИ кажутся очевидными для многих разумных людей. И почему, например, в России нет обязательной маркировки продукции, которая создается с использованием технологий ИИ – можно только догадываться. Также можно только гадать, почему обществу или властям не гарантирован доступ к обучающим алгоритмам или наборам данных, которые используются для обучения ИИ.
В России существует концепция развития регулирования отношений в сфере технологий искусственного интеллекта (ИИ) и робототехники на период до 2024 года, которая была утверждена правительством три года назад. То есть еще до взрыва общественного и коммерческого интереса к технологиям и возможностям ИИ. Однако и сегодня «мер ответственности за нарушения при внедрении ИИ в гражданский оборот по-прежнему нет», признает член думского комитета по информационной политике Антон Немкин. По его словам, важным становится вопрос регулирования авторских и смежных прав на сгенерированный ИИ контент. «Сегодня в РФ практически отсутствует четко закрепленный правовой статус созданных нейросетями произведений. Опираться в таких случаях можно только на Гражданский кодекс, из которого следует, что авторские права признаны за человеком, внесшим деятельный творческий вклад в создание произведения. Но в контексте использования ИИ для создания контента ситуация сложнее, так как нейросети обучают на контенте из интернета, который также может защищаться авторскими правами. Кроме того, нарушаться могут и права актеров, чьи образы используются, например, для создания дипфейков», – рассуждает депутат.
Источник : Независимая газета