Она должна будет отслеживать сгенерированный иностранными нейросетями противоправный и антироссийский контент.
Предотвратить развитие искусственного интеллекта невозможно, поэтому его надо возглавить — и у России есть все возможности стать в этом деле одним из мировых лидеров. Такую задачу поставил в ходе большой пресс-конференции, посвященной итогам года, Президент России Владимир Путин. «Парламентская газета» опросила экспертов и политиков и выяснила, стоит ли опасаться слишком «сильного» и «свободного» ИИ и не стоит ли остановить или, по крайней мере, замедлить его бурное развитие.
Мыльный пузырь или будущее человечества Генеративные ИИ, то есть способные генерировать контент по простому текстовому запросу пользователя, стали одной из самых обсуждаемых тем уходящего года. Сначала народ в интернете бурно обсуждал нейросеть Midjourney, создающую картинки, и пророчил скорую смерть художникам, а потом информационное пространство и вовсе взорвал ChatGPT, который может и код написать, и ребенку с домашним заданием помочь, и дать совет по поводу не сложившихся отношений, и много чего еще.
Между тем эксперты и политики в вопросах работы генеративных ИИ оказались друг с другом солидарны: ограничивать их для частного использования невозможно, да и ни к чему. А вот «наверх» — на уровень социальных и государственных институтов — лучше не пускать.
Так, один из ведущих в России специалистов по искусственному интеллекту Игорь Ашманов убежден, что шумиха вокруг сервисов типа Midjourney и ChatGPT скоро утихнет, а сама тема генеративных нейросетей лопнет, как до этого лопнули перехайпленные блокчейн и NFT.
«Тот же ChatGPT — это, по сути, система, которая способна лишь генерировать более или менее бессмысленные тексты, которые вы спустя какое-то время без проблем начнете отличать от рукописных, — отметил Ашманов. — В них не погружается глаз, в них редко удается найти смысл. Поэтому живого человека этот бредогенератор, конечно, не заменит. А настоящая истерика, которая развернулась вокруг него и ему подобных систем, совсем скоро уляжется — это очевидно».
Поэтому, по словам Ашманова, нейросетям — по крайней мере на данном этапе их развития — нельзя давать право «решающего голоса».
«У нас сейчас, напомню, активно пишется так называемый Цифровой кодекс. Плюс существует Кодекс этики искусственного интеллекта, — уточнил эксперт. — На мой взгляд, в этих основополагающих документах следует четко и ясно указать несколько моментов. Во-первых, ИИ всегда должен быть маркирован. Если человек, например, обращаясь в банк или в службу техподдержки какой-то компании, сталкивается с чат-ботом, человек всегда должен об этом знать. Во-вторых, любые «решения», которые принимаются искусственным интеллектом, человеком должны перепроверяться и визироваться. ИИ не должен создавать финальные документы — неважно, идет речь о штрафе за превышение скорости или же о врачебном диагнозе».
Рассказал Игорь Ашманов и о «вражеском следе» в популярных нейросетях.
«Ошибкой было бы думать, что вот люди создали искусственный интеллект, а потом он сам взял, да и обучился, — подчеркнул эксперт. — На самом деле даже давно и хорошо нам известные поисковые системы имеют над собой целый штат людей-специалистов, которые оценивают и уточняют результаты их поиска. У «Яндекса», например, таких людей (они называются асессорами) — десятки тысяч. У «Гугла», могу предположить, в разы больше».
Точно такие же люди, по словам Ашманова, «подкручивают» и генеративные ИИ. На Западе, например, ответы интеллектуальных систем настраивают и корректируют в соответствии с западной же повесткой и западным пониманием мира. А поскольку даже условно «наши» системы так или иначе заимствуют элементы систем «импортных» — получается, что и «мозги», и «душа» у них не российские.
«Воспитать» свою нейросеть Согласны с этим и в Совете Федерации. Так, по словам члена Комитета Совета Федерации по конституционному законодательству и государственному строительству Александра Башкина, ограничивать и тем более запрещать использование нейросетей бессмысленно — настолько они уже встроились в нашу жизнь.
«Тем не менее, конечно, меры по устранению или минимизации потенциального ущерба, который они могут нанести, принимать необходимо, — подчеркнул Башкин. — И здесь нам необходимо идти двумя путями. Во-первых, разрабатывать системы защиты от вероятного негативного влияния генеративного ИИ, а во-вторых, создавать наши собственные нейросети, на основе наших, российских платформ, наших взглядов и наших, я бы сказал, этических норм».
Так, отметил Башкин, в России мог бы появиться специализированный ИИ, который «охотился» бы на западные нейросети, при помощи которых нарушаются морально-этические принципы или даже законодательство, и помогал бы оперативно с ними бороться.
«Было бы целесообразным вплотную заняться проработкой мер распознавания случаев злоупотребления возможностями ИИ или же систем, в основе которых уже заложены некие антироссийские взгляды и принципы, — констатировал собеседник издания. — В том числе этим мог бы заниматься и сам искусственный интеллект — только наш, специально для этого обученный».
Однако, по словам сенатора, пока что это — лишь одно из предложений. И как скоро такая система в России появится — пока неизвестно.
А вот в Госдуме, например, в тотальном засилье генеративных ИИ не видят ничего дурного.
«Подобного рода сервисы — это лишь одно из направлений развития искусственного интеллекта, — уверен первый заместитель председателя Комитета по информационной политике, информационным технологиям и связи Александр Ющенко. — И далеко не самый перспективный и значимый. Сами по себе умные системы имеют намного более широкую область применения — это и медицина, и оборонная деятельность, и научные изыскания. И на мой взгляд, нам стоит на уровне страны сосредоточиться именно на этих направлениях — благо, интеллектуальный и ресурсный потенциал вполне позволяет нам это сделать».
При этом Александр Ющенко согласился с тем, что ИИ — по крайней мере на нынешнем этапе его развития — ни в коем случае не должен составлять конкуренцию человеку.
«Основная функция искусственного интеллекта, где бы он ни применялся, — вспомогательная, — подчеркнул парламентарий. — Это универсальный помощник человека, но окончательные решения он принимать не должен».
Автор: Николай Козин
|