Истомина Е. В.

РГПУ им. А. И. Герцена,

г. Санкт-Петербург


Искусственный интеллект в образовании: анализ рисков


В статье рассмотрены основные риски, возникающие при использовании искусственного интеллекта в образовании. Анализ рисков позволяет минимизировать возможные негативные последствия, а также повысить уровень безопасности и качество работы систем искусственного интеллекта. 


Istomina E. V.

HSPU

St. Petersburg, Russia


Artificial intelligence in education: risk analysis


The article discusses the main risks arising from the use of artificial intelligence in education. Risk analysis helps to minimize possible negative consequences, as well as improve the safety and quality of artificial intelligence systems.


Интерес к теме искусственного интеллекта неуклонно растет. По итогам конференции «International Society for Technology in Education – 2019» искусственный интеллект признан одним из шести глобальных трендов в образовании. [1] Это показывает, что люди все больше осознают его потенциал и влияние на их будущее.

Искусственный интеллект открывает новые возможности в образовании, которые позволяют улучшить образовательный процесс и предоставить более персонализированное обучение. Тенденции использования искусственного интеллекта в образовании направлены на создание более эффективных и доступных, образовательных ресурсов и систем, которые помогают обучающимся достичь лучших результатов и развить свой потенциал.

Однако, несмотря на все положительные стороны, существуют определенные риски.

Искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений. [2]

Искусственный интеллект обучается на конкретных данных или задачах, в следствие чего появляется риск получения недостоверной информации. Он становится ограничен в задачах диагностики, проектирования и прогнозирования при использовании неполных или некорректных данных при обучении. [3] Если обучающая выборка не является достаточно репрезентативной или содержит систематические искажения, то результаты, полученные искусственным интеллектом, могут быть неточными или искаженными.

Надежность и точность выводов, полученных искусственным интеллектом, сложно проверить без ясного объяснения и обоснования. При использовании искусственного интеллекта необходимо учитывать возможность присутствия ошибок или признаков искажения информации.

Для снижения риска получения недостоверной информации при использовании искусственного интеллекта следует работать над улучшением качества информации, используемой при их обучении, а также над автоматизацией проверки получаемой информации.

Искусственный интеллект является промышленным и научным сегментом, который использует большие объемы данных из множества источников для обучения и выполнения различных задач. В процессе использования данных, возникает риск нарушения авторских прав, так как информация может быть взята из источников, не имеющих соответствующие лицензии или разрешения на использование. Данный риск можно рассмотреть с двух сторон.

С одной стороны, при использовании искусственного интеллекта пользователи могут быть не осведомлены о том, чьи авторские права нарушаются. В таких случаях правообладатель может предъявить претензии о нарушении патентных или авторских прав, в результате чего пользователь может столкнуться с юридическими последствиями.

С другой стороны, интеллектуальный труд пользователя может быть украден. При копировании и использовании информации без разрешения правообладателя нарушается интеллектуальная собственность автора. Это ставит под сомнение этическую надежность искусственного интеллекта в области исследований и разработок и доказывает необходимость совершенствования законодательства в области искусственного интеллекта. Согласно исследованию Хасанова, правовое регулирование результатов творческой деятельности искусственного интеллекта потребует значительной переработки как норм действующего законодательства Российской Федерации, так и принятия новых нормативно – правовых актов в рассматриваемой области. [4]

Следующим риском является возможность доступа детей к информации, причиняющей вред их здоровью и развитию.

Согласно Федеральному закону от 29 декабря 2010 г. N 436-ФЗ «О защите детей от информации, причиняющей вред их здоровью и развитию», запрещается распространение среди детей информации, побуждающей к причинению вреда своему здоровью, самоубийству; способной развить порочные наклонности (алкоголизм, наркоманию, занятие проституцией, бродяжничеством или попрошайничеством). [5]

Обучение искусственного интеллекта таким правилам может быть затруднительным, поскольку большинство искусственных интеллектов создано за рубежом или содружеством стран и не подчиняются российскому законодательству. Нейросети являются мультикультурным пространством, и их культура может существенно отличаться от той культуры, что принята в нашем обществе.

Помимо этого, можно выделить риски, связанные с информационной безопасностью.

Многофункциональность искусственного интеллекта делает его эффективным инструментом автоматизации кибератак злоумышленниками. [6] Использование искусственного интеллекта позволяет обнаруживать и использовать уязвимости в системах безопасности с высокой эффективностью. Это достигается за счет способности искусственного интеллекта анализировать большие объемы данных и создавать точные алгоритмы атаки.

Искусственный интеллект используется для несанкционированного доступа к информации образовательного учреждения такими способами, как спам-атаки, фишинг, атаки на слабые места в системах и перехват сетевого трафика. В следствие чего появляется риск кражи персональных данных искусственным интеллектом. Под угрозу попадает такая информация, как учетные записи учителей, данные учеников и сотрудников образовательного учреждения.

В настоящей статье были рассмотрены основные риски использования искусственного интеллекта в образовании. Анализ представленных рисков позволил определить векторы для дальнейшего совершенствования систем искусственного интеллекта.

Первый вектор связан с техническим функционированием информационных систем. Разработка более устойчивых систем защиты от кибератак позволит оценивать уязвимости, анализировать трафик и блокировать атаки, совершенные с помощью искусственного интеллекта.

Второй вектор связан с этическим аспектом использования искусственного интеллекта. Вопросы об определении авторских прав и их защите требуют дальнейшего исследования и разработки новой системы правового регулирования, позволяющей обеспечить защиту интересов всех сторон.

 

Литература:

1.       International Society for Technology in Education – 2019. International Society for Technology in Education (ISTE) 2019 Annual Conference [Электронный ресурс] // Режим доступа: https://cms-live-media.iste.org/www-root/PDF/ISTE%20Annual%20Report_2019_vF_web3.pdf (дата обращения: 27.10.2023).

2.       Указ Президента Российской Федерации "О развитии искусственного интеллекта в Российской Федерации" от 10 октября 2019 № 490 // Официальный интернет-портал правовой информации

3.       Евсеев В. И. Искусственный интеллект в современном мире: надежды и опасности создания и использования // Аэрокосмическая техника и технологии. 2023. Т. 1. № 1. С. 16–34

4.       Хасанов, Э. Р. Искусственный интеллект, а также результаты творческой деятельности искусственного интеллекта как объекты авторских прав / Э. Р. Хасанов // Аграрное и земельное право. – 2021. – № 4(196). – С. 14-18. – DOI 10.47643/1815-1329_2021_4_14. – EDN RAPPHH.

5.       Федеральный закон от 29 декабря 2010 г. N 436-ФЗ «О защите детей от информации, причиняющей вред их здоровью и развитию»

6.       Ерахтина, Е. А. Преступления, совершаемые с использованием искусственного интеллекта: проблемы квалификации и расследования / Е. А. Ерахтина, В. А. Тирранен // Вестник Сибирского юридического института МВД России. – 2019. – № 2(35). – С. 36-41. – DOI 10.51980/2542-1735_2019_2_36. – EDN OQUXDQ.

вопросы и комментарии: