Жадан рассказал, что для написания введения и теоретической части он давал запросы чат-боту, а базой для основной части работы стала чужая статья на английском языке. После перевода оригинальной статьи и ее редактирования система антиплагиат показала оригинальность работы в 82% при требуемых 70%. На защите Жадану удалось защитить дипломную работу лишь на «удовлетворительно».
В вузе решили провести проверку после этого инцидента, а также предложили ограничить доступ к чат-боту в образовательных организациях.
«Из-за опасений по поводу негативного воздействия на обучение, а также опасений по поводу безопасности и точности генерируемого системой контента, может быть целесообразно ограничить доступ к ChatGPT в образовательных организациях», — сообщили в пресс-службе РГГУ.
Также в вузе отметили, что с распространением нейронных сетей научное сообщество сталкивается с новыми вызовами, на которые пока нет ответов: «Если десятилетия назад главной проблемой для вузов был плагиат и недобросовестные заимствования, и эта проблема была успешно решена, то сейчас образовательное сообщество оказалось перед лицом нового вызова, связанного с применением нейронных сетей и искусственного интеллекта в научной и образовательной деятельности. Российские и зарубежные эксперты высказывают опасения по поводу возникшей проблемы, и найти достойный выход — главная задача научного сообщества».
В самой компании, разработавшей ChatGPT, — OpenAI — предложили инструмент для обнаружения созданного с помощью ИИ текста. Классификатор текста AI способен определить, был ли контент создан с помощью таких инструментов как ChatGPT. однако у инструмента есть ряд ограничений: в оценках «сложного набора» английских текстов классификатор правильно выявляет лишь 26% написанного ИИ текста, в то время как текст, написанный человеком, ошибочно помечает как сгенерированный в 9% случаев.