Осенью 2024 года прошёл вебинар на тему «Использование сервисов с генеративным ИИ при подготовке научной статьи — на какие вопросы нужно ответить?». Спикером выступила руководитель проекта «Elpub.Образование» Марина Михайловна Зельдина.
В этом материале мы делимся практическими рекомендациями, которые дала Марина Михайловна, для разработки политики использования ИИ для научных журналов. Эти советы помогут издательствам адаптироваться к новым реалиям и установить чёткие правила взаимодействия с этим инструментом.
ИИ в науке: вызовы и возможности для журналов
За последние два года генеративный искусственный интеллект стал важным помощником для учёных. Он используется на всех этапах работы над статьей: от подготовки плана исследования и анализа данных до перевода, редактирования и даже создания текста. Однако при всех возможностях ИИ остаётся несовершенным: он может ошибаться и создавать недостоверные данные.
Редакциям и издательствам необходимо разработать правила и рекомендации по использованию ИИ, чтобы:
- сохранить академическую честность,
- обеспечить прозрачность публикационного процесса,
- поддерживать высокие стандарты качества научных статей.
Ключевые нюансы, о которых необходимо помнить при работе с ChatGPT
Каждый из перечисленных ниже пунктов — это ответ на вопрос “зачем журналу политика по использованию ИИ?”.
- ChatGPT не умеет говорить «нет». Если программа не знает точного ответа на ваш вопрос, она придумает ответ, выглядящий правдоподобно, но не имеющий никакого отношения к реальности. Это и есть так называемые «галлюцинации».
- ChatGPT ошибается. Он может признаться в ошибке, но только в случае, если ему будет задан конкретный вопрос о ней. Можно ли определить ошибку там, где не ожидаешь ее найти?
- ChatGPT не компенсирует недостаток опыта человека, который ее использует. Чем меньше опыта у автора − тем больше вероятность, что он не сможет найти неточности в предложенном чат-ботом ответе.
- Использование ChatGPT всегда создает риск угрозы конфиденциальности и нарушения прав. Условия общедоступных инструментов GenAI часто разрешают повторное использование входных данных в обучении модели. Это значит, что информация, которой вы делитесь с чатом, может быть использована для ответов на запросы других пользователей.
- ChatGPT никогда не может быть назван автором или соавтором статьи и любого материала, созданного с помощью этой программы. Ответственность за использование всех материалов, полученных в результате взаимодействия с чат-ботом, несет только человек.
Зачем журналу нужна политика в отношении ИИ?
Политика в отношении искусственного интеллекта решает несколько задач как для самого научного журнала, так и для научного сообщества, поскольку она не только описывает принятые журналом нормы использования ИИ с инструментов, но и является в некотором смысле каналом для их распространения.
Чем больше ученых будут знать о возможностях и ограничениях инструментов с ИИ, тем больше вероятность того, что по крайней мере непреднамеренных ошибок, связанных с незнанием тонкостей работы с ИИ, удастся избежать или хотя бы снизить их количество.
Кроме того, имея четкую политику в отношении ИИ, редакция журнала защищает себя от возможных проблем, связанных с некорректным использованием инструментов с ИИ со стороны авторов.
На какие вопросы нужно ответить редакции журнала при разработке политики в отношении ИИ?
При разработке политики в отношении использования ИИ редакции научных журналов необходимо учитывать ключевые аспекты, которые помогут создать прозрачные и понятные правила для авторов, рецензентов и редакторов. Ответы на следующие вопросы позволят структурировать политику и избежать потенциальных проблем, связанных с некорректным использованием генеративного ИИ.
- Допускает ли редакция использование инструментов с ИИ при проведении исследования и подготовке статьи? Если допускает, то какие это инструменты, в каком объеме и для решения каких задач их можно использовать. Допускается ли использование ИИ при работе с изображениями?
Большинство издательств и редакций разрешают использовать генеративный ИИ при подготовке статьи в целом, однако почти все налагают запрет на генерацию и редактирование изображений. Исключения допускаются только в случае, если получение изображений либо их корректировка с помощью ИИ является частью плана исследования. В таком случае авторы должны прозрачно описать, какие изменения были внесены. Также может потребоваться предоставление двух версий изображений: оригинальной и измененной с помощью ИИ. Обязательным условием является полная прозрачность при раскрытии информации об использовании ИИ. Автор может сделать это в разделе «Методы», «Благодарности» либо описать, какая работа была проделана, во введении.
- Может ли ИИ быть автором или соавтором статьи? Может ли ИИ быть указан в перечне лиц, внесших вклад в проведение исследования и подготовку статьи?
Никакая программа с ИИ и ни при каких условиях не может быть указана в качестве автора или соавтора статьи. Программа с ИИ не может быть указана в перечне лиц, внесших вклад в проведение исследования и подготовку статьи.
- Как автор должен раскрыть информацию об использовании ИИ в статье? Нужно ли приводить информацию о том, что ИИ не был использован? Если да, то как об этом нужно написать? В какой части статьи должна быть приведена эта информация?
Автор может сделать это в разделе “Методы” (если ИИ использовался для сбора данных, их анализа, создания изображений), “Благодарности” (если ИИ использовался для работы с языком рукописи) либо описать, какая работа была проделана, во введении. К статье должен быть приложен полный текст с запросами к чат-боту и ответами на них. В статье обязательно должна быть приведена ссылка на это приложение. Результат работы с чат-ботом публикуется вместе со статьей.
Описание работы, проведенной с помощью ИИ, должно включать:
- Название, версию и разработчика используемых инструментов искусственного интеллекта (например, ChatGPT, версия от 25 сентября, на основе GPT-4, разработанная OpenAI).
- Указание на разделы и объем вмешательства инструмента с ИИ (например, «В разделе «Обсуждение» примерно 20 % текста изначально было составлено ИИ»)
- Описание типа и цели сгенерированного контента, который был включен в статью (например, «Текст, сгенерированный ИИ, предназначен для предоставления структурированного резюме, а также основных выводов. Этот сгенерированный контент был позже отредактирован и уточнен авторами, чтобы обеспечить согласованность, точность и актуальность».).
- Описание подсказок/промптов, которые давались программе, вместе с датой/временем (например, ссылку или снимок экрана чата).
- Есть ли исключения для применения существующей политики?
Как правило, при обсуждении исключений называют: программы для обнаружения некорректных заимствований, ПО для работы со списком литературы (reference manager), инструменты для проверки правописания. Также некоторые журналы указывают, что политика не препятствует использованию инструментов с ИИ для помощи при планировании исследований или разработке методов исследования.
- Может ли рецензент использовать программы с ИИ при подготовке рецензии? Если да, то в каком объеме и для решения каких задач? Какие изменения коснутся работы рецензента после начала действия существующей политики?
Несмотря на то, что в некоторых статьях можно увидеть предложения, связанные с использованием ИИ в рецензировании, все без исключения рекомендации и политики издательств четко прописывают: ИИ не может использоваться при подготовке рецензии. Фрагменты текста статьи либо текста рецензии могут нарушить конфиденциальность полученной от автора информации.
Рецензентам следует ознакомиться с политикой издателя в отношении искусственного интеллекта. Когда рецензенты подозревают нарушение этого правила политики, они должны сообщить об этом редактору, занимающемуся рукопись как часть процесса рецензирования. Если есть опасения, что статья либо ее фрагменты были созданы с помощью ИИ, это может быть отмечено в рецензии как фактор, влияющий на его точность и/или пригодность к публикации.
- Может ли редактор использовать программы с ИИ при работе со статьей? Если да, то в каком объеме и для решения каких задач?
В большинстве случаев редактору не разрешено использовать ИИ при работе со статьей. Причина та же, что и для рецензентов: высокий риск нарушения конфиденциальности при загрузке в чат-бот как фрагмента статьи, так и фрагмента рецензии.
- В каких случаях автор должен проявить особенную осторожность при использовании ИИ при подготовке статьи?
Автору не следует полностью полагаться на искусственный интеллект. Он должен помнить о том, что передача любых данных чат-боту несет риски, связанные с нарушением конфиденциальности полученных данных — как чужих, так и его собственных.
- При каких условиях автору следует отказаться от использования ИИ при подготовке статьи?
Самый банальный ответ — если автор не уверен в правильности ответов чат-бота с ИИ. В случае, когда автор уверен в рекомендациях ИИ, когда он проверил, что источники реальны, точны и актуальны, возможно, лучше прочитать эти оригинальные источники, чтобы самостоятельно проанализировать и понять их, а также выбрать статьи, которые наиболее лучшим образом отвечают цели исследования. Такой вариант лучше, чем использование интерпретации чат-бота.
По умолчанию предполагается, что авторы принимают все меры для минимизации рисков, связанных с использованием чат-бота с генеративным ИИ: от анонимизации своих данных на получение разрешение на использование данных для передачи, а также проверки полученных результатов. Если эти меры принять невозможно, авторам может быть рекомендовано рассмотреть альтернативные способы использования чат-ботов с ИИ, либо отказаться от их использования.
- Каким образом информация о появлении политики в отношении ИИ будет доведена до сведения всех заинтересованных участников редакционно-издательского процесса?
Информацией можно поделиться, например, через редакционную статью, пресс-релиз, новость на сайте, рассылку, публикации в социальных сетях, вебинары и семинары для авторов и рецензентов, а также в разделе FAQ на сайте и через памятки с разъяснением ключевых положений.
Полное видео с выступлением Марины Михайловны Зельдиной можно посмотреть по ссылке.