В работе представлены основные методы оценки результатов научной деятельности, применяемые в России, обсуждаются их преимущества и недостатки.

Ключевые слова: Россия; оценка результатов научной деятельности; публикационная активность; рынок научной периодики; объекты интеллектуальной собственности; репутация.

Abstract. The paper presents the main evaluation methods of the scientific activity results used in Russia, discusses their advantages and disadvantages.

Keywords: Russia; evaluation the results of scientific activities; publication activity; market of scientific periodicals; intellectual property objects; reputation.

Введение

Увеличение объемов ресурсов (прежде всего, финансовых), направляемых в настоящее время на науку, сделало особенно актуальной оценку результатов интеллектуальной деятельности.

Результаты прикладных исследований и разработок можно оценивать на основе стоимости объектов интеллектуальной собственности. Оценка результатов фундаментальных научных работ и вузовского научного сектора, которые часто не имеют материально-вещественной формы, представляет более трудную задачу.

Для ее решения применяют разные качественные и количественные методы, к наиболее значимым из которых относятся научная экспертиза и наукометрия.

Начиная с первой половины 1990-х годов библиометрический (наукометрический) анализ стал широко использоваться для оценки вклада стран в развитие науки и изменений внутри научной сферы. Было также признано, что количественные показатели (число научных публикаций, их цитируемость и др.) отражают степень активности и продуктивности исследователей в области фундаментальных и прикладных работ [Маршакова-Шайкевич, 2008, с. 10–11].

В настоящее время оценке подлежит деятельность как научных организаций, так и отдельных ученых. Однако вводимые в последние годы в России способы оценки результатов научной деятельности вызывают много споров и недовольство со стороны

научного сообщества.

История вопроса

Наука советского периода отличалась явно выраженной прикладной направленностью и приоритетом естественно-научных исследований. Научные достижения оценивались преимущественно через количество изобретений и их внедрение, а также по экономическому эффекту от этого. Историки науки отмечают, что по количеству изобретений СССР превосходил другие страны. В 1987 г. в стране было зарегистрировано 83,7 тыс. изобретений, тогда как в США – 82,9 тыс., в Японии – 62,4 тыс., в Германии и Великобритании – по 28,7 тыс.

На долю СССР приходилась четверть всех изобретений в мире, и хозяйственный комплекс страны практически полностью ими обходился, в то время как Великобритания использовала 85% изобретений иностранных авторов, Франция – 66, США – 50% (СССР – менее 1%). Однако в стране было мало открытий мирового уровня и лауреатов престижных международных премий.

Низкой была и эффективность внедрения изобретений. В 1987 г. по количеству зарегистрированных промышленных образцов СССР уступал всем развитым странам: ФРГ – в 40 раз, Японии – в 20, США – в 2,8 раза [Бердашкевич, 2000, с. 118, 119].

Исследователи выделяют следующие черты научной деятельности в советский период: престижность, большое количество грамотных специалистов, сравнительно хорошее материальнофинансовое обеспечение [Мендкович, 2007], наличие развитой системы научно-технической информации. Успех ученого был связан с карьерной лестницей, защитой кандидатской и докторской диссертаций, присуждением научных званий. Большое значение, как для отдельного ученого, так и для научных организаций, имели их

репутация и статус.

В позднесоветский период и особенно при переходе к рыночной экономике этические нормы научной деятельности в стране оказались размытыми. Появились «липовые» дипломы, заказные и списанные диссертации, увеличились масштабы плагиата и т.д.

В этих условиях резко снизились возможности проведения достоверной научной экспертизы и адекватность репутационных механизмов оценки. В рыночных условиях подходы к оценке результатов научной деятельности в России сильно изменились. Это было связано с тем, что научная продукция превратилась в товар, который подлежит реализации по рыночным правилам, а научная деятельность стала рассматриваться сквозь призму коммерческой отдачи. Однако вскоре выяснилась невозможность применения такого подхода к фундаментальным исследованиям. При этом потребность в оценке результатов научной деятельности только обострялась из-за необходимости принятия административных решений по финансированию разнообразных научных организаций и стимулированию труда ученых. Для решения этой проблемы начался поиск формального, легкого и удобного, универсального способа оценки.

 За последние 15 лет советского периода индекс цитирования 50 отечественных ученых в различных фундаментальных и прикладных областях превысил 1000 (что сопоставимо с работами нобелевских лауреатов) [Бердашкевич, 2000, с. 118, 119].  

В 2006–2007 гг. в стране была предпринята попытка разработать и внедрить общий количественный показатель результативности научной деятельности (ПРНД) для работников РАН в целях распределения стимулирующих выплат между научными

сотрудниками [Приказ Минобрнауки РФ № 273., 2007]. Предлагаемый показатель рассчитывался по следующей формуле: ПРНД = kG + pM + rU + hD + sK + bP + gR, где:

G – количество публикаций в журналах; M – количество монографий; U – количество учебников; D – число докладов на конференциях; K – число научно-образовательных курсов; P – количество патентов; R – научное руководство; k, p, r, h, s, b, g – весовые коэффициенты (значение которых приводилось в приложении к документу).

Однако введение ПРНД не оказало какого-либо значимого эффекта – в первую очередь из-за малого объема финансирования науки.

С 2008 г. были введены квалификационные требования к должностям научных сотрудников РАН, содержащие количественные показатели. Для должности главного научного сотрудника (доктора наук) требовалось не менее 10 научных трудов за последние пять лет; для ведущего научного сотрудника (доктора или кандидата наук) – не менее семи; старшего научного сотрудника (доктора или кандидата наук) – не менее пяти; научного сотрудника (кандидата наук) – не менее трех [Постановление Президиума РАН от 25.03.2008 № 196]. Следует отметить, что контролировать выполнение предлагаемых показателей можно было только на аттестации научных сотрудников (которая проходит раз в пять лет), что не подходит для целей ежегодного мониторинга.

Кроме того, установлена достаточно низкая «планка» результатов с точки зрения современной науки. Указанные подходы к оценке научной деятельности стремились отразить разные ее стороны. При этом очевидно повышение внимания к публикационной активности, прежде всего количеству научных публикаций.

В СССР количеству научных публикаций ученых (особенно за границей) большого значения не придавалось, хотя и приветствовалось. Тем не менее, согласно международной статистике, в период с 1981 по 1985 г. в СССР выходило порядка 164 тыс. научных публикаций, тогда как в США – около 748 тыс., в Великобритании – 185 тыс., ФРГ – 171 тыс., Японии – 148 тыс. и Канаде – 94 тыс. [Мендкович, 2007]. Таким образом, СССР по количеству научных публикаций находился на четвертом месте в мире, отставая в 4,5 раза от США. Причем по количеству научных публикаций в естественных дисциплинах США превосходил другие страны в этот период почти на порядок (см. табл.). Данная ситуация

объяснялась масштабами научного комплекса (США имел самое большое на тот момент количество исследователей) и тем, что научные издания из США преобладали в базах данных, на основании которых учитывались (индексировались) научные публикации.

Статистика показывает, что уже с 1989 г. публикационная активность в СССР начала снижаться. Особенно резкое падение количества публикаций зафиксировано в 1993 г. – на 36%. Разрыв с США по естественно-научным публикациям увеличился с 6,8 раза (1988) до 11,3 раза (1993).

Исследователи отмечают последующий регресс публикационной активности отечественных ученых: по сравнению с 1981 г. в 2002 г. вклад России в общенаучный прогресс снизился практически в 2 раза [Маршакова-Шайкевич, 2008, с. 202].

В 2000-х годах внимание органов власти и управления к количеству научных публикаций работников отечественной сферы образования и науки возросло. В официальных документах были сформулированы цели по достижению более высоких показателей публикационной активности. Установлена достаточно жесткая связь между оценкой результатов научной деятельности и объемами финансирования учреждений, а также заработной платой ученых. Сначала административно-финансовые меры стимулирования публикационной активности начали применяться в вузах, а позднее были распространены и на бывшие академические институты. [Мендкович, 2007; Маршакова-Шайкевич, 2008].

К 2016 г. разработана и с 2017 г. начала применяться методика распределения дополнительных бюджетных средств на повышение заработной платы научных сотрудников учреждений сферы науки, подведомственных ФАНО РФ. Согласно сложной

формуле расчета, к показателям результативности деятельности научных учреждений относится:

1) количество публикаций в рецензируемых российских и международных периодических изданиях (в расчете на одного научного сотрудника), в том числе

2) индексируемых в международных базах данных Scopus и Web of Science (WoS);

3) удельный вес исследователей в возрасте до 39 лет в общей численности исследователей учреждения;

4) масштаб внебюджетного финансирования (отношение внебюджетных средств к бюджетным в структуре заработной платы научных сотрудников учреждения) [Ивлев, 2019]. Разработчики методики старались увязать разные цели управления научной сферой:

омоложение кадров, увеличение объема внебюджетного (конкурсного) финансирования, рост количества и качества научных публикаций.

Еще один подход к оценке результатов научной деятельности заключался в выработке соответствующих нормативов, исходя из затрат рабочего времени. Попытка прямого введения показателя нормо-часов предпринималась ФАНО в 2017/2018 гг., но была столь неуклюжей (без какого-либо внятного разъяснения научному сообществу), что провалилась. Теперь чиновники пробуют установить этот норматив «экспериментальным» путем (т.е.  сколько можно «выжать» статей из научного сотрудника).

В последние годы происходит ужесточение требований, предъявляемых к государственным научным организациям, а следовательно, и к результатам деятельности научных сотрудников.

В соответствии с целями Нацпроекта «Наука» акцент делается на увеличении числа публикаций в журналах, входящих в зарубежные базы данных Scopus и WoS, а также учитывается категория журнала (через импакт-фактор и квартили).

Импакт-фактор показывает среднее количество цитирований одной статьи в журнале. Квартиль – это категория научных журналов, определяемая библиометрическими показателями, которые отражают уровень цитируемости.

При этом практика проведения оценки научных организаций недостаточно публична: не хватает разъяснений научному сообществу смысла вводимых новаций, нет обратной связи с научными коллективами по поводу корректировки результатов, – все вопросы решаются в очень узком ведомственном кругу. Сама методика оценки результатов научной деятельности разрабатывается кулуарно, без широкого привлечения специалистов-науковедов.

Соответственно, она вызывает много вопросов и замечаний. Главное из них состоит в том, что любые оценки не являются нейтральными для объекта оценивания. В связи с этим применяемые методы значительно влияют на направления развития отечественной научной сферы.

Количественные оценки результатов фундаментальных исследований и последствия их использования Основными параметрами оценки результатов фундаментальных исследований и научной деятельности государственных вузов в России в настоящее время становятся наукометрические показатели: публикационная активность (количество публикаций) и цитируемость (индекс Хирша).

Публикационная активность.

В указе Президента РФ 2012 г. была поставлена цель увеличения числа научных публикаций к 2015 г. до 2,44% от их общемирового количества [Указ Президента РФ от 07.05.2012 № 599]. Несмотря на существовавший пессимизм, это задание удалось выполнить.

В 2018 г. число публикаций российских ученых в журналах, индексируемых в базах данных Scopus и Web of Science Core Collection (WoS СС), превысило соответственно 99 и 75 тыс. По удельному весу публикаций в общем числе статей российские ученые находились в 2018 г. на 11-м месте (из 223 стран по статистке Scopus) и на 15-м месте (по статистике WoS) [Публикационная активность.., 2019; Scimago journal.., 2018]. По сравнению с 2017 г. публикационная активность возросла в 1,7–1,4 раз соответственно (с 59,0 и 51,6 тыс. публикаций). По данным WoS, в 2018 г. 2,9% от общего числа статей в мире было написано российскими учеными (в 2017 г. – 2,85%), по данным Scopus – 2,6% (в 2017 г. – 2,9%). [Дайджест показателей публикационной активности., 2018, с. 7; Минобрнауки: Россия входит., 2018].

В Национальном проекте «Наука» сформулирована следующая цель на перспективу. К 2024 г. РФ должна подняться на пятое место по удельному весу в общем числе статей в областях, определяемых приоритетами научно-технологического развития, в изданиях, индексируемых в международных базах данных [Паспорт

Национального проекта «Наука», 2019]. Соответственно, доля публикаций российских ученых в общем числе индексируемых в Scopus и WoS статей должна превысить 4%. Это означает необходимость почти двукратного роста числа индексируемых публикаций [Минобрнауки: Россия входит., 2018].

В настоящее время разрыв России с пятеркой лидеров в данном направлении составляет 6,9–1,7 раза. В 2018 г. в указанных международных базах было проиндексировано (учтено) 683 тыс. публикаций из США; 599,4 тыс. – из Китая; 211,7 тыс. – из Великобритании; 180,6 тыс. – из Германии; 171,4 тыс. – из Индии [Scimago journal.., 2018]. Причем отставание России по этому показателю от США по сравнению с 1988 г. увеличилось. По числу публикаций, индексируемых в международных базах данных, Россия-2018 уступает СССР-1988 почти в 3 раза (см. табл.). Хотя, конечно, на это соотношение влияет образование на месте СССР 15 независимых государств, учет научных публикаций которых теперь ведется отдельно.

Подсчитано, что ежегодный прирост публикаций на 10% позволит России к 2024 г. выйти на уровень в 180 тыс. публикаций в год. Этого может оказаться достаточно, чтобы занять заветное пятое место в рейтинге. «Российские исследователи не только приняли новые правила наукометрической политики, но и стараются продемонстрировать все более высокие значения ключевых показателей» [Количество российских публикаций., 2019]. Однако у экспертов возникают вопросы: как увеличение количества публикаций влияет на их качество и как скоро у страны исчерпается ресурс для их форсированного роста?

Показатели результативности отечественных ученых улучшаются за счет увеличения числа российских научных журналов,

Количество российских журналов в базе WoS уже увеличилось со 108 в 2000 г. до 361 в 2018 г., в Scopus – с 212 до 551 соответственно, т.е. в 3–2,5 раза. В 2016 г. в последнюю базу было включено 75 журналов, в 2017 г. – 52 журнала, в 2018 г. – 45 журналов. При этом за

период с 2012 по 2017 г. количество отечественных авторов возросло в базе Scopus с 69,6 до 138,3 тыс. (почти в 2 раза). В базе WoS в 2018 г. количество российских авторов составило 91,0 тыс. [Лепешев, 2019].

В 2018 г. фиксируется снижение темпов роста числа публикаций российских авторов в базе Scopus. Отмечается, что прирост публикаций в международных базах данных в последние годы обеспечивался за счет активизации публикационной деятельности преподавателей вузов (раньше к ним не предъявлялось требований публиковаться за рубежом и авторов из регионов (прежде всего, Сибирского и Дальневосточного ФО). Возникает вопрос, если ли резервы для дальнейшего повышения публикационной активности в России? [Количество российских публикаций., 2019].

Отечественный потенциал публикационной активности можно попробовать определить следующим образом:

– сколько можно написать научных статей в год: экспертная оценка составляет от одной до четырех (в среднем 2,5) статей – большее их количество сопровождается резким падением качества материала;

– кто пишет научные статьи: не исследователи, а научные сотрудники (численность 72 тыс. на I полугодие 2019 г.) и преподаватели вузов (191 тыс. соответственно), на которых в основном и распространяются требования публиковаться.

Таким образом, если все специалисты указанных категорий напишут в среднем по 2,5 научной статьи за год, то их общее количество составит порядка 657 тыс. Следует отметить, что точное количество научных журналов в России неизвестно. Это удивительно, учитывая существующий механизм их регистрации и правило «обязательного экземпляра».

Однако имеющиеся данные весьма противоречивы.

Однако теперь ситуация доведена до абсурда. Публиковать научные статьи, причем международного уровня, стали требовать от преподавателей иностранных языков и физкультуры. Тем, кто не в состоянии выполнить данное требование, приходится увольняться. В результате возникает проблема нехватки

кадров для обучения студентов по этим направлениям и, соответственно, снижается качество высшего образования в стране.

Российская научная электронная библиотека.

Была создана в 1999 г. по инициативе Российского фонда фундаментальных исследований для обеспечения российским ученым электронного доступа к ведущим иностранным научным выходит 14,3 тыс., из них 5,9 тыс. индексируется, а общее количество научных статей оценивается в более чем 450 тыс. [Российский индекс научного цитирования, 2019]. Можно подсчитать, что зарубежные публикации составляют примерно 20% от годового объема научных публикаций отечественных авторов. И в этот процесс вовлечено почти 40% от общей численности научных сотрудников и преподавателей вузов страны. Увеличение данных показателей вдвое (для выполнения цели Нацпроекта «Наука») представляется нереальным.

Можно ожидать, что с 2019 г. и далее темпы роста количества российских публикаций в международных базах данных WoS и Scopus будут снижаться. Хотя улучшение общих позиций возможно, догнать пятерку лидеров России вряд ли удастся. И дело тут не в творческом потенциале отечественных научных кадров или качестве проводимых ими исследований – а в особенностях рынка научной периодики. Количество статей, которое могут опубликовать российские авторы, зависит не только от уровня их работ, но и от политики издателей, в том числе зарубежных.

Рынок научной периодики – научные журналы, базы данных и издательства. К сожалению, авторы официальных документов игнорируют тот факт, что публикации в журналах, индексируемых в международных базах данных WoS и Scopus, все чаще становятся для авторов платными.

Специалисты указывают, что многие иностранные журналы требуют предварительно оплатить «доступ в соответствующую базу данных (аналог электронного архива), без которого просто невозможно подготовить статью, отвечающую требованиям редакции. Стоимость такого доступа весьма высока: от 1,5 тыс. долл. до 3 тыс. евро» [Алавердов, 2019, с. 28].

Если принять в среднем стоимость одной публикации в международных базах данных за 1 тыс. долл., то публикация в 2018 г. 99 тыс. российских статей в журналах базы WoS должна

была принести компании Clarivate Analytics 99 млн долл. дохода

С 2005 г. начала работу с русскоязычными публикациями и в настоящее время является ведущей электронной библиотекой научной периодики на русском языке в мире. Интегрирована с Российским индексом научного цитирования (РИНЦ) – национальным инструментом измерения и анализа публикационной активности отечественных ученых и организаций. eLibrary и РИНЦ разработаны и поддерживаются компанией «Научная электронная библиотека» (по материалам Википедии).

Конечно, это очень грубый подсчет. Однако большинство авторов этих публикаций получают заработную плату прямо (по госзаданию) или косвенно (через гранты) из федерального бюджета. Получается, что в 2018 г.

из государственного бюджета РФ двум частным зарубежным компаниям фактически было выплачено более 170 млн долл. Непонятно только, для чего в этой финансовой схеме присутствуют научные сотрудники и преподаватели вузов? Если чиновники таким образом определили цель Нацпроекта «Наука», то пусть сами за нее и платят. Более того, в условиях нестабильного финансового положения национальных издательств (например, крупнейшее государственное издательство «Наука» несколько лет находилось на грани банкротства), это выглядит как очередная «сдача» российского рынка зарубежным производителям.

Помимо этого, в связи с техническими трудностями при публикации научных статей в журналах определенного уровня, появился спрос на услуги по содействию в организации публикаций. «На новый сегмент рынка услуг вышли сотни посредников, предлагающих весь спектр работ по решению проблемы публикационной активности для конкретного научного сотрудника или преподавателя вуза. Цена на полный «пакет» услуг по организации публикации научной статьи в журналах, индексируемых в системах WoS и Scopus, колеблется от 45 до 120 тыс. руб.» [Алавердов, 2019, с. 29].

Если сопоставить приведенные расходы на публикацию научных статей в журналах, индексируемых в WoS и Scopus, то их величина уже сравнима с размером среднемесячной заработной платы научных сотрудников и преподавателей вузов, а по многим регионам – превосходит ее. Таким образом, возникает еще один – финансовый – барьер для увеличения количества зарубежных публикаций российскими авторами. Одновременно указанные расходы выступают в качестве косвенного налога на занятия научной деятельностью в стране. Фактическое введение нового налога в России никак не сочетается с действующим законодательством, не отвечает декларируемым целям по восстановлению престижа научной деятельности и улучшению оплаты труда научных сотрудников.

Представляется, что выйти из создавшегося положения можно, предусмотрев целевые расходы на публикации российских авторов в журналах, индексируемых в международных базах, в рамках выделяемых государственных средств. Кроме того, необходимы действенные меры по поддержке и повышению качества отечественных научных журналов.

Неизвестно, сколько всего нужно научных журналов. Но очевидно, что они должны быть разного уровня, поскольку публиковаться должны и начинающие исследователи. Отрицательные или промежуточные и спорные результаты также должны быть представлены научному сообществу. Разумеется, не должно быть недобросовестных изданий – «мусорных», «хищнических» или «диссеродельных».

Цитируемость.

Не меньше проблем, чем при использовании показателя публикационной активности, возникает и при применении оценки цитируемости научных работ / их авторов.

Отмечается, что при увеличении числа публикаций российских ученых в западных рецензируемых журналах их цитируемость снизилась [Маленький, 2019]. По этому усредненному показателю (равному 7) Россия занимает 210-е место среди 239 стран

мира [Лепешев, 2019].

Причем состав верхней пятерки предметных областей, в которых Россия представлена наибольшим количеством публикаций, не менялся с 2014 г. В нее входят (иногда меняясь местами) прикладная физика, междисциплинарные исследования в области материаловедения, оптика, междисциплинарная физика, инженерия и электроника. «Российская наука остается узкоспециализированной: она сильна в физике, химии, науках о космосе и Земле,

математике и материаловедении. Добавились нанотехнологии, но развитие биологии и медицины, авангарда XXI в., продолжает буксовать» [Борисова, 2019].

Низкий уровень цитируемости российских исследователей зарубежными коллегами связан не только с ограниченным представительством страны в мировой науке или уровне отечественных работ, но и с рядом социальных и политических факторов.

Термин «хищнические журналы» ввел американский библиотекарь Дж. Билл для изданий, которые за деньги публикуют любые тексты в любых количествах (и поэтому разрастаются до гигантских размеров – до нескольких тысяч статей в год). В России создана более подробная классификация недобросовестных изданий. Выделены «мусорные» – т.е. слабые в научном плане журналы, часто вестники вузов (университетов), публикующие преимущественно своих сотрудников, – а также «диссеродельные» журналы, обслуживающие конкретные диссертационные советы, которые массово штампуют «липовые» диссертации (по материалам Википедии).

Среди них чаще всего называют языковой барьер, разницу образов научного мышления и некоторую «отрешенность» российской науки (особенно гуманитарной) от мировой проблематики [Обжорин, 2018]. Специалисты указывают, что «опубликоваться в журналах, входящих в 1 и 2 квартили (Q1 и Q2) российскому ученому, ранее не имевшему публикаций в международных журналах, просто невозможно, – его статью даже не будут рассматривать» [Алавердов, 2019, с. 29]. Поэтому российские авторы вынуждены выступать в соавторстве с зарубежными специалистами, иногда чисто формальном.

В качестве одного из направлений совершенствования института цитирования в России выступает развитие Российского индекса научного цитирования (РИНЦ). Решение о его создании

было обусловлено тем, что в 1990-х годах лишь одна десятая от всех публикаций российских ученых попадала в международные базы данных (такие как WoS или Scopus). Кроме того, многие направления российской науки (прежде всего, общественногуманитарные дисциплины) там вообще не были представлены.

Проект стартовал в 2005 г., когда компания «Научная электронная библиотека» стала победителем соответствующего конкурса [О проекте., 2019].

РИНЦ (в отличие от основных международных систем цитирования) находится в открытом доступе, что позволяет всем российским ученым без ограничений использовать этот аналитический инструмент оценки (как научных организаций в целом, так и отдельных авторов на основе библиометрических показателей – индекса цитирования и импакт-фактора). К его недостаткам относится то, что первое время РИНЦ индексировал практически все поступающие на рассмотрение журналы. В результате в базе появилось много псевдонаучных и низкокачественных изданий [О проекте.., 2019; Научный мир видит российскую науку.., 2019].

В 2014 г. eLibrary заключила договор с компанией Thomson Reuters о размещении 1000 лучших российских научных журналов из РИНЦ на платформе WoS в виде отдельной базы данных – «ядра» РИНЦ или Russian Science Citation Index (RSCI). Этот проект позволяет значительно улучшить видимость и цитируемость российских журналов в международном информационном пространстве и способствует повышению их качества за счет приведения к международным стандартам. На первом этапе, в 2015 г., в ядро РИНЦ включили только 653; в перечень RSCI-2018 вошло уже 773 издания. Кроме того, была проведена большая работа по очистке РИНЦ от мусорных журналов и низкокачественных публикаций [О проекте., 2019; Научный мир видит российскую науку., 2019].

RSCI включает 10−11% от количества индексируемых изданий в РИНЦ. Это четвертый национальный научный индекс в мире (до него были созданы китайский, корейский и латиноамериканский). Существующий план по его развитию заключается в объединении на этой платформе лучших русскоязычных журналов пространства бывшего СССР. Так, Рабочей группой РАН в 2019 г.

было принято решение о включении в RSCI лучших научных журналов из Белоруссии, Украины и Молдавии; рассматривается вопрос о журналах из Армении и Казахстана. «…Скоро букву R в сокращении RSCI можно будет перевести как Regional (региональный)» [Научный мир видит российскую науку., 2019].

При доработке и наполнении ресурсов РИНЦ / RSCI сможет достаточно полно и объективно отражать ситуацию в российской науке.

Негативные последствия. Специалисты подчеркивают, что неправильные стимулы и попытки применения валовых критериев в науке затрудняют творческую работу и стимулируют очковтирательство. «Стремление околонаучной бюрократии формализовать оценку работы ученых привело к сомнительному лидерству России по числу “мусорных” публикаций» [Аптекарь, 2019].

К чему приводит административное давление, не обеспеченное соответствующими ресурсами, наглядно видно на примере отечественных вузов, которые сейчас вынуждены отчитываться количеством статей. «Нет публикаций – нет финансирования. Университеты, включаясь в эту гонку, тратят миллионные бюджеты на имитацию научных исследований и публикации в журналаххищниках» [Аптекарь, 2019].

Как показал анализ данных Scopus за период 2010–2018 гг., представители российских вузов опубликовали в журналах и издательствах из списка Дж. Билла 15 тыс. статей, причем этот процесс активизировался с 2013 г. Изучение госзакупок вузов за последние пять лет свидетельствует, что российские поставщики услуг по изданию статей в «хищных» журналах получили 89 млн руб. из бюджета, иностранные – 70 млн руб. При этом почти всю сумму денег на закупки, которые удалось найти, потратил Казанский федеральный университет (КФУ). Закупки других вузов крайне незначительны на фоне этих трат. Тем не менее РЭУ им. Плеханова опубликовал 448, РУДН – 258, а Горный университет Санкт-Петербурга – 270 «мусорных» статей [Заякин, Смагин, 2019].

Многие специалисты обращают внимание на то, что в российской наукометрии возобладал подход «культурного колониализма»: наивысшие рейтинги и оценки получают публикации, которые отечественные ученые размещают в зарубежных изданиях.

Управленцы российской наукой «рассматривают зарубежные публикации как более надежный критерий оценки успеха ученого, чем его локальные достижения. Неявный “колониальный перекос” ведет к унизительной для российских исследователей позиции подчинения и полного принятия формальных и неформальных правил игры, господствующих на западных научных рынках.

Подобная ситуация не только не продвигает научную продукцию российских исследователей в международном контексте, но и, напротив, приводит к деградации отечественной общественной науки, которая должна в этих условиях согласиться с навязываемыми тематическими приоритетами» [Горшков, Черныш, 2018, с. 666, 668].

Достоинства и недостатки наукометрического подхода давно известны, в том числе и в России [Татаринов, 1989; Полянин, 2014].

Представляется, что количество публикаций в международных базах данных может оставаться индикатором развития национальной научной сферы, но не должно становиться плановым показателем результативности деятельности научных работников и научных учреждений. Требовать, чтобы научные сотрудники писали и публиковали свои работы, безусловно, следует. Но учитывать нужно разные издания – как статьи (во всех журналах), так и монографии.

Качественные оценки.

Большинство ученых разных специальностей придерживаются мнения, что на сегодняшний день наиболее приемлемым способом оценки результатов научных исследований «остается метод содержательной компетентной оценки, осуществляемой единоличным или коллективным представителем (экспертом, рецензентом, экспертной комиссией, ученым советом и т.п.). В то же время имеются серьезные проблемы, обусловленные тем, что и выбор самих экспертов, и проведение экспертной процедуры всегда связаны с множеством субъективных моментов» [Татаринов, 1989, с. 32, 35].

Кроме того, неурегулированным остается вопрос достойной оплаты за научное рецензирование и экспертизу. Большое значение имеет восстановление в стране репутационных механизмов оценки достижений отдельных ученых и научных организаций, особенно в области присуждения ученых степеней и званий. Необходимо также «скорректировать статус научной работы, которая сейчас относится к сфере услуг» [Маленький, 2019] и способствовать повышению престижа научной деятельности в обществе.

Специалисты подчеркивают, что, несмотря на отдельные отклонения, имеется устойчивая связь между местом ученого в научной иерархии и его результативностью. В свою очередь, позиции социального и профессионального положения в научной иерархии (т.е. статус) определяются «совокупностью ученых степеней и званий, награждениями международными и национальными премиями, членством в зарубежных академиях и научных обществах, включением информации об ученых и их достижениях в различные справочники, энциклопедии и другие престижные издания» [Татаринов, 1989, c. 32].

В России необходимо создать атмосферу общественного неприятия искажений этических норм научной деятельности, в первую очередь путем последовательной борьбы с плагиатом, недобросовестными изданиями и фиктивными диссертациями.

Например, всячески поддерживать деятельность Вольного сетевого сообщества «Диссернет»и повсеместное использование системы «антиплагиат».

С 2013 г. (даты создания) по 2018 г. «Диссертнет» подал в Минобрнауки 116 заявлений только о лишении ученых степеней кандидатов и докторов экономических наук [Половинко, 2018].

В 2016 г. «Диссернет» открыл «Диссеропедию вузов» – каталог образовательных организаций, сотрудники которых либо сами защитили липовую диссертацию, либо принимали участие в таких защитах в качестве научного руководителя или оппонента, – а

также «Диссеропедию российских журналов» – каталог научных журналов, имеющих признаки некорректной редакционной политики. В 2018 г. члены «Диссернета» были включены в состав новой Комиссии РАН по противодействию фальсификации научных исследований. Но хотелось бы, чтобы расследования сообщества в полной мере учитывались ВАКом и другими официальными органами.

 1 Организованное на добровольных началах сетевое сообщество «экспертов, исследователей и репортеров, посвящающих свой труд разоблачениям мошенников, фальсификаторов и лжецов» [Диссертнет, 2019].

Таким образом, качественные оценки результатов научной деятельности могут опираться на данные о статусе, рейтинге и репутации как отдельного ученого, так и научной организации в целом. На основе современных информационных ресурсов и с помощью новых цифровых технологий (в том числе искусственного интеллекта, «больших данных» и т.д.) можно составлять «белые» или «черные» списки научных сотрудников и научных

изданий, выстраивать соответствующие рейтинги научных учреждений и специалистов. Но для реализации этого подхода нужна соответствующая информационная база.

Попытка создания такой информационной системы в России предпринималась – в виде проекта «Карта российской науки».

В 2012–2016 гг. Минобрнауки потратило на него почти 450 млн руб. бюджетных средств. Но в 2017 г. Совет по науке при Минобрнауки заявил, что в течение четырех лет своего существования система работала неудовлетворительно, и попросил пользователей больше ею не пользоваться. Были выявлены многочисленные нарушения в процессе разработки «Карты российской науки» – как финансовые, так и организационно-правовые [Шмыров, 2018].

Провалившаяся попытка реализации, конечно, дискредитировала идею – но не следует отвергать ее совсем. Повышение уровня открытости результатов отечественных научных исследований, проведенных за государственные средства всеми субъектами научной сферы (за исключением секретных разработок), включая ведомственные заказы и работы некоммерческого сектора, а также улучшение функционирования сайтов российских научных учреждений создает громадные информационные ресурсы, которые имеет смысл структурировать и анализировать.

Количественная оценка прикладных исследований и разработок

В настоящее время в России оценке эффективности и результативности прикладных исследований (и разработок) уделяется совершенно недостаточно внимания – особенно на фоне дискуссии по вопросам оценки результатов фундаментальных исследований. В результате процессы, происходящие в этих научных секторах, мало анализируются и слабо осознаются. Вместе с тем даже значительные успехи фундаментальных наук без соответствующего развития отечественного сектора прикладных исследований и разработок не приводят к ускорению инновационного процесса. Более того, их результаты не превращаются в продукты и технологии реального сектора. Именно такая ситуация фиксируется в настоящее время в России – в том числе из-за падения уровня прикладных исследований и разработок.

По патентным заявкам РФ занимает восьмое месте в мире с показателям 46 тыс. в год, тогда как у стран, входящих в топ-5, ежегодно регистрируется свыше 70–75 тыс. патентов [Минобрнауки: Россия входит., 2018].

На долю России в 2016 г. пришлось 1,3% от всех заявок на изобретения (или около 40 тыс.), 0,5% – на промышленные образцы и 0,7% – на полезные модели. По сравнению с советским периодом конца 1980-х годов двукратный регресс страны в данной области сохраняется. Причем если по количеству патентов на полезные модели Россия в 2016 г. занимала четвертое место в мире, то по патентам на изобретения – восьмое, а на промышленные

образцы – 35-е. Особенно впечатляет снижение результатов отечественных прикладных исследований и разработок на фоне роста соответствующих показателей Китая, который сейчас лидирует в этой сфере. В 2016 г. на его долю приходилось 94% выданных патентов на полезные модели, почти 24% патентов на изобретения и на промышленные образцы. В абсолютном выражении в 2016 г.

Россия отставала от Китая по выданным патентам на полезные модели более чем в 100 раз, по патентам на промышленные образцы более чем в 150 раз, по патентам на изобретения – в 12 раз [Интеллектуальная собственность., 2018, с. 7, 11].

Специалисты отмечают низкую производительность и дороговизну передовых российских технологий. Отдача от внутренних затрат на прикладные исследования и разработки при их пятикратном росте (с 64 млн руб. в 2000 г. до 333 млн в 2008 г.) снизилась в 4 раза. Если в 2000 г. за 1 млрд руб. внутренних затрат на прикладные исследования и разработки создавали 10,7 ед. новых технологий, то в 2008 г. – меньше 2,6 ед. В 2000 г. средняя стоимость одной технологии составила 100 млн руб., в 2008 г. – 390 млн руб. «Безадресный» рост финансирования, не увеличивая выхода новых технологий, приводит к их удорожанию. В наибольшей степени влияет на рост количества новых технологий численность исследователей в технических науках [Шульгина, 2013, с. 59, 60].

Неуклонное снижение технологического потенциала исследований и разработок в стране вызывает серьезное беспокойство. Как подчеркивают специалисты, «количество разработанных и освоенных конкурентоспособных технологий мало и продолжает сокращаться, что противоречит общемировым тенденциям и обрекает страну на еще большее технологическое отставание. Основными причинами этого являются недостаточность финансирования, потеря большого количества квалифицированных технических кадров и отсутствие необходимого взаимодействия в системе “наука – производство”. Проблема повышения технологической эффективности науки и усиления ее влияния на обновление и модернизацию экономики не может быть решена вне рамок комплексной научно-технической политики» [Шульгина, 2013, с. 62].

Однако целостного курса, который охватывал бы все звенья инновационного процесса, в стране до сих пор не выработано. В результате, например, не получается воспользоваться «окном возможностей» по расширению потребления отечественной технической продукции, которое возникло из-за введения антироссийских санкций. Политика импортозамещения во многом выродилась в очередную кампанию, так и не была связана со стратегиями и программами научно-технического развития.

Заключение

Практика многих стран мира и многочисленные исследования свидетельствуют – использование наукометрического подхода для оценки продуктивности и эффективности научной деятельности оправдано в определенных рамках. Количественные показатели не могут служить основным критерием, на базе которого принимаются административные решения. Подобные показатели целесообразно применять как дополнение к экспертным заключениям (качественной оценке) при комплексной (системной) оценке результатов научной деятельности.

В настоящее время действия органов управления отечественной наукой направлены на достижение целей Национального проекта «Наука». Но увеличить в требуемом масштабе показатели публикационной активности российских ученых только за счет административного давления невозможно (если, конечно, в очередной раз не прибегать к манипуляциям с цифрами). Для этого необходимо обеспечить научные учреждения достаточными финансовыми ресурсами, принять меры по повышению качества отечественных научных журналов и развитию национальных информационных систем, включая РИНЦ.

Одних только количественных целей и показателей для нормального функционирования и развития научной сферы недостаточно. В России требуется восстановить действие репутационных механизмов в научном сообществе и поднять престиж научной деятельности в обществе. Следует также повысить внимание к оценке эффективности и результативности прикладных исследований и разработок.

Список литературы

1. Алавердов А.Р. Публикационная активность преподавателей отечественной высшей школы и резервы ее повышения // Высшее образование в России. – М., 2019. – Т. 28, № 2. – С. 23–36.

2. Аптекарь П. Как Россия стала лидером по «мусорным» научным публикациям // Ведомости. – 2019. – 24.04. – Режим доступа: https://www.vedomosti.ru/ opinion/articles/2019/04/24/800011-rossiya-liderom-musornim (Дата обращения: 28.08.2019.)

3. Бердашкевич А.П. Российская наука: состояние и перспективы // Социологические исследования. – 2000. – № 3. – С. 118–123.

4. Борисова А. Постатейный рост: что мешает стабильному развитию российской науки // РБК. – 2019. – 13.02. – Режим доступа: https://www.rbc.ru/opinions/ society/13/02/2019/5c5d93b79a794721cbd2c821 (Дата обращения: 28.08.2019.)

5. Горшков М.К., Черныш М.Ф. О критериях оценки результативности деятельности научных организаций и ученых в области общественных наук // Образование и наука в России: состояние и потенциал развития: Сб. науч. ст. – М.: Центр социального прогнозирования и маркетинга, 2018. – Вып. 3. – С. 663–677.

6. Дайджест показателей публикационной активности российских исследователей по данным Web of Science, Scopus / РИЭПП. – М.: Буки Веди, 2018. – Вып. 4. – 56 с.

7. Диссернет. О проекте // Диссертнет. – Режим доступа: https://www.dissernet. org/about/ (Дата обращения: 05.09.2019.)

8. Заякин А., Смагин А. Пиши, Емеля. Государство требует от ученых больше научных статей. А получает горы макулатуры за солидные деньги // Новая газета. Общество. – 2019. – № 45. – 20.04. – Режим доступа: https:// www.novayagazeta.ru/articles/2019/04/20/80297-pishi-emelya (Дата обращения: 04.09.2019.)

9. Ивлев Г.А. О последствиях применения Методики распределения дополнительных бюджетных средств на повышение заработной платы научных сотрудников учреждений сферы науки, ранее подведомственных ФАНО России, 159 применительно к 2019 году // Итоги Пленума Нижегородской региональной организации Профсоюза работников РАН. – 2019. – 26.01. – Режим доступа: www.nnro-pran.ru/news/img/plenym_2019/Ivlev.pdf (Дата обращения: 04.09.2019.)

10. Интеллектуальная собственность России в цифрах: Дайджест показателей патентной активности российских исследователей / сост. И.Е. Ильина, В.В. Лапочкина. – М.: Буки Веди, 2018. – 44 с.

11. Количество российских публикаций в Scopus за год превысило 100 тыс. Что дальше? // Индикатор. Гуманитарные науки. – 2019. – 24.05. – Режим доступа: https://indicator.ru/humanitarian-science/publikatsii-scopus.htm (Дата обращения: 25.08.2019.)

12. Лепешев В.А. Место российских журналов в системе научных публикаций как инструмента оценки публикационной активности: Доклад на 8-й Международной науч.-практич. конференции «Научное издание международного уровня – 2019: Стратегия и тактика управления» (23–26 апреля 2019 г., Москва). – 2019. – Режим доступа: https://conf.rasep.ru/files/conferences/1/ materials/2019.04.23_Lepeshev.pdf (Дата обращения: 18.08.2019.)

13. Маленький А. Убийство науки в России. Почему онемело правительство и аплодировала РАН // ИА REGNUM. Новости. – 2019. – 05.08. – Режим доступа: https://regnum.ru/news/2680809.html (Дата обращения: 25.08.2019.)

14. Маршакова-Шайкевич И.В. Россия в мировой науке / РАН. Ин-т философии. – М., 2008. – 227 с.

15. Мендкович Н. Наука в СССР и России // Полярная звезда. – 2007. – 04.09. – Режим доступа: www.zlev.ru/125/125_55.htm (Дата обращения: 03.09.2019.)

16. Минобрнауки: Россия входит в пятерку ведущих стран по численности исследователей // ТАСС. – 01.11. – 2018. – Режим доступа https://tass.ru/ nauka/5747774 (Дата обращения: 15.08.2019.)

17. Научный мир видит российскую науку через Russian Science Citation Index // РАН. Новости. – М., 2018. – 29.10. – Режим доступа: http://www.ras.ru/news/ shownews.aspx?id=c4a94c37-a606-4027-8d1c-39742e98004e (Дата обращения: 18.08.2019.)

18. Обжорин А.М. Проблемы научных публикаций в России // Метеор-Сити. Наука развития. – Челябинск, 2018. – № 1. – С. 16–23.

19. О проекте. Российский индекс цитирования // eLibrary. – М. – Режим доступа: https://elibrary.ru/projects/citation/cit_index.asp (Дата обращения: 06.09.2019.)

20. Паспорт Национального проекта «Наука» (утвержден 24.12.2018) // Правительство России. – 2019. – 11.02. – Режим доступа: http://static.government.ru/ media/files/vCAoi8zEXRVSuy2Yk7D8hvQbpbUSwO8y.pdf (Дата обращения: 18.08.2019.)

21. Половинко В. Наука покрывать // Новая газета. Политика. – 2018. – № 14, 09.02. – Режим доступа: https://www.novayagazeta.ru/articles/2018/02/09/75444-nauka-pokryvat (Дата обращения: 05.09.2019.)

22. Полянин А.Д. Недостатки индексов цитирования и Хирша и использование других наукометрических показателей // Математическое моделирование и численные методы. – М., 2014. – № 1. – С. 131–144.

23. Постановление Правительства РФ от 08.04.2009 № 312 «Об оценке и о мониторинге результативности деятельности научных организаций, выполняющих научно-исследовательские, опытно-конструкторские и технологические работы гражданского назначения» // Собрание законодательства РФ. – М., 2009. – № 15. – Ст. 1841.

24. Постановление Президиума РАН от 25.03.2008 № 196 «Об утверждении Квалификационных характеристик по должностям научных работников научных учреждений, подведомственных РАН» / РАН. – 2008. – Режим доступа: http://www.ras.ru/presidium/documents/directions.aspx?ID=74cc04fa-5b7f-4… (Дата обращения: 27.08.2019.)

25. Постановление Президиума РАН от 10.04.2019 № 56 «О принципах распределения бюджетных средств и установления нормативов публикационной активности для научных организаций» // Консультант-плюс. – 2019. – Режим доступа: http://www.consultant.ru/cons/cgi/online.cgi?req=doc&base=EXP&n= 626741#07452236804901422 (Дата обращения: 28.08.2019.)

26. Приказ Минобрнауки РФ № 273, Минздравсоцразвития № 745, РАН № 68 от 03.11.2006 «Об утверждении видов, порядка и условий применения стимулирующих выплат, обеспечивающих повышение результативности деятельности научных работников и руководителей научных учреждений и научных работников научных центров Российской академии наук» // Бюллетень нормативных актов федеральных органов исполнительной власти. – М., 2007. – № 2. – С. 60–65.

27. Публикационная активность России: что говорят Scopus и Web of Science? // Министерство науки и высшего образования России. Проект 5–100. Новости. – М., 2019. – 05.04. – Режим доступа: https://www.5top100.ru/news/100908/ (Дата обращения: 18.08.2019.)

28. Российский индекс научного цитирования // eLibrary. – Режим доступа: https://

elibrary.ru/project_risc.asp (Дата обращения: 07.09.2019.)

29. Татаринов Ю.Б. Количественная и качественная оценка результатов фундаментальных исследований // Вестник РАН. – М., 1989. – № 10. – С. 28–41.

30. Указ Президента РФ от 07.05.2012 № 599 «О мерах по реализации государственной политики в области образования и науки» // Официальный сайт Президента России. – М., 2012. – Режим доступа: http://graph.document. kremlin.ru/page.aspx?1;1610850 (Дата обращения: 03.09.2019.)

31. Указ Президента РФ от 01.12.2016 № 642 «О Стратегии научно-технологического развития РФ» // Президент России. Документы. – М., 2016. – Режим доступа: http://www.kremlin.ru/acts/news/53383 (Дата обращения: 08.07.2019.)

32. Шульгина И.В. Российская наука в технологиях и инновациях // Социология науки и технологий. – 2013. – № 2. – С. 54–63.

33. Шмыров В. Загублена информационная система «Карта российской науки» стоимостью 450 млн // CNEWS. Новости. – 2018. – 29.06. – Режим доступа: http://www.cnews.ru/news/top/2018-06-29_minobrnauki_zagubilo_informatsio…

sistemu_za (Дата обращения: 05.09.2019.)

34. Scimago journal and country rank. – 2018. – Mode of access https://www.scimagojr.

com/countryrank.php?year=2018 (Дата обращения: 18.08.2019.)

Положихина Мария Анатольевна, кандидат географических наук, ведущий научный сотрудник Отдела экономики Института научной информации по общественным наукам РАН (ИНИОН РАН).

Источник: http://inion.ru/site/assets/files/5183/2019_espr_2.pdf

Поделиться в социальных сетях

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Авторизация
*
*
Регистрация
*
*
*
Генерация пароля