こんにちは。ひよこてんぷらです。
ブログ記事を書くのは久しぶりです。前回の更新から1年以上経っています。
今回は唐突ですが、解析学ジャンルにおけるジャーナルの評価についての分析をしてみようと思います。自分はもともとデータベース等をチェックするのは好きなので、この手のことはずっと前からやっていたことです。
ではなぜ急に?ということですが、それは我々の業績がどのようにして「評価」されているのか気になったので、これまでの所感も含めてまとめてみようと思ったからです。
現在私は研究機関に所属しています。所属機関において、まず機関から依頼があったことは「これまでの業績を研究機関専用のデータベースに登録してほしい」とのこと。自分はresearchmap等で自分の情報を細かく管理していたので、この登録作業自体にはそこまで苦労しませんでした。ただ気になったのは、このようなデータベースへの業績登録の依頼は、実際には文部科学省からの依頼であるということ、そして「運営費交付金の配分額に影響」するということです。つまり、自分が登録した研究業績は何らかの方法で「評価」されるということになります。
研究機関において、どれだけお金が使えるかは重要であることは言うまでもないです。ですので研究業績の評価も重要な位置づけにあります。またさらにこれとは別件で、研究機関としての評価が文科省から下されたという通達もありました。自分の知らない所で、様々な観点から研究機関が評価されています。
このような事情で、我々の業績がどのように評価されているのか気になりました。なお、上記の話題は研究機関としての評価が文科省から下されたということですが、これ以外にも評価される状況は多くあります。
例えば学振・科研費の申請です。これらの場合は研究業績のみならず他の要因もあるでしょうが、研究業績による評価は必ずされているでしょう。他にも研究教育機関に就職する際の審査もそうでしょう。多くの場合はまず履歴書と共に研究業績を提出します。ここでいう研究業績は、我々の業界の場合は「査読付論文」「研究発表」「外部資金獲得」などが対象かと思います。分野によっては「論説」「国際会議プロシーディングス」「アウトリーチ活動」等も業績に含まれると思います。とにかく、何らかの方法でこれらの研究業績を他者のそれと比較し、審査が行われているわけです。また別に、研究教育機関内における評価もあるかもしれません。つまり、研究業績を何らかの方法で数値化し、その結果に応じて所属研究員の昇給などがされるシステムです。文科省からの評価以外にも多くの場面で我々の研究業績が評価されます。
これらの業績評価において我々が気を付けなければならないのは、多くの場合は「客観的指標」に基づいて評価されるということです。例えば自分の属している研究グループは「数学」、さらに詳細には解析学のうち「偏微分方程式論」が該当します。このくらい細かいグループ分けがされていれば、その研究者の業績評価はある程度できます。実際に知り合っていればなおさらよいですし、そうでなくても研究業績を見ればなんとなく評価ができるでしょう。一方で単に「数学」というグループ分けだけだったらかなり難しいです。例えば代数学の研究者の研究業績を判断せよ、と言われても自分は業績を見ただけではまったく判断できません。
このような事情において、研究機関が文科省から評価されるとはどういう状況でしょうか?明らかに研究分野の内情を理解できているとは思えないので、やはり「客観的指標」に頼るしかないでしょう。研究教育機関への就職のケースはどうでしょうか。もし該当機関に類似分野の研究者がいればよいですが、そうでない場合はやはり同様かと思います。
いずれにせよ、このような客観的指標に頼るというのは仕方がない状況です。そもそも研究とは、ましてや我々のような数学が研究対象の場合は、営利目的とは縁遠いです。研究をするにはお金が必要な一方で、基礎研究単体でお金稼ぎはできませんから、どうしても公的資金に頼らなければ研究はできません。一応、我々のような基礎研究をしている身としては「すぐには役立たないけど10~20年後には少しずつ応用の研究を支え、最終的には新たな社会発展の為の基盤になります」という主張をするわけです。しかし仮にこの主張が正しかったとしても、実際に研究が役立って社会を支えるのは我々が現役世代でなくなる頃ですから、実質リターンがゼロの状況で出資してくれる善人はなかなかいないでしょう。なので公的資金が必要です。しかし公的資金で研究するということは、当然「ちゃんともらった資金で研究を頑張っています」と対外アピールしなければならない義務が発生します。そしてその評価ですが、これは内情を知る研究者からの評価では信用されず、文科省等の外部の者が評価することになります。そうすると、必然的に「研究分野に詳しくない人でも研究業績を客観的に評価する方法」が必要になるということです。
さて、研究業績の評価方法ですが、ここではジャーナルによる評価について考えます。単純に研究業績を評価するならば、まずは論文数でしょう。ただし、当然ながら研究分野によってどのくらいの論文数が標準的なのかバラバラです。月に1本以上執筆するペースなのか、数か月に1本ペースなのか、あるいは年単位で時間がかかるのか、などです。そして、論文数をただカウントして業績評価というわけにもいかないでしょう。その研究成果がどの程度「質の高い」ものなのかという評価も必要です。既存の研究結果を少し改良した程度なのか、あるいはかなり影響力のある成果なのか、という点です。
特に、研究の質の高さの判断ですが、これはどのジャーナルに掲載されているかということが基準に採用されやすいです。このジャーナルに載ったということはかなりいい研究成果なんだな、このジャーナルということは標準的な内容なのかな、という感じです。
上記で述べた論文数と掲載ジャーナルにおける判断は、一見すると客観的指標になっていますので、内情を知る研究者による業績評価と、外部の者による業績評価は一致しそうに思えます。しかしここで問題になるのが「ジャーナルの評価」です。先ほどの例で、自分は「偏微分方程式論」の研究グループに属しているので同じグループ内での業績評価はやりやすいと述べました。実際、もし業績評価をしろと言われれば、論文数とその掲載ジャーナルを見て判断することになると思います。そこで我々が頼りにするのはジャーナルの評価です。同じ研究グループであれば大体似たようなジャーナルに論文を投稿するでしょうから、ジャーナルの評価がなんとなく分かります。一方で例えば代数学の研究者の場合はどうでしょうか。自分は代数学ジャンルのジャーナルの評価はよく分かりません。なのでどうするかというと、そのジャーナルの評価は「外部の指標」に頼ることになります。
このような問題は様々なところで起こっているはずです。先の例ですと、文科省の評価、研究教育機関における就職の際の審査、そして機関内部の昇給等に係る審査などです。類似分野の研究者がいれば業界内でのジャーナルの評価によって研究業績が分かりますが、そうでない場合はジャーナルを外部の指標から評価するでしょう。
そこで、今回の記事の主題は、我々の分野におけるジャーナルの評価は、我々が思っている評価と外部の指標による評価とでどの程度の乖離があるのか?ということです。まあ実際に文科省や研究教育機関等ではジャーナルの評価で研究業績が判断されているのかは分からないわけですが、少なくとも研究分野の内情に詳しくない者が外部の指標に頼るとなると自然にこうなるとは思います。なので自分としてはこのあたりの違いに興味があります。
次に、外部の指標としてどんなものが知られているのか?ということを見てみます。まずはClarivate社のデータベースであるJournal Citation Reportsです。あまり研究に縁がない人でも「インパクトファクター」という言葉を知っている人は多いでしょう。このインパクトファクターはClarivate社のJournal Citation Reportsで用いられる指標です。なおClarivate社ではWeb of Scienceという研究者データベースも扱っており、これも有名です。ちなみにJournal Citation Reportsですが、ぶっちゃけ少し使いづらいです。まず誰でも閲覧できるわけではなく、製品契約者しか使えない仕様です。研究教育機関で製品契約していれば、その機関の関係者は使えます。さらに文句が続きますが、ジャーナルが検索しづらい。検索の際にはジャーナル名を入れるわけですが、完全一致じゃないと検索候補に出てきません。例えば略称を入れても出てこず、"of"とか"the"みたいなのが間に挟まれているジャーナルでは、その間に挟まれている文字を省略するとヒットしません。しかもアクセント系は無くなっており、逆に正確にアクセントを入れて検索するとヒットしないという仕様です。本部所在地がアメリカということもあり、ここらへんの傲慢さが透けて見えます。
では次の外部指標としてElsevier社のScopusを紹介します。Elsevier社はSpringer社と並ぶ有名な超大手出版社であり、自然科学ジャンルの多くのジャーナルは2つの出版社のいずれかから出版されているという印象を受けます。そのうちのElsevier社が提供しているデータベースがScopusです。こちらはログインせずとも使えるようです。
最後にScimagoを紹介します。Scimagoの運営母体は研究グループであり、スペインの科学研究委員会およびグラナダ大学、エストレマドゥーラ大学、マドリード・カルロスIII世大学、アルカラ大学によって編成されているようです。データベースそのものの情報はScopusから引っ張ってきているようですが、そのデータの解析手法が独自のもののようです。これもログインなしで使えますが、そもそもログインして使うという概念がないため定期的に広告が出ます。しかし全画面広告が少し出てくるだけで、少なくとも現状では広告が動いたり動画を見せられたりすることはなく(日本のWebサイトのように)不快には思いません。ただ逆にスマホで見ると「アドブロックを解除してね!!」とデカデカと表示されて使い物になりません。ちなみに"Scimago"ってどう発音するのが正しいのかということですが、どうも「エスシーマーゴ」が正しいっぽい(?)です。
ということで、今回はこの3つのデータベースから得られる客観的指標について見ていきたいと思います。なお、初めに自分の意見を述べておきますと、この3つのデータベースのうち自分のイメージする評価と最も近いのはScimagoです。なぜそう思うかということについては、実際の比較で分かってくると思います。
比較の前に、それぞれのデータベースでどのような指標を用いているか確認しましょう。まずはJournal Citation Reportsです。これは初めに紹介したインパクトファクターが使われています。
一応正確な定義を述べておきますと、インパクトファクター(JIF)とは、そのジャーナルに掲載されている論文の被引用数の平均値です。現在のケースでは、2024年はまだ終了していないので、前年の2023年で計算します。さらに、2023年で使うのは被引用数だけであって、対象の論文はさらにその前の2021~22年です。まず対象のジャーナルが2021~22年で何編の論文を出版したか数えます。次に、その対象論文において、2023年での被引用数を全て数えます。最後にその比率を計算することで、2023年度でのJIFが計算できるわけです。ややこしいですが、最新のJIFは前年度のデータから計算され、直前の年度は被引用数のみのカウントであって対象文献はさらにその1~2年前になります。おそらくこれは、対象文献を2022~2023年にするとそもそも2023年の文献が引用されにくいことを考慮したものだと思います。実際、出版された後に引用がされるわけですが、その引用した論文が再び他の雑誌に掲載されてからのカウントですからね。なので1~2年分のブランクがないと被引用数が正確に分かりづらいのでしょう。
しかし、JIFの定義を述べたのはいいですが、ここでは別のJournal Citation Indicator (JCI)というものを使って評価しようと思います。これは比較的最近になって導入された指標です。まず、JIFの定義から分かることは何か?それは、JIFでは単に「論文1編当たり何回引用されたか」を表すだけということです。もしJIFでジャーナルのランク付けをしたらどうなるか?これの問題は、分野横断的なジャーナルの評価が怪しくなることです。まず、「数学」という研究ジャンルは、他の研究ジャンルに比べると論文の被引用数は低いです。とはいえ、これも単に「数学」という括りで考えず、もっと細かくすると話が変わってきます。例えば「偏微分方程式論」は「数学」の中では被引用数は多くなると思います。やはり偏微分方程式論は物理学等の分野とは切っても切り離せない関係ですし、純粋数学のアプローチで解析することもあれば、数値解析等のシミュレーションによる研究もあるでしょう。単なる純粋数学に比べればシミュレーションや数理モデル系統の研究は被引用数は増えますので、その意味では「偏微分方程式論」は「数学」の中では被引用数が高くなりがちです。より被引用数が高い研究分野というと医学系かなと思います。このあたりは自分もそこまで詳しくないですが、とにかく研究分野によって被引用数の違いがあるということは確かでしょう。
そうしますと、JIFでジャーナルのランク付けをした場合は、例えば純粋数学のなかでも代数学系はかなり不利な立場になるでしょう。上の理由により、応用数学の分野も含めるような偏微分方程式系のジャーナルは高く評価されるということになります。その中でも、純粋な数学理論のみを扱うのか、あるいは数値解析等で方程式の解の挙動を予想するという方向性も含まれるのか、もっと言えば理論物理・化学の視点から新たなモデルを提唱するという研究も含まれるのか、という観点で評価が変わってきます。
このような問題を解決しようと導入されたのがJCIです。JCIは、JIFと同様に被引用数で評価すること自体は同じですが、そこからジャーナルの分野カテゴリー等をより詳細に選別し、分野の違いによる被引用の影響をうまく正規化します。また、過去2年間ではなく3年間分で計算するという違いもあります。最終的には平均が1となるようなスコアとして算出し、このJCIを使ってジャーナルの評価を行おうというものです。JIFに比べると算出方法がブラックボックスであり、分かりづらくはありますが、何とかして分野の違いにおける格差を解消しようという動機付けが分かります。
次に、ジャーナルのランク付けにおけるパーセンタイルについて理解しましょう。パーセンタイルとは統計に表れる用語です。データの並び順が定義によって異なるかもしれませんが、ここでのパーセンタイルは次のように考えます。データを大きい順に並べ、下から数えていきます。このとき対象となるデータが最小値から見て何%の位置付けにあるかがパーセンタイルです。最大値は100パーセンタイルということになり、中央値は50パーセンタイルです。高校数学で扱った四分位数というものを思い出すと、第一四分位数は25パーセンタイル、第三四分位数は75パーセンタイルです。並べ方によってこのあたりは定義が変わりますが、ここでは上記のようにに考えましょう。
さて、Q1-4ジャーナル、Top10%ジャーナルについて述べておきます。Q1-4ジャーナルとは、上のパーセンタイルによって決まるジャーナルの評価です。「Q1ジャーナル」とはランク付けにおいて75パーセンタイル以上の位置付けにある、つまり「質の高い」ジャーナルということです。「Q2ジャーナル」は50~75パーセンタイル、「Q3ジャーナル」は25~50パーセンタイル、「Q4ジャーナル」は0~25パーセンタイルです。Top10%ジャーナルは上から数えて10%、つまり90パーセンタイルということです。なのでTop10%ジャーナルはQ1ジャーナルよりも厳しい基準になります。「Top10%ジャーナル」という言葉自体はデータベースには出てきませんが、用語を検索するとちらほら出てきます。なお、文科省における研究力調査ではこれと似た「Top10%論文」という指標がよく出てきています。ただこれはジャーナルではなく個人の論文に関するものなので、この記事では言及しないことにします。そしてもちろん注意ですが、このQ1-4ジャーナルやTop10%ジャーナルという評価は、どの指標によるものかで変わってくるわけです。つまりこのデータベースではこのジャーナルはQ1だけど、別のデータベースではQ2ということが実際に起こりえます。このような評価の違いこそ、この記事で調査したい内容です。
さて、指標としてJIFとJCIを紹介しましたが、これはJournal Citation Reportsで扱われる指標です。一方でScopusではCiteScoreが使われます。CiteScoreはJIFと似た指標であり、特に分野間での正規化はありません。年数はJCIと同様3年間であり、JIFに比べ1年長いです。JIF, JCIとの大きな違いは、CiteScoreではScopusに収録されている全ての文献の被引用数が含まれる点です。JIFは基本論文における被引用数ですが、CiteScoreはそれに限りません。なお、JCIでは分野間の格差を減らすように正規化していますが、ScopusのCiteScoreも正規化はせずともある程度の分野ごとでランク付けはするので、若干の補正はされた評価になります。
最後にScimagoですが、ここではSCImago Journal Rank (SJR)という指標を使います。さすが同じデータを使えども解析手法には凝っているだけあって、この指標は非常に複雑です。SJRも3年分の論文における被引用数の平均値なのですが、単なる平均値ではなく、加重平均で計算されています。その「加重」ですが、要するに「質の高い」ジャーナルから引用されると通常の被引用に比べて高く評価されるという仕組みです。どのようにして「質の高い」ジャーナルを選別しているかというと、どうやらGoogleの検索機能においてWebページの表示順を決めるアルゴリズムであるGoogle PageRankを応用しているらしいです。もちろんJCIも何らかの方法で正規化を行っていますが、見た感じだとSJRのランク付けの方がずいぶんと複雑なシステムを使っているように思えます。やはり研究機関が提供する評価システムはすごいですね。無料で広告付きにして誰でもアクセスできるようにしていることからも分かりますが、知名度に胡坐をかくことなく公平なデータベースを提供するという意思を感じます。逆にいうと、例えばこの記事やこの記事など、JCIやCiteScoreはいろいろと評価指標として疑問視されているという声も聞きます。
特にCiteScoreの問題として、自社の出版物の評価を上げやすくしているのではないかという指摘があります。確かにElsevier社はジャーナル刊行もしていますから、出版社が評価まで一緒にやるのは少しアレなわけですよね。まあしかし、これらの問題は眉唾物です。実際に指標としてどれが優れているかということは、これから比較してみると自ずと分かってきます。
前置きがずいぶん長くなりましたが、いよいよジャーナルの比較をしてみようと思います。なお、以降の評価は記事執筆時点での評価ということに注意してください。初めに述べたように、自分の感覚としてはScimagoのランク付けが一番近いと思います。なぜそう思うのかということとして、まずは次の3つのジャーナルの位置付けを見てみましょう。
- Archive for Rational Mechanics and Analysis
- Communications in Partial Differential Equations
- Annales de l'Institut Henri Poincaré C Analyse non linéaire
上記3つのジャーナルは、偏微分方程式論を研究していれば必ず「非常に質の高い」ジャーナルであると答えるでしょう。ではSJRにおける評価ですが、SJRの数値としては、ARMAが3.7, CPDEが2.4, AIHPCが2.6で、これら3つはどれもQ1ジャーナルです。本来はSJRでもパーセンタイルによる位置付けを調べたいのですが、そこまで詳細に分からなかったのでこのような形としています。なお、過去5年以上にわたってQ1であり、非常に安定して高く評価されています。
一方でCiteScoreですが、ARMAが5.1, CPDEが3.6, AIHPCが4.1です。CiteScoreではパーセンタイルが見れます。ARMAは95パーセンタイル、CPDEは85パーセンタイル、AIHPCが91パーセンタイルです。つまり、CiteScore指標ではCPDEはTop10%ジャーナルではない、という評価になっています。少なくとも偏微分方程式論の分野ではトップレベルのジャーナルなので、これがTop10%から外れるのは冷遇されているという印象を受けます。さらに、JCIでの評価ですが、ARMAが1.0, CPDEが1.3, AIHPCが1.1となっており、パーセンタイルはARMAが78, CPDEが90, AIHPCが78です。なんとJCIではARMAとAIHPCは80パーセンタイルを下回っています。そもそもJCIは1が平均値ということを述べましたが、ARMAは平均値という評価です。流石にこれはひどい扱いでしょう。しかも、辛うじて今はどれもQ1ジャーナル評価ですが、どうも過去5年間までさかのぼるとARMAとCPDEはQ2に位置付けられている年もあります。
せっかく頑張っていいジャーナルに掲載されたのに、それが外部の者からこういう指標で評価されて「大した成果ではない」という風に扱われたら嫌ですよね。とにかくこの3つのジャーナルの比較だけでも、我々の感覚と外部の指標では乖離があるということが分かります。
次は以下の3つのジャーナルを見てみましょう。
- Mathematische Annalen
- Journal of Functional Analysis
- Communications in Mathematical Physics
MathAnnは解析学ジャンルに限らない総合誌です。通常、我々の認識では解析学に特化した専門誌よりも全ての数学ジャンルで審査される総合誌の方が難しいという風に考えられています。JFAは関数解析特化ですが、これも質の高いジャーナルです。CMPは数理物理ではトップレベルのジャーナルです。やはりSJRではMathAnn (1.9, Q1), JFA (2.1, Q1), CMP (1.6, Q1)とどれも安定してQ1ジャーナルの位置付けにいます。
一方でCiteScoreではMathAnn (2.9, 83), JFA (3.2, 77), CMP (4.7, 87)という評価であり、どれもTop10%ジャーナルには属していません。特にJFAは77パーセンタイルと運が悪いとQ2に属してしまうほど。SJRではJFAは過去もずっとQ1なので安定感がありますが、この評価では少し不安定です。JCIはMathAnn (1.1, 86), JFA (1.5, 93), CMP (0.9, 79)です。今度はJFAが高く評価されTop10%ジャーナル入りの一方、CMPはJCIの平均値1を下回るという不遇な扱いです。ただ、実際問題として数理物理系統のジャーナルの評価はかなり不遇な扱いを受けているという印象があります。他のジャンルに比べて該当するジャーナルが少なく、少し評価が低いと大きくランクが下がる、あるいは質の高いジャーナルだけども母数が少ないから高く評価されにくいなどの問題があります。これはSJRも同様で、少し数理物理は不利です。
なぜこのように評価が大きく異なるのかの原因ですが、これはそれぞれのジャーナルがどの分野に属しているかで評価が変わってしまうからです。前に少し述べましたが、例えば偏微分方程式論の中でも数値解析や数理モデル等の応用を含むか否かで変わってくるということです。イメージとしては、ボクシングの体重での階級分けにおいて、ミドル級の選手がなぜかヘビー級で試合をしている、みたいな感じですね。同じ指標でも、どの分野としてランク付けされるかによって全く評価が変わってしまうわけです。例えばScopusでは、我々の分野で該当する数学ジャンルでは"Analysis", "Applied Mathematics", "General Mathematics", "Mathematical Physics", "Mathematics (miscellaneous)"などがあります。応用数学は被引用数が多くなりやすいので、例えば実際はかなり純粋数学を扱っているにも関わらず、そのジャーナルが"Applied Mathematics"という分野に属していると、とたんに評価上は不利になってしまう、ということです。
続いて次のジャーナルを見てみましょう。
- Nonlinear Analysis
- Nonlinear Analysis: Real World Applications
- Nonlinearity
名称がどれも似ていますが、違うジャーナルです。なお上の2つは同じElsevier社から出版されています。NonlinearAnalは1976年、およそ50年前ほどに刊行開始された歴史あるジャーナルです。一方でRealWorldApplは2000年からということで、歴史にかなり差があります。同じ出版社ではありますが、NonlinearAnalの方が高く評価されていると思います。NonlinearityはIOP Publishing社のジャーナルであり、これは88年刊行開始です。SJRではNonlinearAnal (1.3, Q1), RealWorldAppl (1.2, Q1), Nonlinearity (1.4, Q1)となっており、どれも安定してQ1の位置付けです。SJR指標ではどれも同じようなレベルという認識になっています。
一方でCiteScoreですが、NonlinearAnal (3.3, 81), RealWorldAppl (3.8, 88), Nonlinearity (3.0, 66)となっておりだいぶ印象が違います。RealWorldApplはもう少しでTop10%ジャーナル入りの高評価の一方、NonlinearityはQ2という評価です。これもNonlinearAnalとのCiteScoreを比較すれば分かるように、単に数値自体は近いのですが、Nonlinearityは数理物理ジャンルで評価されてしまっているため、かなり不遇な評価を受けています。同じくJCIでもNonlinearAnal (1.1, 84), RealWorldAppl (1.1, 80), Nonlinearity (0.8, 73)とNonlinearityだけいじめられています。個人的にはRealWorldApplよりも高いジャーナルだと思います。
他にも不遇な扱いを受けているジャーナルは
- Nonlinear Differential Equations and Applications NoDEA
- Journal of Mathematical Fluid Mechanics
- Journal of Fourier Analysis and Applications
です。SJRではNoDEA (1.0, Q1), JMFM (1.0, Q1), JFAA (0.9, Q1)となっています。これがCiteScoreになるとNoDEA (1.7, 47), JMFM (2.0, 50), JFAA (2.1, 73)となり、JCIではNoDEA (0.6, 43), JMFM (0.5, 31), JFAA (0.6, 49)という評価です。パーセンタイルが50を切るということは、半分よりも下のレベルということです。SJRではどれもQ1なので75パーセンタイル以上を保証しているにも関わらず、かなりの冷遇措置です。まあQ2くらいの評価になるのは仕方ないかもしれませんが、流石にQ3に位置付けられるのは納得がいかないですよね。それほど評判の悪いジャーナルではないはずです。ちなみに参考までにJournal of Mathematical Analysis and ApplicationsはCiteScore: 2.5, 69; JCI: 0.9, 79で、Journal of Evolution EquationsはCiteScore: 2.3, 73; JCI: 0.8, 74です。このあたりはジャーナル評価としては近いと個人的には思いますが、上記の3つのジャーナルはかなり扱いが悪いです。
さて、ここまででは実際の評価に比べて冷遇されているジャーナルを中心に見ていきました。もちろん、逆に我々の評価に比べると過剰評価なのでは?というジャーナルもありますので、それについても見てみます。
まずはこのあたりを見てみましょう。
- Advances in Nonlinear Analysis
- Journal of Differential Equations
- Applied Mathematics Letters
ANONAは2012年刊行と比較的新しいジャーナルです。論文は完全オープンアクセスという特徴があります。最近刊行開始されたジャーナルではこのような完全オープンアクセスのスタイルを取っているところも少なくないような気がします。JDEは1965年刊行開始とかなり歴史が長いジャーナルです。ApplMathLettは我々の研究分野では比較的マイナーな気がします。タイトルの通り応用数学がメインのジャーナルでしょう。
まずSJRでの評価ですが、ANONA (1.9, Q1), JDE (2.0, Q1), ApplMathLett (1.1, Q1)という感じです。ANONAとJDEはSJRでも高く評価されています。ApplMathLettは少しスコアは低くなりますが、それでもQ1として評価されています。しかし問題なのは他のデータベースで、CiteScoreはANONA (6.0, 97), JDE (4.4, 93), ApplMathLett (7.7, 94)です。どれもTop10%ジャーナル入りです。これらのジャーナルは決して質が低いことはなく、いいジャーナルであることは確かであるとは思います。しかし例えば上の比較ではCPDE, MathAnn, JFA, CMPなどはTop10%ジャーナルとは判断されていなかったことを踏まえると、これはやや過剰評価でしょう。また、JCIもなかなか過剰で、ANONA (3.4, 100), JDE (2.2, 98), ApplMathLett (2.1, 97)です。ANONAはついに100パーセンタイル。正確には99.55パーセンタイルですが、ほぼ100パーセンタイルです。さすがに高く評価されすぎです。ちなみにSJRでもANONAは以前は過剰評価だったのですが、現在はかなり落ち着いてきています。
続いて
- Analysis and Applications
- Mathematical Methods in the Applied Sciences
- AIMS Mathematics
を見てみます。AnalApplは解析系の名称でありながら、そこまで知名度はないと思います。MMASはまあそれなりに知名度があります。AIMSMathは最近の総合誌なので、それほど知っている人は多くないでしょう。SJRでの評価はAnalAppl (1.0, Q1), MMAS (0.6, Q2), AIMSMath (0.5, Q2)です。これまでのジャーナルはSJRでの評価は全てQ1でしたが、ここではQ2の評価が出てきています。AnalApplも過去5年までさかのぼると、ずっとQ1ではなく少し不安定なようです。
ではCiteScoreですが、AnalAppl (3.9, 89), MMAS (4.9, 93), AIMSMath (3.4, 87)です。MMASはSJRだとQ2評価でしたが、なんとここではTop10%ジャーナルです。他もかなり高く評価されています。またJCIではAnalAppl (1.6, 94), MMAS (1.4, 88), AIMSMath (1.7, 95)です。今度は残りのAnalApplとAIMSMathがTop10%ジャーナルです。これは流石に過剰評価ですね。
ちなみにMMASとよく似た名称のMathematical Models and Methods in Applied Sciencesというジャーナルもありますが、これはかなり質の高いジャーナルです。SJRでもCiteScoreでもJCIでも高く評価されています。こっちは自分の肌感覚と合っていますね。
最後に、少し面白いケースも見ましょう。
- Discrete and Continuous Dynamical Systems
- Discrete and Continuous Dynamical Systems - Series S
- Discrete and Continuous Dynamical Systems - Series B
これらのジャーナルは全てAIMSが刊行しています。どれも同じといいたいところですが、ジャーナルの評価はかなり違います。自分の印象としては、通常のDCDSが一番良いジャーナルという感じです。実際にSJRでの評価はこの感覚を体現しており、DCDS (1.1, Q1), DCDSS (0.5, Q2), DCDSB (0.7, Q2)となっています。通常のDCDSはQ1ですが、他はQ2という評価です。一方でCiteScoreだとDCDS (2.5, 78), DCDSS (3.7, 98), DCDSB (2.8, 88)となり、逆の評価になります。特にDCDSSは98パーセンタイルでTop10%ジャーナル入りです。またJCIはDCDS (0.8, 73), DCDSS (0.9, 71), DCDSB (0.7, 54)となっています。CiteScoreほど過剰ではないですが、やはり自分の感覚とは少し違うなと思います。
これ以外にも色々と違いを見てみると面白いのですが、文章がだいぶ増えてきてしまったので比較はこのあたりにしようと思います。興味があれば皆さんも検索して調べてみてください。
最後にですが、冒頭で述べたように、もともと自分はかなり前からジャーナルのデータベースの比較をしていました。なのでこのような評価の乖離は前から知っていたことです。別に自分はこのように実際の研究者間での評価と客観的指標が異なっていたとしても、これまで通り研究者間での評価軸をベースにジャーナルを選ぶつもりです。とはいえ、研究機関に所属して自分の研究業績を反映させる際に、運営費交付金の分配や自分の昇給に関わるとなると、少しその点も気にはなります。
実際に論文をジャーナルに投稿する際に候補に迷うことは少なくないと思います。例えば最初は少し高望みして質の高いジャーナルに挑戦したけどダメだった、というときに「次はどこにするか」という選択肢としてこのような視点はあってもいいのかもしれません。あるいは、「本当はこのジャーナルがいいけど現在別の論文を投稿中で重複投稿しづらい」とか「論文投稿数が増えてきたから投稿先のジャーナルの選択肢を広げたい」といった場合でも、このような視点からジャーナルを選んでもよいのかもしれません。投稿するジャーナルは種々の観点からの評価に備えて幅広く選んだ方がよい、ということですかね。それでは今回はこのあたりにしたいと思います。