ISSN 2189-1621 / 2011年08月27日創刊
WT-10 - Journal of Digital History 誌に掲載する多層的な論文を執筆しよう | ||
Frédéric Clavert; Elisabeth Guérard | ||
2021年10月に JDH(Journal of Digital History)誌の創刊号が刊行されました。この雑誌は、多層的な論文の概念を実装しています。この実装は、Jupyter Notebooks を中心に、オープンソースソフトウェアをベースに特別に設計された技術基盤に依拠しています。JDH の論文は、叙述層(研究結果)、解釈層(方法論、デジタルツール、プログラミングコード)、そしてデータ層(データセット)の3つの層で構成されています。本チュートリアルは4時間で、2つのパートに分かれています。最初のパートでは、参加者が執筆環境を設定する方法を紹介します。 | 学習成果は次の通りです。 - 多層的な論文の概念を理解すること - プログラミングコードを通じて、データセットと双方向的にやり取りができる執筆環境を構築すること - JDH 誌のビューアで参加者が作成した論文を試験的に閲覧すること Journal of Digital History 誌の活用にとどまらず、DHの領域に深く関連するトピックである、デジタル時代における学術出版の代替案を具体的に提示することを目指しています。 |
Journal of Digital History 誌とは何か。 執筆環境を構築しよう。 Jupyter Notebooks を理解しよう。 Journal of Digital History 誌の執筆要項。 Jupyter Notebooks と GitHub を同期させよう。 Jupyter Notebooks と Zotero を組み合わせよう。 論文を実際に執筆して、ビューアで閲覧してみよう。 |
WT-11 - Ugarit:コーパス資源が充分に整備されていない言語の対訳技術 | ||
Chiara Palladino; Nadia Kanagawa; Tariq Yousef; Farnoosh Shamsian | ||
このワークショップでは、コーパス資源が充分に整備されていない言語や歴史的言語のための対訳技術の作成と使用に焦点を当てます。また、DH のツールである Ugarit のハンズオン・チュートリアルを行い、研究および言語教育における様々な利用方法について学びます。このワークショップでは、古文書、翻訳研究、語彙研究、自然言語処理、そして計算言語学に携わっている方ならどなたでも歓迎します。DH に関する専門知識は必要ありませんが、参加者はご自身のコーパスを持参されることをお勧めします。 | このワークショップでは、DH と自然言語処理における対訳作業の基礎を理論的な立場から学ぶことを目的としています。また、参加者は、デジタル環境で対訳作業を行うことの難しさを実際に体験し、言語教育や研究など、自身の目的にどのように利用できるかを議論します。 | DH における対訳作業の概要、歴史的言語やコーパス資源が充分に整備されていない言語を対象に対訳作業を行うためのツール、Ugarit のデモとハンズオンチュートリアル、最後にディスカッションを行います。 |
WT-12 - DraCor の紹介 - デジタルドラマ解析のためのプログラム可能なコーパス | ||
Ingo Börner; Frank Fischer; Carsten Milling; Peer Trilcke; Henny Sluyter-Gäthje | ||
このワークショップでは、ドラマ研究のためのオープンプラットフォームである DraCor(https://dracor.org)を実践的に紹介し、デジタルドラマの高度な分析手法の概要を説明することを目的としています。DraCor は「プログラム可能なコーパス」というコンセプトに焦点を絞り、オープンで研究しやすく、拡張性があり、Linked Open Data に適したフルテキストコーパスへのアクセスを容易にするインフラ的なアプローチをとっています。これにより、計数的文学研究の分野における研究課題の実装と再現が容易になるはずです。 | このワークショップでは、ドラマを研究するためのオープンプラットフォームである DraCor(https://dracor.org)を実践的に紹介し、デジタルドラマの豊富な分析手法の概要を説明します。このワークショップの対象者は以下の通りです。 - 文学的テキスト、特に演劇やその他のパフォーマンス・テキストを研究している、または研究したいと考えている方。 - 独自のコーパスを作成したい、あるいは既存のコーパスを再利用したい方。 - デジタルドラマの分析手法(文学的ネットワーク分析、スタイロメトリー)を学びたい方。 - Linked Open Data を利用した文学テキスト研究の可能性に興味がある方。 参加者は、TEI-XML としてデータを準備する方法、Python で DraCor API を使用してデータを照会する方法、そして SPARQL の簡単な紹介を学びます。 |
このワークショップでは、まず“Programmable Corpora(プログラム可能なコーパス) ”のコンセプトを紹介し、DraCor プラットフォームの全構成要素のデモンストレーションを行います。 ハンズオンチュートリアルでは、参加者に DraCor で分析するための自身のドラマコーパスの作成とキュレーションについての実践的な紹介を行います。DraCor API と Python ライブラリ PyDraCor の活用については、スタイロメトリーやネットワーク分析などの手法を用いた実践例により説明します。アプリケーションプログラミングインターフェース(API)により、コーパスの特定の部分にカスタマイズして直接アクセスすることができます。また、SPARQL を用いたコーパス横断クエリや Linked Open Data クラウドからの情報取り込みの可能性についても検討します。 |
WT-13 - DeezyMatch を使った類似文字列マッチングのチュートリアル | ||
Mariona Coll Ardanuy, Kasra Hosseini, Federico Nanni, Valeria Vitale | ||
類似文字列マッチングは、ノイズの多いテキスト、歴史的なテキスト、非標準のテキストを扱うことが多い DH の多くのプロジェクトにおけるデータ接続の際の共通の課題です。このチュートリアルでは、Living with Machines プロジェクトで開発された、類似文字列マッチングとエンティティリンキングの候補をランキングするための、オープンソースで使いやすい Python ライブラリである DeezyMatch を紹介します。DeezyMatch は、近年のディープラーニングの進歩を組み込んだツールであり、特に柔軟でユーザーフレンドリーかつ高速に設計されているため、エンティティリンキングの実際のシーンですぐに使用することができます。 | このチュートリアルでは、Living with Machines プロジェクトで開発された、類似文字列マッチングとエンティティリンキングの候補をランキングするための、オープンソースで使いやすい Python ライブラリである DeezyMatch を紹介します。DeezyMatch モデルの学習とテストに利用できる文字列ペアデータセットの作成方法と、DeezyMatch モデルを用いて知識ベースから候補となるエンティティを検索する方法について紹介します。モチベーションアップのために、類似文字列マッチングを必要とする DH の実例をいくつかお示しし、議論します。そして、ノイズの多いデータ、歴史的データ、非標準的データにおける名称のばらつきの問題を軽減するために、DeezyMatch がどのように利用できるかを紹介する予定です。 | このチュートリアルは半日をかけて、以下の中心的なコンテンツを扱います。 パート1:DeezyMatch の紹介と動機付け[60分] - 類似文字列マッチングとエンティティリンキングの紹介 - ケーススタディとデータの取得・準備の説明 - DeezyMatch の概要 パート2:インタラクティブハンズオンセッション[1時間20分] - デモ1:事前学習済みモデルを用いたマッチング候補のランキング - ハンズオン演習 - デモ2とハンズオンセッション:DeezyMatch のトレーニングおよび候補のランキング - ハンズオン演習 パート3:ディスカッションとフィードバック[40分] - DeezyMatch を自分のプロジェクトに適用する方法 - 質疑応答 |
WT-14 - ワークショップ:HathiTrust Research CenterのExtracted Features 2.0 Dataset | ||
Ryan Dubnicek, Jennifer Christie | ||
このワークショップでは、HathiTrust Research CenterのExtracted Features Dataset を紹介し、最新バージョンである2.0で導入された新しいデータフィールドと機能のデモを行います。HathiTrust Digital Library の1700万冊以上(60%以上が著作権保護されている)の蔵書から生成された EF 2.0データセットは、オープンかつ制限のないデータとして配布されながら、このコーパスにおけるテキスト・データマイニングをサポートしています。このチュートリアルでは、EF 2.0データセットとその作成の背景にある重要な概念、そして IPython Notebooks を使ったデータセットの実際の研究利用例について紹介します。 | このワークショップ全体の目的は、HathiTrust の背景、動機、Extracted Features Dataset の開発とリリースを紹介し、データ形式、その潜在的な用途、2.0 バージョンの最新の追加機能について参加者に知ってもらうことです。本ワークショップの目標は、参加者が派生データセットの有用性を一般的に理解し、EF データセットを用いた探索的データ解析を容易に始められるようになることです。 HTRC を中心とした学習目標に加え、Python による一般的な文化解析タスクや、Pandas、NLTK、Gensim といった関連するソフトウェアライブラリの紹介といった実技も行います。 | セクション1:HathiTrust 電子図書館と HTRC の紹介 - HathiTrust とは何か? - HathiTrust Digital Library とは何であって何でないか? - HathiTrust Research Center とは? セクション2:HTRC EF Dataset の背景と動機 - 非消費型研究 - データの中身は何か? - データモデルと解析技術 セクション3:テキストデータセットの倫理的考察 - ライブラリ、データセット、データ、アルゴリズムにおけるバイアス セクション4:EF データの取得と探索 - EFデータ、Python Notebooks、HTRC FeatureReader ライブラリのハンズオン |
WT-15 - 人文学者のための Git:研究とプログラムのコードをバージョン管理しよう | ||
Lisa Tagliaferri | ||
このワークショップでは、Git を使ったコンピュータ人文学プロジェクトの共同作業の概要を説明します。分散型バージョン管理システムである Git は、個人とチームの両方がソフトウェア・プロジェクトに貢献・維持するのに役立ち、オープンソースでは非常に人気があります。Git は、テキストのバージョン管理にも有用ですので、本ワークショップでは人文学者が Git を効果的に活用するためのいくつかの方法を探ります。Git のエコシステム、用語、チームプロジェクトでプルリクエストを開く方法について説明します。このワークショップに参加する前に、GitHub のアカウントと GitHub Desktop をインストールしておくことをお勧めします。 | ソフトウェアとテキストのバージョン管理をするために Git を理解し、使えるようになり、そして研究工程に組み入れられるようにすること。 | |
WT-16 - 人文学の教育・研究のための Web サーバー構築方法 | ||
Lisa Tagliaferri | ||
このワークショップでは、Web で使用するための Linux サーバーの初期セットアップを完了する方法について説明します。管理された Web ホスティングに依存するのではなく、自分自身のサーバーを管理することで、研究者、教員、学生にとって、Web 上の資産を完全にコントロールできるようになります。ワークショップの成果物であるサーバーのセットアップは、Web アプリケーション、Jekyll や Hugo のような静的サイト、あるいは WordPress、Omeka、Scalar のようなより堅牢なサイトに利用することができるようになります。加えて、サーバーは Web への入り口を提供するだけでなく、研究者や学生のチームがプログラミングプロジェクトで共同作業したり、共有データにアクセスしたりすることも可能です。 | このワークショップの目標は、静的サイトを Web サーバーにデプロイし、Webアプリケーションを Web サーバーにデプロイするための基礎知識を身につけることです。 | Webサーバーおよびクラウドコンピューティングについての紹介 |
WT-17 - デジタル人文学者のための公平性・多様性・包括性 | ||
Barbara Bordalejo, Dan O'Donnell, Nathan Woods | ||
このワークショップでは、公平性・多様性・文化的差異についての認識を深めることと、包括性とより公平な環境の整備を成功させるための戦略を提示することを目的としています。これらの要素が DH 分野で特に重要な理由は、多くの異なる個人が集まる共同作業に分野としての重点を置いているためです。 私たちの取り組みは、DH において、多くの異なる声が存在しうるにもかかわらず、権力と権威のほとんどが、北半球の英語圏に集中したままであることを示します。これは、アカデミアの一般的な環境が、ほとんどが男性、ほとんどが白人の状態であることを考慮すれば、驚くべきことではありません。今日、より豊かな環境を育み、行動を変え、偏見に挑戦するために、個々人が協力することが不可欠です。 |
このワークショップでは、プレゼンテーション、グループおよび個人のアクティビティを組み合わせることで、参加者が EDI(公平性・多様性・包括性)について考え、多様な人々が働きやすい環境を整備するための戦略を共同開発することができます。 | 1. 多様性、暗黙の偏見、文化的複製 多様性のさまざまな概念、特に文化的・文脈的な違いに重点を置く。 2. 特権 特権の概念に取り組むために、私たちの生活を形成している多くの要因を説明するために使用するゲームを開発しました。 3. COVID とテクノコロニアリズム このセクションでは、COVID の時代におけるテクノコロニアリズムの影響について考察する。これは、認識論的疎外感の特定と認知的正義の追求、およびそれらの DH への応用に関する Mboa の研究に連なるものである。 4. 交差性(カイリアーキーとの対比において) この核となる概念は、特権やその欠如がどのように個人に直接影響を与えるかを探ることを可能にする。 5. 異文化コミュニケーション 特定の状況に対する多くの解釈と、それらが個人の経験によってどのように形成されるかを説明する実践的なセクションです。 6. 包括性に向けた解決策 参加者が自分の所属する機関、プロジェクト、その他の労働環境で実施または提案できる「包括性に向けた解決策」の特定を促します。 |
WT-18 - アドバンストリサーチコンソーシアムことはじめ | ||
Lauren Liebe, Laura Mandell, Bryan Tarpley | ||
このワークショップは、人文学研究のためにデジタル文化遺産の資料をピアレビュー・キュレーションする研究者の活発なコミュニティであるアドバンストリサーチコンソーシアム(ARC)の紹介を目的としたものです。このワークショップでは、ARC の既存のリソースを学術研究に利用する方法、新しい DH プロジェクトの開発と ARC への統合、ARC の Corpora Dataset Studio の利用、ARC 傘下の新しい研究拠点の構築について説明します。 | このワークショップでは、アドバンストリサーチコンソーシアムと Corpora Dataset Studio を含むリサーチツールに精通していただくことを目的としています。このワークショップでは、研究者が ARC を利用して、その分野の専門家がキュレーションしたオープンアクセスおよび独自ライセンスのリソースを検索しすることを通して、研究を強化する方法について学びます。さらに、独自のデジタルプロジェクト開発に興味を持つ研究者のために、Corpora Dataset Studio のプレビューも行います。次に、研究者が自分のプロジェクトやデータセットを提出し、ピアレビューを受けて ARC に収録されるまでの過程にも慣れ親しんでいただきます。最後に、このワークショップでは、特定の研究コミュニティに貢献するために ARC 内に研究拠点を作成するプロセスについて説明します。 | シラバス(3時間ワークショップ) - ARC とは? - ARC を利用する - ARC 拠点を使った研究 - BigDIVA コーパス - ARC に貢献する - ピアレビューに投稿する - 査読プロセス - メタデータの取り込み - Linked Open Data - ARC 拠点の開発 - 収める射程の決定 - ディレクターと編集委員会 - 関連リソース(デジタルプロジェクト、データセット、ジャーナル、ライブラリーコレクション、独自のデジタルリソース)の決定 - Collex インスタンスの設計 - ARC オフィスへの寄稿 - ピアレビューの実施 - オープンアクセスプロジェクトやベンダーからのメタデータの交渉、入手、取り込み - 教室や展示機能の募集を含む、ARC 拠点のメンテナンス |
WT-19 - Voyant Tools と連携するノートブック環境「Spyral Notebooks」による文学テキスト解析 | ||
Geoffrey Rockwell, Kaylin Land | ||
「Spyral Notebooks による文学テキスト解析」に参加しませんか?このワークショップでは、Voyant Tools を拡張した全く新しいノートブック環境である Spyral Notebooks を紹介します。Spyral Notebooks は、Voyant Tools の結果を記録するだけでなく、より複雑なテキスト解析を行うことができます。Spyral Notebooks は、文芸的プログラミングを促進するように設計されています。つまり、コーディングブロックや動的な Voyant パネルに加えて、散文で書くスペースがあるということです。ワークショップの終わりには、既存のコーディングサンプルを拡張したり、Spyral を教育に応用したり、自分自身のノートブックをゼロから書くための確かな基礎を身につけることができます。Spyral を皆さんと共有できることを楽しみにしています。 | このセミナーでは、新しい Spyral Notebooks のセットアップから、任意のコーパスを使ったテキスト解析の実行までのすべてを扱います。まず、ノートブックの作成、保存、編集など、Spyral を使うための基本的なことから始めます。Voyant コーパスを Spyral に読み込む方法、ファイルをアップロードして Spyral で処理する方法を学びます。その後、Spyral で作業するための簡単なコーディングの例に移ります。既存のコーディングサンプルを自分のコーパスに適用し、どのような分析ができるか試してみることをおすすめします。ワークショップの終わりには、既存のコーディングサンプルを拡張したり、Spyral を教育に応用したり、自分自身のノートブックをゼロから書くための確かな基礎を身につけることができます。 | - Spyral Notebooks の紹介。Spyral Notebooks とは - Spyral Notebooks はどのように使われるのか? - Voyant Tools と Spyral の統合 - 文芸的コーディングパラダイムと Spyral の設計思想の紹介 - Spyral の基本:Voyant Tools から Spyral Notebook を開く - セルの追加、削除、セルの並べ替え - Spyral Notebooks の保存 -コードセルの実行とコード出力の理解 - Spyral を使った文学テキスト解析:要約ツールでコーパスの概要を見る - Cirrus と Corpus Terms でコーパスの単語頻度を調べる - Trends、Terms Radio、Document Terms を使ったコーパスの用語分布を調べる - Terms Berry、Collocates Graph、Contexts、Word Tree を使ったコーパスの共起語を調べる - リーダーツールでテキストを読み解く - Spyral を教育に用いる - アドバンスド Spyral:.txt, .xlsx, .csv, .html, .xml を含む様々な種類のファイルを Spyral に読み込む - .xml ファイルの読み込みと、解析に使用するテキストを Spyral に指示するための x-path の指定 - 感情分析のための Spyral カテゴリを使用する |
WT-20 - HTR のためのオープンソースプラットフォーム eScriptorium のハンズオン紹介 | ||
Peter Stokes, Daniel Stökl Ben Ezra | ||
オープンソースプラットフォーム eScriptorium を使った HTR(手稿資料や印刷物の自動翻刻)、特に非西洋文字体系に興味のある方のためのハンズオンチュートリアルです。ページのレイアウトを自動または手動で分割し、手稿資料を翻刻する方法を学びます。データに適応するように AI を学習させます。他の人が学習させたモデルをインポートおよびエクスポートします。 | このチュートリアルの目標は、様々な言語、文字体系、複雑なページレイアウトの手稿資料や印刷物を自動または手動で分割・翻刻するための eScriptorium プラットフォームの理念とハンズオン実践を参加者に紹介することです。参加者には以下のことに特に焦点を絞りながらプラットフォームについて紹介する予定です。すなわち、学習済みモデルの自由な共有、言語や文字に関するいかなる前提からも可能な限り独立したシステムであることを含め、他の HTR システムとは区別される主要な設計上の決定についてです。 | |
WT-21 - 批判的老化研究におけるデータとアルゴリズム | ||
Unmil Karadkar, Ulla Kriebernegg, Kim Sawchuk, Sakari Taipale, Loredana Ivan | ||
モバイルサービス、オンラインコミュニケーション、埋め込み型・装着型センサー、ソーシャルメディアプラットフォーム、デジタル化などを通じて増え続けるデータ収集は、高齢者の体験だけでなく、高齢者の介護にも影響を及ぼしている。生成されたデータは、企業、政府、個人、非政府アクターによってアルゴリズム処理され、ますます高齢化する人口が利用できる体験、サービス、機会を形成しています。このワークショップでは、データもアルゴリズムも中立的・客観的ではないことを認識した上で、人文・社会科学の手法を用いて高齢化とデジタル技術の相互作用を研究している研究者の参加を呼びかけます。 | このワークショップは、人文・社会科学の手法を応用して老化とデータ双方を研究対象とする研究者を集め、次のようなことを行うことを目的とする。 - 国際的、学際的、世代間的なコミュニティを発展させる。 - この両分野の共通部分における現在の研究を紹介する。 - 新しい方向性や初期段階にある取り組みについて発表し、フィードバックを得るための安全で協力的な場を提供する。 |
セッション1(90分): - 主催者からの挨拶と目標設定 - 老化に関するデータ紹介 - 成果物の発表 セッション2 (90分) - 成果物の発表 - 発表者以外の参加者の紹介(共同資料) - グループディスカッション - このやりとりを一過性のものにしないための方法、将来の活動、相乗効果のあるイベントや参加者が共有するべき責任 |
AVinDH - DH における音声映像(A/V) | ||
Lauren Tilton | ||
ADHO の Special Interest Group によるワークショップ | このワークショップではプロジェクトやツール、現在の研究を扱う予定である。 | 導入 ライトニング ブレイクアウトでの対話 まとめ |
DH-WoGeM - DH のケア:パンデミックとパンデミック後の未来 | ||
Quinn Dombrowski | ||
ADHO の Special Interest Group によるワークショップ | 介護を担う人々へのパンデミックの影響と、会議への参加に集中するための一人の時間や移動に制限がある人々を支援する方法によって、この分野をどのように前進させることができるかについて考える。 | 概要 参加者同士の経験を共有するためのオープンな場 ケアを必要とする人への現在の配慮と慣行 人々が前に進むために何が助けになるか まとめ |
DHTech - LOD の実践 | ||
Rennie Mapp, Yuji Shinozaki, Julia Damerow, Malte Vogl, Christian Chiarcos, Robert Casties | ||
ADHO の Special Interest Group によるワークショップ | このハンズオンワークショップでは、オントロジーベースのオープンソースのツールとオープンな標準を用いた文化遺産データの事例のモデリングを参加者を指導する。そして、どのようにしてトリプル・ストアにおいてデータの問い合わせができるかを示す。 | 導入 利用するツールの概要 - Pelagios/Recogito - Protégé - BlazeGraph 用意したサンプルデータの紹介 Recogito と Protégé によるモデリング BlazeGraph での分析と探索 |
DLS - まだ FAIR ではない?グローバルな視点からのデジタル文体論のためのインフラストラクチャ | ||
SIG DLS steering committee | ||
ADHO の Special Interest Group によるワークショップ | DLS のインフラの問題、そして FAIR 原則に関連した世界各地の様々な形の問題に取り組む。 | 参加者による調査フォームへの入力 1件か2件の講演 議論 グローバルな視野を提供するまとめ SIG DLS の運営に関する会合 |
Linked Open Data - 文化遺産とリンクトデータ | ||
Kim Martin, Susan Brown | ||
ADHO の Special Interest Group によるワークショップ | このワークショップの前に大きなイベントを開催し、そのイベントの主要な回答者を招いて、文化遺産コレクションと LOD の経験について講演をしてもらう予定である。 |
このエッセイは、現在ドイツのミュンスター大学に留学中の筆者が、研究の過程で感じた資史料収集事情を紹介することを目的に綴られたものである。従って、筆者の不見識ゆえに見逃がしていたり誤解している箇所も多々あるだろうが、それもまたアクセシビリティに難があることを示すものとして、どうかご海容願いたい。
早速だが、ミュンスター大学の図書館から話を始めよう。大学図書館は日本の大学と同様に大別して総合、学部、研究室の三種類に分類される。
これら大学図書館群の中核を成す総合図書館の開館時間は、平日午前8時から午後10時まで、週末は午前10時から午後8時までであり、祝日は閉館である。東京大学と比較しても遜色はない。しかし、ドイツの図書館に特徴的なことは、正式名称をミュンスター大学・州立図書館 Universitäts- und Landesbibliothek Münster というように、実のところドイツの大学図書館は、大学関係者のみならず一般市民も利用可能であることだろう。大抵の日本の大学図書館は在籍者以外は予約を必要とするが、ドイツの場合は州や市の公共施設としての性格を併せ持つ為、在籍による区別がないようである。なお、貸出期限は概ね1か月だが、貸出冊数に関しては理論上制限がない。
公共性を強く帯びた総合図書館に比して、学部図書館と研究室の図書館は趣が異なる。これらの図書館は基本的に利用者を大学構成員に制限しており、図書の貸出を禁じている。それ故利用者は、図書館に設置された複合機によるコピー・スキャンを行うことが前提とされている。開館時間もまちまちで、法学部を例にとれば、法学部全体の図書館は総合図書館並みだが、各研究室が所有する図書室は概ね午前10時から午後3時、金曜日に至っては午前中のみ、などと使い勝手が悪い感は否めない。しかし、その研究室の構成員か否かによってこの制限は大きく変わる。筆者が所属する法制史研究室の付属図書室の場合、表向き平日10時から3時までとしているが、研究室構成員には図書室の鍵が与えられている為、建物に入れさえすれば24時間365日利用が可能である。本来一律に禁帯出である書籍に関しても、無期限・冊数制限なしで貸出が可能である(少なくとも管見の限り、3年間返却されていない書籍があることを確認している)。
さて、このように属人性が高く、外部利用者にとって使い勝手が良いとは言い難いドイツの大学図書館ではあるが、この利用をどうにか日常的な利用が可能な程度までに支えているシステムがクラウドサービスの Sciebo である。ミュンスター大学を中心に開発され、2015年から ノルトライン・ヴェストファーレン州の30大学・研究機関にて無料で利用可能なこのサービスは、図書館にてスキャンしたデータをそのままクラウド上にアップロードすることや、反対にクラウド上のデータを各複合機から印刷することが出来るものである。Windows, Mac, Linux, iOS, Android 各種に対応、個人単位では30GB まで利用可能であり、申請によって2年間の期間で2TB までの拡張が認められる。また、利用者間でデータの受渡、共有といった、共同研究を目した利用も可能である。勿論各図書館の複合機の性能によっては、スキャンの細かな設定が出来ない・一度にアップロードできるスキャンデータの容量上限が意外と小さい、などの難点は有るが、基本的に図書の利用を自研究室の構成員に限定しているドイツの大学のアクセシビリティの悪さを解消する一助となっているだろう。
他方、図書検索サービスに関しては、こちらも慣れるまでは使い勝手が良いとは言い難い。とりわけ、求めている書籍が自大学に所蔵されていない場合にこのアクセシビリティの悪さが顕著に露呈する。ミュンスター大学の図書検索サービスは disco が一般的に用いられており、自大学に所蔵されている関連書籍を表示するものである。従って他大学所蔵の書籍は表示されない。このこと自体は、東京大学の UTokyo OPAC など日本で多く見られるサービスと大差がないが、問題となるのはその次である。UTokyo OPAC の場合、検索ワードに合致する書籍が大学に所蔵されていない場合、1クリックで CiNii Books や CiNii Articles へ遷移し、再入力することもなく所蔵情報を確認することができる。実際、2クリックで外部取寄が可能である。他方、ミュンスター大学の disco には、そのような横断検索機能は見当たらない。先ず①Home 画面に戻り、Search / Recherche を選択、その中にある Catalogues / Kataloge を選択し、一番下の Regional, national and international catalogues / Kataloge anderer Bibliotheken überregional の中から適切な横断検索サイトへ移行し、②再検索をし、所蔵情報を確認した後で、③Delivery services / Fernleihe und Lieferdienste から Interlibrary loan / Fernleihe を選んでログインし、改めて検索・注文を行うことになる。明らかに日本の OPAC よりも煩瑣な UI とサイトの構造をしており、この点では日本に軍配が上がると言わざるを得ない。電子書籍・雑誌の検索には容易に切り替えることが出来るように設計されているが、実のところ通常検索でも電子版は検索結果に表示されており、あまり意味がない。
勿論、金銭面で日本の図書館に遥かに優る点もあるのでこちらも紹介しておこう。特筆すべきは先に採り上げた外部取寄の安価さである。近世に出版された書籍の電子化・無料公開を積極的に進めるバイエルン州立図書館 BSB やベルリン州立図書館 StaBi、或いは Sciebo を通じた無料入手も容易だが、現物の貸借も通常1.5€ であり、極めて経済的である。また、支払自体も電子化が進んでおり、図書館内の端末(クレジットカード対応)やアカウントに表示される QR コードを利用することが可能である。コピーカードに相当するものも、各図書館が個別の規格を導入し、各館で購入の必要がある日本とは異なり、Mensa Card と呼ばれる電子カードで統一されている。なお、このカードで上述の Sciebo にログインすることが可能であり、国レベルでも都市レベルでも金銭的なシステム構築は極めて快適な設計と評価できよう。
一次史料を所蔵している史料館は、歴史家にとって図書館と並んで重要な施設であるが、史料館によって使い勝手は大きく異なる。電子化に限っても、筆者が主に利用するノルトライン・ヴェストファーレン州立史料館ライン地方分館 LA NRW Abteilung Rheinland は、電子カタログで当該史料を検索し、現地で実際の手稿史料を閲覧することとなるが、ミュンスターに在るヴェストファーレン地方分館は、撮影された写真を専用の PC 端末で閲覧する。ケルン市立史料館 HAStK は、2013年の崩落の影響もあってか、電子化が進んだ史料館として知られ、無料公開されているデジタルアーカイブを擁しているが、現在はインターネット上で史料画像を閲覧することが出来ない。このような千差万別の状況であるゆえに、Deutsche Digitale Bibliothek など一部のサイトや分館の関係で連なっている州立史料館などを除けば、横断的な検索は困難である。このように、図書館と比較して史料館は、それぞれの史料館による定めの影響が大きく、横断的に調査する為には、実地での経験則に頼らなければならない部分が大きい。
これらの差に鑑みるに、幅広い利用者層の利便性に重きを置く日本とは異なり、ドイツの制度設計は特定集団の利益を最大化しようとしている印象を受けた。皮相的な要約ではあるが両国に於ける図書館・史料館使節の目標設定の差異という点が、これら制度を考える上で何かの一助になれば、と願うばかりである。
https://www.arc.ritsumei.ac.jp/lib/vm/kyotonews/20220702-1.pdf
今月号は DH2022中心になりました。いよいよ7月25日から開催です。ぜひご参加ください!
(永崎研宣)