Philtag 14: Unterschied zwischen den Versionen
Aus Kallimachos
Keine Bearbeitungszusammenfassung |
Gaede (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
||
| (4 dazwischenliegende Versionen von einem anderen Benutzer werden nicht angezeigt) | |||
| Zeile 3: | Zeile 3: | ||
==<philtag n="14"/>== | ==<philtag n="14"/>== | ||
Vom 16.-17. März 2017 | Vom 16.-17. März 2017 fand in Würzburg der 14. Workshop der DH-Tagungsreihe <philtag/> statt. Die etablierte Würzburger Tagungsreihe zum Einsatz digitaler Methoden in den Geistes- und Kulturwissenschaften bietet den Teilnehmern die Möglichkeit, sich über neue Trends, Projekte und Technologien im Bereich der Digital Humanities zu informieren und auszutauschen. Wie schon im [[Philtag |Vorjahr]] wurde der Workshop auch in diesem Jahr wieder von KALLIMACHOS ausgerichtet. | ||
Wie schon im [[Philtag |Vorjahr]] | |||
Um sich über den <philtag/> und weitere Neuigkeiten zu KALLIMACHOS auf dem Laufenden zu halten, können Sie außerdem unseren [https://lists.uni-wuerzburg.de/mailman/listinfo/kallimachos-news E-mail-Newsletter] sowie unseren [http://kallimachos.de/kallimachos/index.php?title=Newsletter:Kallimachos&action=feed&feed=rss RSS-Feed] abonnieren. | Um sich über den <philtag/> und weitere Neuigkeiten zu KALLIMACHOS auf dem Laufenden zu halten, können Sie außerdem unseren [https://lists.uni-wuerzburg.de/mailman/listinfo/kallimachos-news E-mail-Newsletter] sowie unseren [http://kallimachos.de/kallimachos/index.php?title=Newsletter:Kallimachos&action=feed&feed=rss RSS-Feed] abonnieren. | ||
| Zeile 16: | Zeile 12: | ||
Den thematischen Schwerpunkt der diesjährigen Tagung stellten Digitale Editionen im erweiterten Sinne dar. Die insgesamt zwölf Vorträge beschäftigten sich mit Verfahren zur Erschließung digitaler Volltexte, insbesondere durch Optical-Character-Recognition (OCR), sowie mit der Korrektur, Auszeichnung und schließlich der Präsentation und Visualisierung der Texte und Textkorpora im Netz. | Den thematischen Schwerpunkt der diesjährigen Tagung stellten Digitale Editionen im erweiterten Sinne dar. Die insgesamt zwölf Vorträge beschäftigten sich mit Verfahren zur Erschließung digitaler Volltexte, insbesondere durch Optical-Character-Recognition (OCR), sowie mit der Korrektur, Auszeichnung und schließlich der Präsentation und Visualisierung der Texte und Textkorpora im Netz. | ||
===Tag 1=== | ===Tag 1=== | ||
Den Anfang machten Wahed Hemati und Tolga Uslu (Universität Frankfurt), die zwei beim Frankfurter [https://hucompute.org/ Text Technology Lab] entwickelte Projekte vorstellten: Das Projekt [https://hucompute.org/applications/wikidition/ Wikidition] bietet eine Darstellungsumgebung für digitale Editionen, die auf Semantic MediaWiki basiert und unter Anderem Möglichkeiten zur Lemmatisierung, Annotation und Vergleich der erfassten Texte liefert. Darüber hinaus stellt der [ | Den Anfang machten Wahed Hemati und Tolga Uslu (Universität Frankfurt), die zwei beim Frankfurter [https://hucompute.org/ Text Technology Lab] entwickelte Projekte vorstellten: Das Projekt [https://hucompute.org/applications/wikidition/ Wikidition] bietet eine Darstellungsumgebung für digitale Editionen, die auf Semantic MediaWiki basiert und unter Anderem Möglichkeiten zur Lemmatisierung, Annotation und Vergleich der erfassten Texte liefert. Darüber hinaus stellt der [https://hucompute.org/textimager/ Textimager ] ein mächtiges Tool zur automatischen Textanalyse dar, das eine Vielzahl etablierter Analyseverfahren gemeinsam mit etablierten und neuen interaktiven Visualisierungsmöglichkeiten in einem gemeinsamen Framework zusammenführt. | ||
Ben Kiessling (Uni Leipzig, [http://www.dh.uni-leipzig.de/wo/ Digital Humanities]) stellte die im Leipziger OpenPhilology-Projekt zum Einsatz kommende OCR-Pipeline [https://openphilology.github.io/nidaba/ Nidaba] vor, die eine Kombination zahlreicher freier Softwaremodule zur automatischen Bildvorverarbeitung, Layoutanalyse und Texterkennung erlaubt. Im Anschluss diskutierte Thomas Köntges (Uni Leipzig, [http://www.dh.uni-leipzig.de/wo/ Digital Humanities]) die Möglichkeiten und Herausforderungen bei der computergestützten Textanalyse von historischen Texten. Während Verfahren etwa zum Topic Modelling auf modernen englischen Texten vergleichsweise leicht anwendbar sind, funktionieren diese bei antiken griechischen Texten aufgrund der höheren morphologischen Komplexität deutlich schlechter. Hier sind umfangreiche morphologische Normalisierungen nötig, die allerdings stets verlustbehaftet sind. | Ben Kiessling (Uni Leipzig, [http://www.dh.uni-leipzig.de/wo/ Digital Humanities]) stellte die im Leipziger OpenPhilology-Projekt zum Einsatz kommende OCR-Pipeline [https://openphilology.github.io/nidaba/ Nidaba] vor, die eine Kombination zahlreicher freier Softwaremodule zur automatischen Bildvorverarbeitung, Layoutanalyse und Texterkennung erlaubt. Im Anschluss diskutierte Thomas Köntges (Uni Leipzig, [http://www.dh.uni-leipzig.de/wo/ Digital Humanities]) die Möglichkeiten und Herausforderungen bei der computergestützten Textanalyse von historischen Texten. Während Verfahren etwa zum Topic Modelling auf modernen englischen Texten vergleichsweise leicht anwendbar sind, funktionieren diese bei antiken griechischen Texten aufgrund der höheren morphologischen Komplexität deutlich schlechter. Hier sind umfangreiche morphologische Normalisierungen nötig, die allerdings stets verlustbehaftet sind. | ||
| Zeile 38: | Zeile 34: | ||
Günter Mühlberger (Universität Innsbruck, [https://www.uibk.ac.at/germanistik/dea/ DEA]) stellte die Online-Forschungsinfrastruktur [https://transkribus.eu/Transkribus/ Transkribus] vor, die verschiedene Tools zur automatischen Dokumentenanalyse vereint. Zu den mit Transkribus analysierbaren Texten gehören insb. auch handschriftliche Texte. | Günter Mühlberger (Universität Innsbruck, [https://www.uibk.ac.at/germanistik/dea/ DEA]) stellte die Online-Forschungsinfrastruktur [https://transkribus.eu/Transkribus/ Transkribus] vor, die verschiedene Tools zur automatischen Dokumentenanalyse vereint. Zu den mit Transkribus analysierbaren Texten gehören insb. auch handschriftliche Texte. | ||
Auch die beiden abschließenden Vorträge des Münchner Centrums für Informations- und Sprachverarbeitung ([http://www.cis.uni-muenchen.de/ CIS]) beschäftigen sich mit der OCR historischer Texte: Uwe Springmann diskutierte die Herausforderungen bei der OCR von Frühdrucken, insb. hinsichtlich der Vor- und Nachteile von gemischten und von individuell für den jeweiligen Text erstellten OCR-Modellen. | Auch die beiden abschließenden Vorträge des Münchner Centrums für Informations- und Sprachverarbeitung ([http://www.cis.uni-muenchen.de/ CIS]) beschäftigen sich mit der OCR historischer Texte: Uwe Springmann diskutierte die Herausforderungen bei der OCR von Frühdrucken, insb. hinsichtlich der Vor- und Nachteile von gemischten und von individuell für den jeweiligen Text erstellten OCR-Modellen. Florian Fink stellte schließlich die am CIS verwendete Software PoCoTo vor, die eine vereinfachte interaktive Nachkorrektur von OCR-erzeugten Transkriptionen ermöglicht. | ||
===Fazit=== | ===Fazit=== | ||
| Zeile 46: | Zeile 42: | ||
=Tagungsplan= | =Tagungsplan= | ||
==Tagungsplan== | ==Tagungsplan== | ||
''Hinweis zur Anreise'': Wenn Sie mit der Bahn anreisen, erreichen Sie die Zentralbibliothek am | ''Hinweis zur Anreise'': Wenn Sie mit der Bahn anreisen, erreichen Sie die Zentralbibliothek am besten über die Buslinien 214 und 114 (Haltestelle ''Universitätszentrum'') oder die Buslinie 14 (Haltestelle ''Am Hubland'', von hier ca. 300 Meter geradeaus. Sie bewegen sich in diesem Fall an der Rückseite der Universitätsbibliothek vorbei). | ||
===Tag 1 (16.3.2017)=== | ===Tag 1 (16.3.2017)=== | ||
| Zeile 155: | Zeile 151: | ||
<headertabs /> | <headertabs /> | ||
{{Sprachauswahl|Philtag_14_(en)|Philtag_14}} | {{Sprachauswahl|Philtag_14_(en)|Philtag_14}} | ||
__NOTOC__ | |||
Aktuelle Version vom 14. Mai 2020, 23:36 Uhr