Paul Sommersguter – Blog – Österreichische Nationalbibliothek Crowdsourcing https://crowdsourcing.onb.ac.at/blog Wed, 31 Mar 2021 08:47:32 +0000 de-AT hourly 1 https://wordpress.org/?v=6.1.1 https://crowdsourcing.onb.ac.at/blog/wp-content/uploads/2019/10/blog-favicon-1-150x150.png Paul Sommersguter – Blog – Österreichische Nationalbibliothek Crowdsourcing https://crowdsourcing.onb.ac.at/blog 32 32 Sie haben Wissen geteilt https://crowdsourcing.onb.ac.at/blog/sie-haben-wissen-geteilt/ Mon, 29 Mar 2021 18:48:30 +0000 https://crowdpress-intern.onb.ac.at/blog/?p=1112 Die Crowdsourcing-Kampagne „Österreich aus der Luft“ ist erfolgreich zu Ende gegangen – nach einer Laufzeit von exakt 891 Tagen. In den nächsten Monaten werden die Luftbilder inklusive der qualitätsüberprüften Metadaten in das neu entwickelte Portal ÖNB Digital sowie in den Bibliothekskatalog der Österreichischen Nationalbibliothek überführt. Zu diesem Anlass möchten wir die Crowdsourcing-Kampagne noch einmal Revue passieren lassen und Ihre geleistete Arbeit in anschaulichen Zahlen würdigen.

Foto: Daiwei Lu / Unsplash

Die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek verfolgt das Ziel, ausgewählte, bislang online nicht zugängliche Bestände zu präsentieren und interessierte NutzerInnen im Rahmen einer gemeinsamen Aufgabe einzuladen, ihr Wissen über diese Bestände mit anderen zu teilen. Dieser Einladung sind, mit Stand 22. März 2021, insgesamt 2.270 auf der Plattform registrierte UserInnen nachgekommen. Für die Österreichische Nationalbibliothek stellt dies eine phänomenale Menge an BeiträgerInnen dar, die uns große Freude bereitet.

Die UserInnen

Die UserInnen, die die Bilder beschreiben und damit für künftige NutzerInnen leichter auffindbar machen, stehen im Zentrum der Crowdsourcing-Initiative. Besonderer Dank gebührt den Beitragsstärksten in unserer Crowdsourcing-Community, die uns mit Ihrem Einsatz in den letzten Jahren tatkräftig unterstützt haben. Folgende drei UserInnen haben außerordentlich viele Beiträge geleistet:

Die Top 3

Die virtuelle Crowdsourcing-Goldmedaille für die meisten Beiträge bei „Österreich aus der Luft“ verleihen wir an unsere Userin ClaudiaSbg, die 5.555 Beiträge geleistet hat.
Die Crowdsourcing-Silbermedaille geht an unsere/n UserIn seinerzeitung mit 5.554 Beiträgen.
Die Crowdsourcing-Bronzemedaille geht an unseren User Genius Loci mit 5.113 Beiträgen.

An dieser Stelle sei darauf hingewiesen, dass wir uns selbstverständlich auch bei unseren übrigen aktiven UserInnen bedanken möchten, denn jeder Beitrag zählt!

Unsere meistbeitragenden UserInnen haben jeweils über 5.000 Beiträge geleistet. Vielen Dank nochmals dafür!

Die Verteilung der Beitragszahl

Wie steht es um die Beitragszahlen der gesamten Crowdsourcing-Community? Die statistische Verteilung aller Beitragenden ist wie folgt gelagert:

  • 1% unserer UserInnen haben mindestens 990 Beiträge,
  • 25% haben mindestens 24 Beiträge geleistet.
  • Der Median der Beitragszahl aller NutzerInnen liegt bei 8 Beiträgen. Das bedeutet also, die Hälfte hat gleich viel oder mehr als 8 Beiträge, die andere Hälfte weniger als diese Zahl beigetragen.
  • Weitere 75% haben mindestens 3 Beiträge,
  • und 90% haben mindestens einen Beitrag geleistet.

Wir sehen also, dass einige wenige UserInnen den Großteil der so genannten „Crowdwork“durchführen. Es handelt sich hier um ein Phänomen, das bereits in vergleichbaren, internationalen Initiativen wahrnehmbar war – und hat sich auch bei der Crowdsourcing-Initiative der Österreichischen Nationalbibliothek bestätigt.

Die Metadaten

Kommen wir nun zu den beigetragenen Metadaten selbst. Wie oft wurden die einzelnen Aufgaben nun für jeweils ein Bild absolviert und wie viel wurde annotiert?

  • Aufgabe 1, Kategorisieren, haben UserInnen 32.199 mal durchgeführt. Insgesamt wurden 126.276 einzelne Kategorien abgeschickt. Das Kategorisieren stellt somit die am häufigsten absolvierte Aufgabe der ersten Crowdsourcing-Kampagne dar.
  • Aufgabe 2, Tagging, wurde 12.493 mal absolviert. In dieser Aufgabe haben uns 24.800 einzelne Tags (d.h., Stichwörter, Ortsnamen oder eigene Begriffe) erreicht.
  • Aufgabe 3, Verorten, wurde fast so oft wie Aufgabe 1 ausgeführt, nämlich exakt 28.135 mal.
  • Die Aufgaben 4 & 5, unsere Qualitätssicherung, wurde 4.824 mal gemacht. Insgesamt haben uns 6.589 Bewertungen erreicht.
Die Luftbilder aus den 1930er-Jahren mit Metadaten zu versehen war – neben der Einbindung der interessierten Öffentlichkeit – eines der Hauptziele der Crowdsourcing-Kampagne Österreich aus der Luft. Im Bild: die Hohen Tauern (Ankogelgruppe).

Kategorisieren

In der Aufgabe Kategorisieren konnte aus 14 Begriffen gewählt werden (Mehrfachnennungen waren möglich), die das Bild grob beschreiben sollten.

Am öftesten wurde die Kategorie „Panorama“ zu einem Bild hinzugefügt, nämlich exakt 17.207 mal. Dahinter folgen „Wiese“ mit 15.346 und „Wald“ mit 12.094 Nennungen. Am wenigsten oft wurde übrigens, nämlich genau 3.857 mal, die Kategorie „See“ vergeben.

Je nach Bundesland lassen sich auch Landschaftsformen in den Kategorien ablesen: Der Begriff „Gebirgig“ wurden nur 16 mal im Burgenland und gar nur 12 mal in Wien verwendet, dafür aber 2.287 mal in Tirol.

Ebenso wenig überraschend: In dieser Aufgabe haben UserInnen exakt 1.254 mal das Wort „See“ Luftbildern in Kärnten zugeordnet. Dem gegenüber stehen 32 in Niederösterreich und 21 Nennungen bei Luftbildern, die Wien zeigen. Wien glänzt dafür bei den Detailaufnahmen: 1.450 mal wurde die Kategorie „Detail“ Bildern aus Wien zugeordnet.

Tagging

In der Aufgabe Tagging konnten Stichwörter, Ortsnamen oder sogenannte Eigene Begriffe annotiert werden. Welche Wörter wurden am häufigsten genannt?

Die zehn, seit dem Start der Crowdsourcing-Kampagne am 22. Oktober 2018, am öftesten zugeordneten Begriffe sind:

  • Haus (958 Nennungen)
  • Kirche (872)
  • Straße (502)
  • Wien (424)
  • Bregenz (366)
  • Fabrik (303)
  • Schlot (263)
  • See (257)
  • Fluss (238)
  • Baum (226)
  • Friedhof (226)

Eine interessante Sache: Hier lässt sich etwas anderes ablesen. Die Luftbilder werden in den Aufgaben 1, 2 und 3 nicht „zufällig“, sondern in einer gewissen Reihenfolge, die sich aufgrund einiger Parameter ergibt, angezeigt. Durch diesen Algorithmus wurden Bilder aus Vorarlberg auf der Crowdsourcing-Plattform vergleichsweise öfter angezeigt und infolge dessen öfter annotiert. Dies erklärt die häufige Nennung von „Bregenz“ in diesem Zusammenhang. Das Projektteam hat aus diesen Daten gelernt und den Algorithmus für die Bildanzeige in den Aufgaben 4 und 5 angepasst.

Weiters ist interessant, dass UserInnen die Aufgabe „Tagging“ auch für andere Zwecke genutzt haben: So hat uns bei unterschiedlichen Bildern der Hinweis „falsch verortet“ ganze 214 mal erreicht. Was für ein kluger und – zugegeben – auch überraschender Weg, Kommentare an die Österreichische Nationalbibliothek zu einzelnen Bildern zu senden. Auch diese Erkenntnis kann man in die Gestaltung künftiger Kampagnen mitnehmen.

Die meisten Begriffe wurden gar nur ein Mal vergeben – das zeigt auch, wie vielseitig diese Aufgabe eingesetzt wurde, um Bilder mit Informationen anzureichern. Dazu zählen Annotationen von „Schloss Laxenburg“, „Sportplatz Sturm Graz“, „Wollzeile“, „Vorortelinie“, oder „Bergstation Schafberg“, um nur einige Beispiele aufzuzählen.

Verorten

In der Aufgabe Verorten, die das Ziel hat, die Luftbilder auf einer Landkarte einzuzeichnen, wurde am öftesten Bregenz genannt (428 Nennungen), gefolgt von Dornbirn (147), Klagenfurt (146), Graz (102), und Gmunden (95).

Noch viel häufiger wurden Kartenmarker jedoch händisch platziert – nämlich insgesamt drei Viertel aller Kartenmarker. Auch daraus haben wir gelernt: offensichtlich möchten UserInnen ein Bild sehr präzise platzieren und dafür sind die gezeigten Suchergebnisse nicht ausreichend. Wir bedanken uns an dieser Stelle für Ihre herausragende Genauigkeit!

Verabschiedung

Zu guter Letzt: Einmal mehr ist es an der Zeit, uns herzlich für die vielen Beiträge und Rückmeldungen zu bedanken, die wir im Zeitraum von zweieinhalb Jahren Kampagnenlaufzeit von Ihnen allen erhalten haben. Ihr Engagement ist ein nachhaltiges, die Wissensallianz zwischen Bevölkerung und Bibliothek eine beständige. Die erhaltenen und qualitätsgesicherten Metadaten werden in den Bibliothekskatalog der Österreichischen Nationalbibliothek überführt. Mit vielen von Ihnen haben wir in den letzten Jahren auch per E-Mail kommuniziert. Und einige von Ihnen, die beitragsstärksten UserInnen, durften wir sogar persönlich vor Ort an der Österreichischen Nationalbibliothek begrüßen. Auch das Projektteam möchte sich an dieser Stelle bei Ihnen allen verabschieden und bedanken – wir haben viel von Ihnen, unseren UserInnen, gelernt!

Bis zum Start einer neuen Crowdsourcing-Kampagne ist die Plattform nun einstweilen nicht mehr online – so viel sei aber bereits verraten: Auch in der Zukunft sind weitere partizipative Initiativen der Österreichischen Nationalbibliothek geplant. Wir freuen uns bereits darauf und hoffen, dass Sie uns als aktive Beitragende erhalten bleiben. In diesem Sinne: auf bald!

]]>
Tags bewerten https://crowdsourcing.onb.ac.at/blog/tags-bewerten/ Wed, 07 Oct 2020 10:00:00 +0000 https://crowdsourcing.onb.ac.at/blog/?p=1066 Die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek steht unter dem Leitgedanken #ichteilewissen. Dieses Motto umfasst für uns auch die Qualitätssicherung der von der Crowdsourcing-Community geleisteten Arbeit. Ihre bisherigen Beiträge zur Bewertung, Verifizierung oder Verfeinerung von Geodaten sind geteiltes Wissen, das für die Österreichische Nationalbibliothek von großer Bedeutung ist. Daher widmen wir uns in diesem Blogbeitrag erneut dem – für die Crowdsourcing-Initiative äußerst wichtigen – Thema Qualitätssicherung.

Foto: Sacha Styles / Unsplash

Neue Aufgabe „Tags bewerten“

Die Konzeption, Gestaltung, Vorbereitung und Umsetzung einer neuen Aufgabe für die Crowdsourcing-Initiative braucht Zeit und will gut überlegt sein. Heute ist es wieder soweit –  es freut uns, anzukündigen, dass die Crowdsourcing-Initiative wieder um eine Facette reicher geworden ist: Die neue Aufgabe „Tags bewerten“ ist online! Diese Aufgabe ist gleichzeitig auch die letzte für unsere Crowdsourcing-Kampagne „Österreich aus der Luft“.

Nachdem sich unsere letzten beiden Blogbeiträge (siehe hier und hier) bereits mit den Hintergründen der Qualitätssicherung von Kartenmarkern und somit mit den Aufgaben „Verorten“ und „Verortung bewerten“ auseinandergesetzt haben, schließen wir heute nahtlos mit Informationen zur neuen Aufgabe „Tags bewerten“ an. Sie kann im Zeitraum von Anfang Oktober 2020 bis Ende März 2021 absolviert werden. Helfen Sie auch diesmal wieder mit, die Qualität der bisher eingebrachten Tags sicher zu stellen und die Beschreibung für die historischen Luftbilder zu präzisieren!

Wie wir bereits mehrmals auf diesem Blog erwähnt haben, finden wir es sehr wichtig, dass die Qualitätssicherung für die Crowdsourcing-Initiative durch die Crowdsourcing-Community selbst durchgeführt wird. Sehen wir uns dazu einige Beispiele für Beiträge an, die uns im Zuge der Durchführung der Aufgabe „Tagging“ erreicht haben.

Statistiken und Beispiele für eingebrachte „Tags“

Was meinen wir genau mit dem Begriff „Tag“ im Kontext der Crowdsourcing-Initiative? Tags beschreiben Bilder, damit diese besser auffindbar sind. Die deutschsprachige Wikipedia liefert dazu folgende Definition: [1]

„Ein Tag (…) ist eine Auszeichnung eines Datenbestandes mit zusätzlichen Informationen.“

Tags können auf unserer Plattform aber noch genauer differenziert werden. So entstammen die für die Crowdsourcing-Kampagne „Österreich aus der Luft“ eingebrachten Tags drei unterschiedlichen Kategorien: Sachschlagwörter, Ortsnamen und sogenannte eigene Begriffe. Wir haben uns im Zuge der Konzeption der Aufgabe „Tagging“ dazu entschlossen, alle drei Ausprägungen von Tags in derselben Aufgabe zuzulassen, damit UserInnen im Zuge der Beschreibung eines Bildes nicht zwischen verschiedenen Aufgaben wechseln müssen.

Wie auch bei den eingebrachten Kartenmarkern sei auch an dieser Stelle darauf hingewiesen, dass das Projektteam keine Tags aussortiert hat. Daher können wir für die Richtigkeit der Angaben auch keine Gewähr übernehmen.

Mit Stand Anfang Oktober 2020, haben uns über 24.000 Tags von Ihnen, der Crowdsourcing-Community, erreicht. Um diese große Zahl anschaulicher zu machen, zeigen wir im Folgenden einige Beispiele für eingebrachte Tags.

Sachschlagwörter

Die erste hier vorgestellte Ausprägung von Tags sind sogenannte Sachschlagwörter. Beispiele für diese Kategorie von Tags sind u. a. „Stadt“, „Dorf“, „Kirche“, „Straße“, „Schule“ oder „Haus“. Es handelt sich bei diesen Begriffen also nicht zwingend um spezielle Eigennamen, sondern um allgemeine Beschreibungen zu einem Bild. Diese sollen auch ohne spezifische Ortskenntnisse beigetragen werden können. Zirka ein Viertel aller beigetragenen Tags sind Sachschlagwörter.

Wenn Sie in der Aufgabe „Tagging“ ein vorgeschlagenes Sachschlagwort wählen, entstammt dieses aus einem so genannten kontrollierten Vokabular, der „Gemeinsamen Normdatei“, oder kurz GND. Die GND ist ein Gemeinschaftsunterfangen vieler beteiligter Institutionen (v. a. Bibliotheken), die Daten werden an der Deutschen Nationalbibliothek gehalten. Auf deren offizieller Website heißt es, zur Erklärung der GND: [2]

„Vor allem Bibliotheken nutzen die GND zur Erschließung von Publikationen. Zunehmend arbeiten mit der GND aber auch Archive, Museen, Kultur- und Wissenschaftseinrichtungen sowie Wissenschaftler und Wissenschaftlerinnen in Forschungsprojekten. Normdaten erleichtern die Erschließung, bieten eindeutige Sucheinstiege und vernetzen unterschiedliche Informationsressourcen.“

Die Begriffe entstammen also nicht der Feder des Projektteams Crowdsourcing, sondern einem kuratierten und geprüften Vokabular, das standardisiert ist. Das Projektteam hat aus diesem Bestand wiederum geeignete Begriffsgruppen für die Crowdsourcing-Kampagne ausgewählt.

Sachschlagwörter in der Aufgabe 4
In der Aufgabe „Tags bewerten“ werden auch Sachschlagwörter gezeigt, die Aspekte des Bildes beschreiben sollen. Hier zum Beispiel „Gebirge“. Die Eignung der Tags als passende Beschreibung dieses Bildes können Sie mit „Ja oder „Nein“ bewerten. Auf der rechten Seite ist die Anzahl der bereits bewerteten Tags für dieses Bild ersichtlich.

In der neuen Aufgabe „Tags bewerten“ ersuchen wir Sie nun um Mithilfe, diese von anderen UserInnen beigetragenen Sachschlagwörter mit „Ja“ (wenn der gezeigte Begriff auf dem Bild zu sehen ist, oder es zumindest plausibel ist, dass er zum Bild passt) oder „Nein“ (wenn der gezeigte Begriff das Bild oder Gezeigtes auf dem Bild nicht adäquat beschreibt) zu markieren.

Ortsnamen

Die zweite Ausprägung von Tags auf der Crowdsourcing-Plattform sind Eigennamen wie „Wien“, „Graz“, „Niederösterreich“, „Salzburg“. Weiters auch Namen von Berggipfeln, Landschaften, Gewässern oder besonderen Landmarks. Mit „Landmarks“ sind zum Beispiel Sehenswürdigkeiten wie das Wiener Rathaus oder der Grazer Uhrturm gemeint. Streng genommen handelt es sich also um einzigartige Orte, daher benennen wir diese auf der Plattform als Ortsnamen. Ihnen ist gemein, dass sie durch Geokoordinaten eindeutig auf einer Landkarte identifizierbar sind. Bei ungefähr der Hälfte aller beigetragenen Tags handelt es sich um Ortsnamen.

Wie die Stichwörter stammen auch Ortsnamen aus einem kontrollierten Vokabular, genauer, dem Webservice Geonames.org. [3] Durch die Verwendung dieses Webservices wird eine einheitliche Schreibweise der Ortsnamen gewährleistet.

Ortsnamen in der Aufgabe 4
Auch Ortsnamen werden, wie hier im Beispielbild, gezeigt.
Auch diese sind mit „Ja“ oder „Nein“ bewertbar.

In der neuen Aufgabe „Tags bewerten“ ersuchen wir Sie um Mithilfe, diese von anderen UserInnen eingebrachten Ortsnamen mit „Ja“ (wenn der Ortsname zum Abgebildeten passt) oder „Nein“ (wenn der Ortsname nicht zum Abgebildeten passt) zu markieren.

Eigene Begriffe

Für den Fall, dass die im Zuge des Taggings der Bilder von der Crowdsourcing-Plattform angebotenen Sachschlagwörter und Ortsnamen nicht ausreichend präzise für eine schlüssige Beschreibung der Bilder sind, haben wir die Möglichkeit geschaffen, neue, eigene Begriffe hinzuzufügen. Vorgesehen war diese Art von Tags z. B. für seltene Flurnamen o. Ä., die nicht aus einer Normdatei stammen (können). Immerhin rund ein Viertel aller von UserInnen beigetragenen Tags entstammen der Kategorie „eigener Begriff“.

In der Praxis, und in der nun fast zweijährigen Laufzeit der Kampagne „Österreich aus der Luft“, haben UserInnen dieses Feld mitunter auch als Kommentarfeld verwendet. So haben uns zum Beispiel folgende eigene Begriffe (oder eigentlich Kommentare) erreicht:

  • Westlichste Gemeinde Österreichs
  • Rax, Otto-Haus, Jakobskogel
  • Strandbad Klagenfurt mit Badesteg und Badehüttenanlagen

Oder auch Hinweise auf falsche Verortungen, wie z. B.:

  • Ist-Nicht-Andritz (sic!)
  • falsch verortet

Naturgemäß finden sich in dieser Kategorie von Tags nun auch unterschiedliche Schreibweisen, die ihrerseits auch alle richtig sein können. Eine Vereinheitlichung dieser Schreibweisen liegt allerdings außerhalb dessen, was diese Crowdsourcing-Aufgabe leisten kann.

Eigene Begriffe in der Aufgabe 4
Gerade bei längeren Tags handelt es sich meist um von BenutzerInnen zusätzlich beigetragene „eigene Begriffe“. Wie alle anderen Tags sind diese auch mit „Ja“ oder „Nein“ bewertbar.

In der neuen Aufgabe „Tags bewerten“ ersuchen wir Sie um Mithilfe, diese von anderen UserInnen eingebrachten eigenen Begriffe mit „Ja“ (wenn der Begriff zum Bild passt und richtig geschrieben ist) oder „Nein“ (wenn der Begriff nicht zum Bild passt oder der Begriff falsch geschrieben ist) zu markieren.

Resümee und nächste Schritte

Es ist nun an der Zeit, diese beigetragenen Tags einer Qualitätsprüfung zu unterziehen. Dafür veröffentlichen wir nun die Aufgabe „Tags bewerten“ und starten somit die finale Phase für Beiträge zur ersten Crowdsourcing-Kampagne „Österreich aus der Luft“.

Die neue Aufgabe und die Kampagne „Österreich aus der Luft“ werden noch bis Ende März 2021 für Beiträge offenstehen. Unser Ziel danach ist es, die qualitätsgesicherten Daten in den Bibliothekskatalog der Österreichischen Nationalbibliothek zu überführen.

Im Laufe des Jahres 2021 werden die Bilder von „Österreich aus der Luft“ auch via ÖNB Digital abrufbar sein. Ein Meilenstein, der nur mit Ihrer Hilfe erreicht werden kann: Dann haben Sie mitgeholfen, ihr Wissen an der Österreichische Nationalbibliothek zu verankern und damit der allgemeinen Öffentlichkeit, für die die Bilder dann in den Katalogen auffindbar sein werden, einen wertvollen Dienst erwiesen. Wir möchten uns an dieser Stelle noch einmal herzlich für Ihren Einsatz bedanken.

Wir hoffen, Sie bleiben uns auch für diese neue Aufgabe treu. Wir freuen uns auf Ihre Rückmeldungen und Ihr Feedback unter crowdsourcing@onb.ac.at.

Referenzen

  1. Wikipedia-Eintrag zu „Tag (Informatik)“ – https://de.wikipedia.org/wiki/Tag_(Informatik)
  2. Deutsche Nationalbibliothek: Die GND –  https://www.dnb.de/DE/Professionell/Standardisierung/GND/gnd_node.html
  3. Geonames.org – https://www.geonames.org
]]>
Richtiges Verorten: Praxis & Diskussion https://crowdsourcing.onb.ac.at/blog/richtiges-verorten/ Thu, 09 Jul 2020 12:10:00 +0000 https://crowdsourcing.onb.ac.at/blog/?p=983 Richtig ist relativ. Wie also richtig verorten? Lässt sich das überhaupt beantworten? Es sind Fragen wie diese, die Crowdsourcing erst interessant machen. Gerade die unterschiedlichen Sichtweisen vieler Beteiligter ergeben das große Ganze.

Foto: Finding Dan | Dan Grinwis / Unsplash

Seit dem Launch der Aufgabe „Verortung bewerten“ haben uns immer wieder Rückfragen von UserInnen erreicht, wie man die nachgefragte passendste Verortung eines Bildes identifizieren soll, damit die Aufgaben „Verorten“ und „Verortung bewerten“ akkurat und „richtig“ erfüllt werden können. Diese Thematik möchten wir im Folgenden näher betrachten.

Grundsatzfrage Verorten: Abgebildeter Ort oder Aufnahmeort?

Soll verortet werden, was abgebildet ist, oder suchen wir den Aufnahmeort eines Bildes? Für Bilder der Crowdsourcing-Kampagne „Österreich aus der Luft“ kann diese Grundsatzfrage eindeutig beantwortet werden: Das Gezeigte soll verortet werden. Ein wichtiges Ziel der Crowdsourcing-Initiative ist es, die Bilder mit Beschreibungen anzureichern, damit die Suche nach der Ressource Flugbild künftig allen BenutzerInnen erleichtert wird. 

Jede/r UserIn nimmt bei der Betrachtung eines Fotos andere Qualitäten und Eigenschaften im Bild wahr. Das wirkt sich in der Folge darauf aus, wie und – vor allem – was verortet wird. Das Projektteam hat die von UserInnen in der Aufgabe „Verorten“ eingebrachten Kartenmarker bereits allgemein gesichtet – mit der Erkenntnis, dass diese Beiträge Zeugnis individueller Interpretationen der Luftbilder sind. Diese diversen Sichtweisen auf das Bildmaterial und die zugrundeliegende diskursive Natur der Initiative sind triftige Gründe dafür, warum Crowdsourcing als Instrument der Erschließung so reizvoll ist.

Die Kopplung der Aufgaben

Unser Anspruch, der Crowd in unserer partizipativen Initiative ein hohes Maß an Verantwortung zu übergeben, soll sich auch in der Gestaltung der Crowdsourcing-Aufgaben widerspiegeln. Im vorangehenden Blogartikel [1] ist dazu festgehalten:

Also haben wir es Ihnen – den Beitragenden – überlassen, bei jedem Bild eine höchst individuelle Entscheidung zu treffen und den Ort, den ein Luftbild zeigt, mit einem Kartenmarker (auch: Pin) zu markieren.

Speziell die beiden Crowdsourcing-Aufgaben „Verorten“ und „Verortung bewerten“ sind inhaltlich eng miteinander verwoben. Die Ortsmarkierungen oder Kartenmarker, die von den UserInnen gesetzt worden sind, werden auf der Crowdsourcing-Plattform in der Aufgabe „Verorten“ gesammelt. Sie können nach dem Absenden nicht mehr verschoben werden. Sichtbar und zur Qualitätssicherung freigegeben werden die eingebrachten Kartenmarker in der aktuellsten Aufgabe „Verortung bewerten“. In dieser soll sich einer der Kartenmarker als die „passendste“ Verortung herauskristallisieren.

In der Aufgabe „Verorten“ werden also Beiträge von UserInnen gesammelt – in der dazugehörigen Aufgabe „Verortung bewerten“, werden Beiträge überprüft. Diese Trennung in zwei separate Tätigkeiten hat sich in der Konzeptionsphase der Crowdsourcing-Aufgaben zu einer zentralen Idee entwickelt, denn sie erlaubt ein vereinfachtes User Interface. Dadurch soll fokussiertes, ablenkungsfreies Arbeiten ermöglicht werden.

Ähnlich verhält es sich mit der geplanten engen Kopplung des Aufgabenpaars „Tagging“ und „Tags überprüfen“. Die neue Aufgabe „Tags überprüfen“ wird voraussichtlich im Frühherbst 2020 veröffentlicht werden.

Verorten in Praxisbeispielen

So weit die generellen Überlegungen für das Verorten, das auf der Crowdsourcing-Plattform mittels zwei Aufgaben durchgeführt wird. Nur, welche Prinzipien lassen sich hier für die Praxis ableiten? Lässt sich „das Gezeigte“ eindeutig und punktuell auf der Karte einzeichnen? Wie lässt sich die Verortungsaufgabe durchführen, wenn auf einem Bild eine ganze Gemeinde oder ein Stadtteil zu sehen ist? Warum gibt es keine Möglichkeit, Flächen zu verorten?

Im Folgenden führen wir drei Beispiele an, die sich diesen Themen nähern und wiederkehrende Muster behandeln. Sie zeigen einerseits, welche Fragen sich bei der Bearbeitung der Aufgaben stellen können, und andererseits, welche Überlegungen des Projektteams die Gestaltung der Aufgaben geleitet haben.

Beispiel 1: Eine Panoramaaufnahme ohne Bewertungen

Bei wohl hunderten Bildern der Kampagne „Österreich aus der Luft“ handelt es sich um weitwinklige Fotografien – Panoramaaufnahmen ganzer Landschaften. Wie könnte hier die von uns gesuchte „passendste“ Verortung aussehen?

Gerade bei Panoramaaufnahmen würden es sich wohl anbieten, das auf dem Bild Gezeigte als Fläche auf einer Landkarte einzuzeichnen. Zwar haben wir im Projektteam diese Möglichkeit in Betracht gezogen, uns aber dafür entschieden, eine einheitliche punktuelle Verortung mittels Kartenmarkern anzubieten, die für alle Bilder – unabhängig von Motiv und Aufnahmewinkel – gleich funktioniert und in kürzerer Zeit durchzuführen ist. Für eine komfortable Durchsuchbarkeit der Bilder erachten wir die punktuelle Verortung ebenso als geeigneter.

Sehen wir uns dafür beispielhaft an, welche Kartenmarker in der Aufgabe „Verorten“ für folgende Szenerie des Gebiets zwischen Mondsee und Irrsee beigetragen worden sind:

Das Gebiet zwischen Mondsee und Irrsee – AF 7.027

Zwar haben wir in der Aufgabenstellung nicht explizit nach der „markantesten Stelle“ in einem Bild gefragt, trotzdem fällt in diesem Beispiel auf, dass kein/e UserIn einen Kartenmarker auf den Irrsee oder den Ort Mondsee gesetzt hat. UserInnen haben Marker vorrangig auf das Gebiet zwischen den beiden Seen platziert.

Empfehlung für die Aufgabe „Verortung bewerten“:

Welchen Marker würden wir nun, als Projektteam, für die Bewertung als „passendsten“ wählen? Als erste grobe Orientierung hilft ein Blick auf die dazugehörige Bildbeschreibung, die in dieser Aufgabe eingeblendet werden kann. [2] Auf dieser ist zu lesen, dass das Gebiet zwischen Mondsee und Irrsee auf dem Bild zu sehen ist. Zwar können wir die Korrektheit der Bildbeschreibung nicht immer gewährleisten, ein kurzer Vergleich der abgebildeten Topographie mit der eingeblendeten Landkarte macht uns aber sicher: Die gezeigten Kartenmarker sind allesamt einwandfrei platziert, wir müssen uns nun für einen aus dieser Menge entscheiden. Daher empfehlen wir, den Kartenmarker auf halbem Weg zwischen den Seen mit Pluspunkten zu versehen. Unsere Empfehlung ist als subjektive Einschätzung zu verstehen und ist einem gewissen Hang zu Symmetrie geschuldet. Selbstverständlich sei auch an dieser Stelle betont, dass wir Sie dazu ermutigen möchten, Ihrer eigenen Einschätzung zu folgen. Schreiben Sie uns dazu gerne Ihre Gedanken an crowdsourcing@onb.ac.at.

In Kürze:

  • Bildbeschreibung lesen, um eine grobe Orientierung zu erhalten
  • Bei fehlender Ortskenntnis Landkarte oder Satellitenbild konsultieren
  • Markante Punkte im Bild identifizieren

Beispiel 2: Eine Panoramaaufnahme mit Bewertungen

Wie verhält es sich mit Panoramaaufnahmen, für die bereits Bewertungen vorliegen? Sehen wir uns ein Beispiel aus Wien Leopoldstadt an: 

Eine Wohnhausanlage am Handelskai in Wien Leopoldstadt – AF 3.058

Ein interessanter Fall, denn in diesem Beispiel befinden sich zwei adjazente Gruppen von Kartenmarkern auf der Landkarte. Nun ist es notwendig, die Angelegenheit genauer zu betrachten und beide Häufungen von Kartenmarkern mit der Satellitenansicht zu vergleichen. Dazu vergrößern wir die Karte. Die auf der historischen Luftaufnahme abgebildete Wohnhausanlage ist auch auf der aktuellen Satellitenkarte noch gut zu erkennen:

Mittels eines Satellitenbildes, das auf der Plattform eingeblendet werden kann,
ist eine Überprüfung leichter möglich, als in der „normalen“ Kartenansicht.

Auch hier ergeben sich interessante Fragestellungen und Interpretationsmöglichkeiten: Warum wurde ein Kartenmarker beispielsweise in den Innenhof einer Wohnhausanlage gelegt? Warum ein anderer auf das Dach ebendieser? Was lenkt unser Auge? Diese und weitere Fragen würden in das Gebiet der Gestaltpsychologie führen, die sich unter anderem damit befasst, wie es uns die menschliche Wahrnehmung ermöglicht, Strukturen in Bildern zu identifizieren und zu interpretieren. [3] Wir möchten an dieser Stelle aber vorrangig praktische Beispiele und mögliche Ansätze aufzeigen.

Empfehlung für die Aufgabe „Verortung bewerten“:

In diesem Beispiel ist jeder dieser fünf Kartenmarker aus dem nördlichen Cluster an sich „richtig“ platziert, frei nach unserer Maxime, dass wir das Abgebildete auf einer Karte suchen. Die vergebenen Marker liegen in realen Maßstäben nur einige Meter auseinander. Wenn man die Beschreibung der Bilder zur Orientierung mit einbeziehen will – auch in diesem Beispiel ist sie hilfreich – wird der „Janecekhof“ und der „Robert-Blum-Hof“ genannt. [4] Vier Marker finden sich auf letztgenannter Wohnhausanlage. Daher empfehlen wir, den bereits mit sechs Punkten versehenen Kartenmarker mit weiteren Pluspunkten zu versehen.

In Kürze: 

  • Bildbeschreibung lesen, um eine grobe Orientierung zu erhalten
  • Ggf. von Kartenansicht auf Satellitenansicht wechseln
  • Stärken von bereits mit Pluspunkten versehenen Markern

Beispiel 3: Ein Einzelobjekt mit mehreren richtigen Kartenmarkern

Wie soll man nun damit umgehen, dass für ein gesuchtes Bild mehrere Kartenmarker eingezeichnet worden sind, die großteils auf demselben Einzelobjekt platziert sind? Ein Beispiel dafür ist der „Strindberghof“ in Wien Simmering. Auf der Karte sind bereits einige Marker eingezeichnet. Für einen davon ist die Zahl „9“ samt einem Stern angeführt. „9“ bedeutet in diesem Fall, dass insgesamt bereits neun Pluspunkte in der Aufgabe „Verortung bewerten“ zugeteilt worden sind.

Der Strindberghof in Wien Simmering – AF 6.699

Interessant ist weiters die Frage, warum ein/e UserIn den Marker in der Aufgabe „Verorten“ genau so platziert hat. Handelt es sich um eine Art „Mittelpunkt“ in dieser Wohnhausanlage? Wenn nein, warum wurde dieser nicht gewählt? War ein anderer visueller Ankerpunkt, der die Wahrnehmung und somit die Verortung geleitet hat, prominenter? Das sind unter anderem Fragen, mit denen wir uns als Projektteam beschäftigen und die für die weitere Konzeption der Plattform von hoher Wichtigkeit sind. Denn auch für uns stellt die Crowdsourcing-Initiative ein Lernen von Aufgabe zu Aufgabe dar.

Zahlreiche Marker finden sich im Innenhof der Anlage.

Empfehlung für die Aufgabe „Verortung bewerten“:

Wenn man also als UserIn den Strindberghof in Simmering als das Hauptmotiv des Bildes, als markante Stelle verorten möchte (und nicht den nahen Hyblerpark), dann sollte man einen Kartenmarker wählen, der das Wohnhaus auf der Karte verortet. Wir vertrauen darauf, dass sich mehrere Bewertungen durch die Crowd zu einem passenden Kartenmarker verdichten. Wenn schon ein Marker in der Gegend vorliegt, dann wäre es auch ratsam, einen Marker zu wählen, für den bereits andere BenutzerInnen votiert haben. Es steht Ihnen aber selbstverständlich frei, einen anderen Marker zu wählen.

In Kürze: 

  • Bildbeschreibung lesen, um eine grobe Orientierung zu erhalten
  • Suchen einer markanten Stelle im Bild
  • Ggf. von Kartenansicht auf Satellitenansicht wechseln
  • Stärken von bereits mit Pluspunkten versehenen Markern

Resümee und Diskussion

  1. Was suchen wir in Aufgabe „Verortung bewerten“? In dieser Aufgabe suchen wir den passendsten Kartenmarker für ein Bild. Nicht der Aufnahmeort wird gesucht, sondern das Gezeigte. 
  2. Wie verorte ich richtig in Aufgabe „Verorten“? Als erste Orientierung dient die Bildbeschreibung, die auf der Karte eingeblendet werden kann. Sie liefert Indizien über das Gezeigte, ist aber nicht immer zwingend korrekt. Ihr Wissen ist daher gefragt: Wir laden Sie explizit dazu ein, andere, mitunter auch der Bildbeschreibung widersprechende Verortungen beizutragen, wenn diese Ihrer Einschätzung nach akkurater sind.
  3. Woher stammen die Kartenmarker in der Aufgabe „Verortung bewerten“? Der Input dafür stammt aus Aufgabe „Verorten“. Jeder Kartenmarker wurde von eine/r UserIn auf der Karte gesetzt. Die Aufgabe „Verorten“ ist bereits ca. zehn Monate vor dem Start der Qualitätssicherung veröffentlicht worden, die mit der Aufgabe „Verortung bewerten“ begonnen hat. Das Projektteam hat keine Kartenmarker aussortiert.
  4. Warum werden nahe Kartenmarker nicht zu einem zusammengefasst? Diese Vorgehensweise hätte zu einer Art „Rundungsfehler“ geführt und hätte der Maxime widersprochen, dass das Projektteam nicht in die Erschließung durch die Crowd eingreift.
  5. Warum zeigen manche Kartenmarker Ortsnamen und andere nur Koordinaten? Das hängt mit der Art und Weise zusammen, wie ein Marker von UserInnen eingezeichnet worden ist. Die Marker mit Ortsnamen stammen aus der Normdatenbank Geonames [5] – sie sind also in der Suche in der Aufgabe „Verorten“ gefunden und so referenziert worden. Andere wiederum sind manuell auf der Karte platziert worden. In diesem Fall werden auf der Plattform und bei der Bewertung Koordinaten angezeigt.
  6. Welchen Nutzen haben Normdatenbanken?
    In der von uns verwendeten Normdatenbank Geonames haben u. A. Gebäude, Landschaften, Gebirge, Wälder, Seen, jeder politischer Bezirk sowie jedes Bundesland einen eindeutigen Referenzwert. Gründe für die Verwendung von Normdatenbanken sind einheitliche Schreibweisen, Kompatibilität und Nachnutzbarkeit.
  7. Warum kann ich für ein spezielles Bild die Aufgabe „Verortung bewerten“ nicht durchführen? Das kann zwei Gründe haben: Liegt noch kein Kartenmarker vor, kann für dieses Bild die Aufgabe „Verortung bewerten“ nicht ausgewählt werden. Sie können nur einmal pro Bild bewerten. Wenn Sie also bereits einen Marker eines Bildes bewertet haben, können Sie dieses Bild nicht mehr in der Aufgabe „Verortung bewerten“ auswählen.
  8. Was mache ich, wenn ich keinen passenden Kartenmarker in der Aufgabe „Verortung bewerten“ finde? In diesem Falle ersuchen wir Sie, ggf. in die Aufgabe „Verorten“ wechseln und selbst einen neuen Marker einzutragen. Ihr Beitrag steht dann anderen UserInnen zur Bewertung offen.
  9. Welchen Kartenmarker soll ich bewerten, wenn ich zwischen mehreren schwanke? Gibt es bei potentiell passenden Kartenmarkern bereits vergebene Punkte und empfinden Sie alle Marker als gleich gut geeignet, empfehlen wir als Entscheidungshilfe, jenen zu bewerten, der bereits Pluspunkte erhalten hat. Diese Vorgehensweise trägt dazu bei, dass sich aus vielen ähnlich platzierten Kartenmarkern ein „Favorit“ der Crowd herauskristallisiert.

Anmerkungen

  1. Weitere Überlegungen zur „richtigen“ Verortung können Sie in unserem Beitrag „Luftbilder und Verortungen“ nachlesen.
  2. Siehe Bildbeschreibung von AF 7.027
  3. Der Wikipediaeintrag zur Gestaltpsychologie ist unter https://de.wikipedia.org/wiki/Gestaltpsychologie nachzulesen.
  4. Siehe Bildbeschreibung von AF 3.058
  5. Normdatenbank Geonames.org
]]>
Crowdsourcing: Eine Bestandsaufnahme https://crowdsourcing.onb.ac.at/blog/crowdsourcing-eine-bestandsaufnahme/ Thu, 24 Oct 2019 07:22:53 +0000 https://crowdsourcing.onb.ac.at/blog/?p=595
Eine neue Initiative ist entstanden. Foto: Omar Rodriguez / Unsplash

#ichteilewissen

Eine neue Initiative ist entstanden – im Oktober 2018 haben wir unsere erste Crowdsourcing-Kampagne „Österreich aus der Luft“ mit dem Hashtag #ichteilewissen veröffentlicht. Die Initiative setzt auf das Wissen von vielen, um es in weiterer Folge anderen Menschen zugänglich zu machen.

Das „Ich“ in #ichteilewissen, das sind Sie – jede/r einzelne BenutzerIn, der/die die Crowdsourcing-Initiative aktiv mitgestaltet, Beiträge leistet, mit uns per E-Mail kommuniziert, die Luftbilder betrachtet und darüber hinaus Familie, Freunden und Bekannten davon erzählt. Was uns besondere Freude bereitet: Sie sind jetzt schon viele. Seit Veröffentlichung der Plattform zählen wir bis dato mehr als 1.700 Registrierungen und freuen uns über rege Beteiligung im ersten Halbjahr der Crowdsourcing-Initiative.

Eine neue partizipative Initiative

Crowdsourcing stellt Neuland für die Österreichische Nationalbibliothek dar.

„Die Österreichische Nationalbibliothek braucht Ihre Hilfe bei der Kategorisierung, dem Tagging und der Verortung von historischen Luftbildern.“

Crowdsourcing-Portal

Dieser Satz – zu lesen auf unserem Portal – spiegelt wider, dass sich auch die Österreichische Nationalbibliothek mit ihrem Selbstverständnis als zentrale Gedächtnisinstitution des Landes auseinandersetzt. Diese Wissensallianz mit der Bevölkerung – zu der unsere und andere partizipative Initiativen führen soll(en) – ermöglicht ausgewählte Bestände einem breiten Publikum zu öffnen.

Außerdem soll der Satz vor allem Aufruf zur Mithilfe sein. Ein Aufruf, dem Sie nachgekommen sind. Die Anzahl der Beiträge, die uns in der ersten Crowdsourcing-Kampagne „Österreich aus der Luft“ erreichte, hat uns schier überwältigt: Bereits nach der ersten Woche sind tausende Beiträge bei uns eingelangt. Daher möchten wir uns an dieser Stelle herzlich für Ihr Engagement bedanken – es ist nicht selbstverständlich, dass uns so eine große Anzahl an BenutzerInnen die Treue hält.

#wirteilenwissen

Die Vielzahl an Beiträgen stellt auch unsere Crowdsourcing-Plattform vor große Herausforderungen, birgt interessante, erfreuliche und überraschende Wendungen, an denen wir täglich arbeiten. Bisher konnten wir mit Ihnen, unseren BenutzerInnen, ausschließlich per E-Mail kommunizieren. Mithilfe des neuen #wirteilenwissen Blogs soll die Initiative für Sie greifbarer und nachvollziehbarer werden. Es soll ein direkter Draht zwischen der Crowdsourcing-Community und uns, dem Projektteam hergestellt werden: Was haben wir uns überlegt? Warum? Wie hat sich die Initiative entwickelt? Wir planen, ein breites Spektrum an Themen abzubilden: mancherorts technisch, anderenorts inhaltlich, eine Reflexion der bisherigen Entwicklungen. Wir werden immer wieder neue Funktionen vorstellen und Sie über wissenswerte Details zu Beständen und Initiative informieren. #wirteilenwissen ist die oberste Maxime dieses Blogs.

Das „Wir“ wir in #wirteilenwissen sind derzeit drei MitarbeiterInnen der Österreichischen Nationalbibliothek, Abteilung für Forschung und Entwicklung. Stefan Frühwirth und Paul Sommersguter sind für Konzeption, Design und technische Implementierung des Crowdsourcing-Portals verantwortlich, die auf Vorarbeiten der Strategiegruppe Crowdsourcing gründen. Gemeinsam mit unserer Kollegin Ting Chung, die uns in Sachen Kommunikation seit dem Launch unterstützt, werden wir uns zu unregelmäßigen Zeitpunkten, dafür aber stetig bei Ihnen melden. In Gastbeiträgen werden auch andere MitarbeiterInnen der Österreichischen Nationalbibliothek, denen wir an dieser Stelle ebenfalls für die bisherige Zusammenarbeit danken möchten, zu Wort kommen.

Start der Qualitätssicherung

Crowdsourcing ist ein sehr facettenreiches Thema, das für Gestaltung und Entwicklung vielschichtige Anforderungen mit sich bringt. Diesen hohen Komplexitätsgrad wollten wir auf der Plattform explizit nicht nach außen dringen lassen. Eine bewusste Vorgehensweise, um Ihnen ein Benutzererlebnis zu bieten, das Freude bereitet. Wir gehen hier nun den nächsten Schritt: Seit einigen Tagen ist unsere erste Qualitätssicherungsaufgabe „Verortung bewerten“ zugänglich – und wir hoffen, Sie entspricht Ihren Erwartungen.

Sie sind herzlich eingeladen, diese neue Aufgabe auszuprobieren: Für jedes Bild aus den bisher von der Community eingebrachten Verortungen soll die passendste gewählt werden. Erstmals ist so auch zu sehen, welche und wieviele Verortungen von der Community eingebracht worden sind. Das sind teilweise einzelne Marker, bei anderen Bildern aber auch mehrere.

Weil gerade die Wahl der „passendsten Verortung“ oft eine sehr subjektiv getroffene Entscheidung ist, lassen wir unterschiedliche Zustimmungsgrade zu. Je nachdem, wie sicher Sie sich sind, können Sie Ihre Zustimmung in Form der Vergabe von weniger oder mehr Punkten ausdrücken. Für spezielle Fälle haben wir einen „Joker“ eingebaut, der die Vergabe einer hohen Punktezahl bei ausgewählten Bildern erlaubt (hier lohnt sich Sparsamkeit: jede/r BenutzerIn verfügt über drei dieser Joker – hier möchten wir insbesondere Fälle abdecken, bei denen BenutzerInnen einen besonderen Bezug zu bestimmten Luftbildern haben). Wir planen, Joker künftig auch bei anderen Crowdsourcing-Plattform-Aspekten einzusetzen.

Wie geht’s weiter?

Bis diese kritische Masse erreicht ist, bleibt die Crowdsourcing-Kampagne „Österreich aus der Luft“ noch über einen längeren Zeitraum zugänglich für Beiträge.

Damit sich die Themenlandschaft des Blogs in Zukunft mit Ihren Interessen deckt, versuchen wir auch gerne, Fragen zu beantworten. Vielleicht lässt sich die eine oder andere in Zukunft auch mit einer größeren Anzahl an BenutzerInnen teilen – eben hier an diesem Ort. Daher: Bleiben wir in Kontakt. Schreiben Sie uns gerne via crowdsourcing@onb.ac.at.

]]>