Schattenblick → INFOPOOL → BILDUNG UND KULTUR → REPORT


INTERVIEW/021: Suchmaschine - Grenzen, Schranken, Schienenstränge ...    Prof. Dr. Karsten Weber im Gespräch (SB)


Strategien der Wissensverwaltung im Internet

SUMA-EV-Kongreß am 11. Februar 2015 in Hamburg


Prof. Dr. Karsten Weber lehrt an der Brandenburgischen Technischen Universität (BTU) Cottbus-Senftenberg Allgemeine Technikwissenschaften mit Schwerpunkt Informations- und Kommunikationstechnologie. In seiner Forschungsarbeit widmet er sich unter anderem Fragen der Technikfolgenabschätzung und untersucht, wie sich die Einführung neuer Technologien auf Individuen und Gesellschaften auswirkt.

Auf dem diesjährigen SUMA-EV Kongreß an der Hochschule für Angewandte Wissenschaften (HAW) in Hamburg verschaffte er dem Publikum in seiner Keynote "Suchmaschinen und Nutzer: Wer ist David, wer ist Goliath?" einen Einblick in die Unterschiede dessen, was Nutzerinnen und Nutzer bei Suchanfragen im Internet erwarten und was die Ergebnisse auszeichnet, die die jeweils in Anspruch genommene Suchmaschine produziert. Im Folgenden sollen die Schwerpunkte des Referats kurz zusammengefaßt werden.


Am Stehpult im Vortrag - Foto: © 2015 by Schattenblick

Karsten Weber
Foto: © 2015 by Schattenblick

Suchanfragen im Internet beziehen sich im Unterschied zu solchen in konventionellen Datenbanken, die über ein beschränktes Volumen an Daten verfügen, auf einen in seiner Quantität nicht mehr eruierbaren Datensatz. Der unter Nutzerinnen und Nutzern verbreitete Eindruck, bei der Inanspruchnahme einer Suchmaschine wie Google ein Ergebnis zu erhalten, das den gesamten Datenbestand des Internets zur Grundlage hat, führt daher in die Irre, weil viele Einträge schon bei der Indexierung der Inhalte von den Suchmaschinen nicht erfaßt werden.

Das geht nicht nur aus dem schieren Volumen der gesammelten Datenbestände hervor, sondern resultiert auch aus diversen technischen Beschränkungen. Diese dienen teilweise, wie im sogenannten Darknet oder bei der Anonymisierung von Verbindungsdaten im Netzwerk Tor, gezielt dem Zweck, Inhalte für Suchmaschinen unsichtbar zu machen. Individuelle Einstellungen der Webseitenbetreiber, fehlende Verlinkungen, durch Paßworte zugangsbeschränkte Portale, die Verhinderung des maschinellen Zugriffs auf Datenbestände durch Captchas, die dynamische Erzeugung von Webseiten etwa aufgrund von Nutzerdaten in Suchmasken oder Kompatibilitätsprobleme mit bestimmten Datenformaten beschränken ebenfalls den Zugriff der Suchmaschinen.

Auf der anderen Seite werden die Ergebnislisten von Suchmaschinen selbst auf eine Weise beeinflußt, die nicht in jedem Fall dem Interesse der Nutzerinnen und Nutzer entsprechen muß. So versucht Google zum Beispiel, Dopplungen und Redundanzen zu vermeiden, was etwa bedeuten kann, daß keine Clones der Enzyklopädie Wikipedia in der Ergebnisliste auftauchen. Die Suchmaschinen unterliegen zudem gesetzlichen Vorgaben, die etwa die Streichung von Suchtreffern aus Gründen des Jugendschutzes oder der Wiedergabe verbotener extremistischer Inhalte verlangen. Auch das vieldiskutierte Recht auf Vergessen kann zur Folge haben, daß Inhalte von Presseartikeln oder Webseiten nicht mehr angezeigt werden. Des weiteren versucht das Gewerbe der Suchmaschinenoptimierer, die Suchalgorithmen auf eine Weise zu nutzen, die ihren Kunden einen Eintrag auf den vorderen Plätzen der Ergebnisliste verschafft, auf den sie ohne die Anpassung ihres Angebots an die Relevanzkriterien der jeweiligen Suchmaschine nicht gelangt wären.

Im Wettbewerb um gute Positionen im Ranking sind Suchmaschinen wie Google, deren Geschäft vor allem in der Vermarktung individualisierter Werbung besteht, aus naheliegenden Gründen keine neutralen Akteure. Zumindest wurde Google in den USA wie der EU bereits zum Ziel von Ermittlungsverfahren der Kartellbehörden, die den IT-Konzern verdächtigten, Suchergebnisse durch die systematische Bevorzugung eigener Produkte zu manipulieren. Schließlich beeinflußt das Nutzerverhalten selbst das Suchergebnis wie auch den Inhalt des Suchindexes, weil nutzerspezifische Informationen über die Häufigkeit bestimmter Anfragen oder das Setzen bestimmter Links in die Modifikation des Suchalgorithmus einfließen.

Von daher sind, so die zusammenfassende Aussage Karsten Webers, Ergebnislisten von Suchmaschinen grundsätzlich defizitär, weil eine Suchmaschine das Internet nicht vollständig abdecken kann und aus verschiedenen Gründen bestimmte Fundstellen überbetont und andere unterbetont. Da man nicht kontrollieren kann, auf welche Weise das Ergebnis einer Suchanfrage verzerrt ist, empfiehlt der Referent zum Beispiel Studierenden, neue Recherchestrategien zu entwickeln und die vielen verfügbaren Recherchetools zu nutzen, um zumindest einen Eindruck zu erhalten, auf welche Weise die Ergebnisse der jeweiligen Suchmaschinen gefiltert werden und möglicherweise verzerrt oder unvollständig sind. Dies sei auch für staatliche Institutionen und Journalisten wichtig. Insbesondere letztere sollten sich fragen, wie realitätstauglich Google-Recherchen überhaupt sind. Es könne für diesen Berufsstand durchaus von Vorteil sein, wieder auf klassische Weise zu recherchieren, anstatt sich auf möglicherweise unvollständige oder irreführende Suchergebnisse aus dem Internet zu verlassen.

Abschließend ging der Referent auf die angesichts der Klagen über manipulierte Suchergebnisse seit Jahren geführte Regulierungsdebatte für Suchmaschinen ein. Für ihn stelle die marktbeherrschende Stellung eines Unternehmens wie Google für sich genommen kein Problem dar, doch der IT-Konzern betreibe nicht nur eine Suchmaschine, sondern biete viele Dienste an und verknüpfe die dabei anfallenden Nutzerdaten miteinander, was durchaus ein Problem sein könne. Während die Forderung, daß Suchmaschinen ihre Algorithmen offenlegen, sehr tief in Eigentumrechte eingreife, könne ein Offener Index vielleicht ein Ansatz sein, ein Gegengewicht gegen die großen kommerziellen Suchmaschinen zu schaffen und dabei auch etwas über die Qualität ihrer Ergebnisse herauszufinden.

Gegenüber der Forderung nach einer Entflechtung oder Aufteilung von Google zeigt sich Weber skeptisch. Zum einen bezweifle er, ob das Kartellrecht das hergibt und hergeben sollte, zum andern sei es kein Verbrechen, dynamisch zu wachsen, gute Angebote zu machen und dafür mit einem guten Geschäftsergebnis honoriert zu werden. Der Markt für Suchmaschinen tendiere zum Monopol auch deshalb, weil niemand viele Suchmaschinen aufrufen wolle und die erforderliche Leistungsfähigkeit am besten in einer Hand entstehe.

Auch eine Suchmaschine nach dem öffentlich-rechtlichen Modell findet nicht die Zustimmung des Referenten, befürchtet er doch so aufwendige, intransparente und zudem eine Selbstbedienungsmentalität fördernde Entwicklung wie im Öffentlich-rechtlichen Rundfunk. Google sei mit seiner relativen Monopolstellung zwar im Moment Goliath, und die Möglichkeiten, sich dagegen zu wehren, seien beschränkt, so daß sich der Ausgang der biblischen Geschichte nicht notwendigerweise wiederholen müsse. In Sicht auf das Abschlußbild seines Vortrags verweist der Referent jedoch auf die Möglichkeit, daß neue Akteure auftauchen könnten, die alternative Angebote machen.

Im Anschluß an seinen Vortrag beantwortete Karsten Weber dem Schattenblick einige Fragen zum besseren Verständnis der für viele Nutzerinnen und Nutzer komplexen Materie.


Karsten Weber im Gespräch - Foto: © 2015 by Schattenblick

Suchen und finden als Gegenstand wissenschaftlicher Forschung
Foto: © 2015 by Schattenblick

Schattenblick (SB): Herr Weber, Sie erwähnten im Vortrag, daß die Menschen den Eindruck haben, ein umfassend verfügbares Wissen abfragen zu können. Wieviel Prozent, gemessen am gesamten erreichbaren Netz, würde bei einer Suchanfrage denn überhaupt von Google indexiert werden?

Karsten Weber (KW): Das ist eine extrem schwer zu beantwortende Frage. Dazu gibt es unterschiedliche Zahlen. Man geht allgemein davon aus, daß Google 30 Prozent der Inhalte des Netzes findet.

SB: Wie kann man es als Laie verstehen, daß wir es nicht mit dem gesamten Internet zu tun haben? Wo stecken die anderen Datenbestände, die, wenngleich vorhanden, nicht indexiert werden?

KW: Das kann kommerzielle Gründe haben. So gibt es viele Unternehmen und Organisationen, die nicht wollen, daß das, was sie anbieten, von Google gefunden wird. Auch die wissenschaftlichen Fachverlage sind nicht unbedingt daran interessiert, daß ihre Kataloge von Google durchsucht werden, weil sie die Suchmöglichkeiten ihren potentiellen Kunden und Kundinnen auf ihren Seiten selbst anbieten wollen. Entsprechend verhindern sie das Durchsuchen ihrer Kataloge und Datenbestände durch Suchmaschinen wie Google. An dieser Stelle ist Google dann ganz einfach blind.

SB: Fallen darunter auch die Intra-Netze von Firmen und verschiedenen Institutionen?

KW: Ja, die könnte man auch dazu zählen, obgleich dies in der Regel nicht unbedingt gemacht wird. Der Betreiber oder vielmehr Besitzer dieser Inhalte hat sie explizit für sein Unternehmen bzw. für seine Organisation hergestellt. Diese Inhalte sollen also gar nicht veröffentlicht werden. Man könnte sie auch zu den Wissensbeständen zählen, die im Prinzip zur Verfügung stünden, wenn man sie denn öffentlich machen würde, was aber nicht getan wird. Es geht dabei um Inhalte, auf die Nutzer und Nutzerinnen im Prinzip zugreifen können, aber eben nur über Wege, die nichts mit Suchmaschinen zu tun haben. Das betrifft Kataloge und spezialisierte Seiten, auf die Google keinen Zugriff hat. Darunter fällt, was zunehmend in der öffentlichen Debatte zu hören ist, auch das sogenannte Darknet, also Seiten, die bewußt vielen Augen verborgen werden, weil dort zum Beispiel kriminelle Aktivitäten ablaufen. All diese Inhalte deckt Google bzw. decken Suchmaschinen größtenteils nicht ab.

SB: Die Indexierung von Seiten erfolgt mittels Crawlern, also über automatisierte Algorithmen. Doch nach welchen Kriterien verläuft die Vorauswahl, die möglicherweise dazu führen könnte, daß Google bestimmte Seiten gar nicht indexiert, weil sie inhaltlich als nicht relevant erachtet werden?

KW: Denkbar ist, daß Google womöglich aufgrund einer bestimmten Gesetzeslage gar nicht erst versucht, den Index vollständig zu gestalten. Einträge stünden dann im Index, würden aber in den Suchergebnissen nicht angezeigt. Allerdings kann ein Webseitenbetreiber mit einigem technischen Knowhow auch verhindern, daß Crawler die eigenen Webseiten oder den eigenen Verzeichnisbaum durchsuchen. Dann tauchen die Inhalte, die dort verborgen sind, niemals im Index auf. Insofern bezieht sich die Abschätzung, was Google findet beziehungsweise abdeckt, auf das, was tatsächlich im Index steht. Was den Nutzerinnen und Nutzern dann angezeigt wird, ist womöglich noch weniger, weil zum Beispiel in Deutschland das Zeigen nationalsozialistischer Symbole gesetzlich verboten ist, und das zu Recht.

SB: Google stellt Verknüpfungen zu verschiedenen Inhalten her und macht sie dem Nutzer verfügbar. Müßten die Produzenten dieser Inhalte nicht finanziell beteiligt werden, wenn ihren Inhalten im Rahmen der Bewirtschaftung durch Google ein gewisser Wert zukommt?

KW: Im Grunde berührt das die Diskussion um das Leistungsschutzrecht. So fordern vor allem Zeitungsverlage, in Zukunft an den Erlösen, die Google erwirtschaftet, beteiligt zu werden. Schließlich lebt Google davon, Inhalte anzuzeigen, die es aber nicht erstellt hat. Der Wunsch ist verständlich, aber vermutlich würden sich die Inhalteanbieter damit nur selbst schaden, da ihre Inhalte ohne die Hilfe von Google oder von Suchmaschinen schlicht und ergreifend oftmals nicht sichtbar wären. Ich denke, auf lange Sicht wird es so bleiben, daß sich die großen Inhalteanbieter kaum gegen die Nutzung ihrer Inhalte in Suchmaschinen wehren können. Allerdings sind dem auch Grenzen gesetzt. So darf Google in der Such- bzw. Ergebnisliste nur einen Bruchteil dessen anzeigen, was auf der eigentlichen Webseite oder dem eigentlichen Dokument steht. Damit sind auf rechtlicher Seite gewisse Vorkehrungen getroffen worden, damit eine faire Verteilung der Profite stattfinden kann.

SB: Sie haben Ihren Vortrag mit "Suchmaschinen und Nutzer: Wer ist David, wer ist Goliath?" betitelt. Natürlich haben die Content-Erzeuger ein Interesse daran, verbreitet zu werden, aber auch Google verfolgt ein Eigeninteresse. Sind die beiden Positionen Ihrer Ansicht nach ausgeglichen?

KW: Das ist schwer zu beantworten. Nach meiner subjektiven Einschätzung könnte es auf eine fruchtbare Symbiose hinauslaufen. Allerdings tendiert der Informationsmarkt zur Bildung immer größerer Einheiten, weil man Informationen besser bewirtschaften kann, wenn man viele möglichst als einziger bewirtschaftet. Das Geschäftsmodell Zeitungsverlag mit verschiedenen Publikumszeitungen ist eine relativ junge Entwicklung, die im 19. Jahrhundert erst richtig Fahrt aufgenommen hat. Möglicherweise kommt es irgendwann an sein Ende, weil ein anderes Geschäftsmodell leistungsfähiger ist. Die Zeitungsunternehmer würden dann vom Markt verschwinden. Wenn ich wüßte, wie die Entwicklung verlaufen wird, wüßte ich, welche Aktien ich kaufen müßte.

SB: Im 18. und 19. Jahrhundert beanspruchten Menschen, Generalisten zu sein und einen umfassenden Überblick über die verschiedenen Wissenschaftsdisziplinen zu haben. Gegenüber der schier unüberschaubaren Ausdifferenzierung des Wissens fühlt sich der einzelne heutzutage jedoch fast ohnmächtig. Wie sollen die Menschen da noch wissen, was sie überhaupt suchen oder woran sie sich orientieren können?

KW: Dies betrifft den Bereich kognitionspsychologischer Fragen, wie Menschen zum Beispiel vorgehen, um die Überforderung durch die Informationsflut in den Griff zu bekommen. Wenn man der Statistik Glauben schenken darf, dann nimmt die überwiegende Anzahl der Menschen, die eine Suchmaschine nutzen, nur die ersten drei Einträge zur Kenntnis oder allenfalls die erste Seite. Ökonomisch gesehen ist das ein durchaus rationales Verhalten, denn länger zu suchen ist teuer. Es kostet nämlich Zeit. Das heißt, die Menschen treffen unbewußt und vielleicht nicht immer gut durchdacht die Entscheidung: Der Aufwand reicht mir, um dieses Ergebnis zu erzielen. Daß vielleicht auf Seite 35 ein interessantes Suchergebnis stehen könnte, das ich dann nicht finde, nehme ich in Kauf.

SB: Google individualisiert die Suchergebnisse, indem sie auf den jeweiligen Nutzer zugeschnitten werden. Besteht nicht die Gefahr, daß der Blick der Menschen eingeengt wird, weil er nicht mehr über das hinausgeht, was sie schon kennen?

KW: Das ist in der Tat so, auch wenn es kein neues Phänomen ist, nur wird es durch Google nochmal verschärft bzw. verstärkt. In der Kognitionspsychologie hat man dafür den Ausdruck "kognitive Dissonanz", was nichts anderes heißen soll, als daß wir versuchen, eher uns bestätigende Informationen zu finden und zu nutzen und uns widersprechenden Informationen aus dem Weg zu gehen. Durch Google wird dieses natürliche Bedürfnis noch massiv gefördert. Tatsächlich wird die Gefahr, daß Leute nur noch zur Kenntnis nehmen, was ihnen entspricht, damit größer. Das könnte in bezug auf politische Entscheidungsbildungsprozesse durchaus zum Problem werden. In meinem Vortrag hatte ich auf diesen Punkt verwiesen, als ich die Suchmaschine blekko.com ins Spiel brachte, die das bewußt adressiert nach dem Motto: Wollen Sie keine für Sie unangenehmen Informationen, dann nutzen Sie unsere Suchmaschine, denn bei uns können Sie eingeben, was Sie alles nicht sehen möchten bzw. vorfiltern lassen, was Sie sehen wollen. Die Nutzung einer solchen Suchmaschine macht es einem bequem, birgt aber eben auch die Gefahr, daß man abweichende Meinungen einfach nicht mehr zur Kenntnis nimmt und so in einem sehr einseitigen Weltbild verharrt.

SB: Sehen Sie als Wissenschaftler, der sich mit Technikfolgenabschätzung beschäftigt, auch eine Gefahr in der Monopolisierung des Wissens? So gab es zum Beispiel bei Google Books einen langen Streit wegen der Urheberrechte, aber darüber hinaus stellt sich die Frage nach den Konsequenzen, wenn ein privatwirtschaftlich organisierter Konzern perspektivisch über das Menschheitswissen verfügt, da auf diese Weise Möglichkeiten zur Manipulation gegeben sind. Schließlich ist es nicht hundertprozentig gewährleistet, daß sich eine digitale Kopie auch immer mit dem Dokument aus Papier deckt. Ganz abgesehen davon, daß man den Zugang zu den Originalen beschränken könnte.

KW: Sicherlich, diese Möglichkeit besteht, das kann man nicht ohne weiteres wegdiskutieren. Aber was wäre, wenn Google sich entgegen ökonomischer Vernunft so verhalten würde?

Dann müßten wir zum Beispiel als Wissenschaftler wieder in die Bibliotheken gehen und wären auf einen Zustand zurückgeworfen, wie er in den 80er, frühen 90er Jahren des letzten Jahrhunderts vorgelegen hat. Das wäre unbequem und vor allem insofern nachteilig, als die Bibliotheken selbst nur einen extrem kleinen Ausschnitt des vorhandenen Wissens zur Verfügung stellen. Schon früher war es teilweise prohibitiv teuer, eine umfassende Literaturrecherche zu unternehmen, weil Fernleihe immer auch Geld gekostet hat und zudem auf bestimmte Bibliotheken beschränkt war. Das wäre schade, aber ich befürchte im Moment nicht, daß so etwas passiert, weil es zumindest derzeit nicht im ökonomischen Interesse von Google wäre, hier gezielt so etwas wie eine Wissensmanipulation vorzunehmen. Es würde ihre Reputation massiv in Frage stellen.

Sicherlich hat Google das Google-Books-Projekt gerade im Bereich der urheberfreien Bücher nicht aus Altruismus und purer Menschenfreundlichkeit, sondern aus ökonomischen Profitgründen gemacht, was zweifelsohne vielen Leuten extrem bei der Arbeit hilft. Im Moment ist es eine Win-Win-Situation. Das kann sich allerdings ändern.

SB: Hier auf dem Kongreß wird unter anderem auch die Frage nach nationalen Interessen gestellt. Wie beurteilen Sie die Notwendigkeit, daß auch völkerrechtliche oder andere vertragsrechtliche Bedingungen in die Verfügbarkeit des elektronisch gespeicherten Wissens einbezogen werden? So wäre denkbar, daß eine Domain in einer Krisensituation einfach abgeschaltet wird. Müßte die Frage der Gewährleistung des Zugangs zu elektronisch gesichertem Wissen daher nicht in einem internationalen Rahmen erörtert werden?

KW: Da würde ich ausnahmsweise in Abwandlung eines Spruchs aus der DDR sagen: Von den USA lernen, heißt siegen lernen. So gibt es in den USA die Regel, daß die Ergebnisse aus Forschungen, die mit öffentlichen Geldern finanziert wurden, spätestens nach einem Jahr der Allgemeinheit zur Verfügung gestellt werden müssen, und zwar kostenfrei. Die Max-Planck-Institute versuchen gerade, so etwas zu etablieren, aber wir haben diese Art von Fair Use Principle, das verschiedene Formen der Nutzung von Wissen organisiert und regelt, weder auf deutscher noch auf europäischer Ebene. Das wäre ein echter Gewinn für alle. Denn gerade für die Ausbildung wären Studien, die ein Jahr alt sind, kein Problem. Sie wären praktisch aktuell, da es in der Lehre keine Rolle spielt, wenn eine Studie erst nach einem Jahr erscheint und dann frei zugänglich ist. Selbst für die Forschung ist es in vielen Fällen nicht so dramatisch, wenn sie mit einer gewissen zeitlichen Verzögerung öffentlich gemacht und dann kostenlos zur Verfügung stehen würde. Insbesondere für Länder, deren Geldbeutel nicht so gefüllt ist wie der der industrialisierten Länder, wäre es ein absoluter Segen.

Ich glaube, die reichen Staaten stehen da in einer echten Bringschuld. Unser Wissen, das eben nicht in einem besitzergreifenden Sinne unser Wissen ist, sondern bei uns produziert wurde, sollte allen möglichst bald zur Verfügung gestellt werden. Dadurch wird auch der Raum geschaffen für Innovationen wie neue Heilungsmethoden oder Technologien. Es würde am Ende wahrscheinlich allen nutzen. Aber im Moment sehe ich nicht die Bereitschaft dazu, weil gerade in Europa die großen Wissenschaftsverlage - dazu gehört auch Springer - sich eher reserviert verhalten. Wollte man dort eine Open-Access-Publikation machen, würde sie mehrere tausend Dollar kosten. Sie sind schlicht nicht daran interessiert, sich ihr Geschäftsmodell durch völkerrechtlich bindende internationale Vereinbarungen einschränken zu lassen.

SB: Welche Auswirkungen hat das auf Wissenschaftlerinnen und Wissenschaftler, die darauf angewiesen sind, viel zu publizieren?

KW: Nach wie vor gilt es als notwendig, in den einschlägigen disziplinären Journals zu publizieren. Diese sind in der Regel aber nicht billig, so daß es passieren kann, daß man selbst nicht auf den Aufsatz zugreifen kann, weil die lokale Bibliothek keinen Zugriff darauf gekauft hat. Das hat sich in den letzten Jahren in Deutschland glücklicherweise ein wenig durch das Programm "Überregionale Literaturversorgung und Nationallizenzen" geändert. Darin haben sich viele Bibliotheken zusammengeschlossen und ihre Einkaufsmacht gegenüber den Verlagen erheblich gestärkt. Dadurch ist die Literaturversorgung inzwischen deutlich besser geworden. Aber nach wie vor habe ich - obwohl ich in Cottbus auf relativ viel zugreifen kann - auf manche Dinge keinen Zugriff, was mir das Publizieren potentiell erschwert, weil ich vielleicht aus wichtigen Quellen nicht zitieren kann. Ein Preis von 35 Dollar pro Aufsatz verträgt sich mit meinem Lehrstuhletat nicht. Auch hierbei gilt, daß die reichen Forschungsinstitutionen einen systematischen Vorteil haben.

In den industrialisierten Ländern ist das vielleicht nicht so dramatisch, aber gerade die WissenschaftlerInnen in Schwellen- bzw. Entwicklungsländern stoßen hier teilweise auf Barrieren, die für sie unüberwindbar sind. Sie haben die Schwierigkeit, sichtbar zu werden, und kommen nicht an entsprechend qualitativ hochwertiges Wissen heran, um ihre Forschung vorantreiben zu können.

SB: Herr Weber, vielen Dank für das Gespräch.


Karsten Weber unter dem letztem Bild seines Vortrags - Foto: 2014 by Schattenblick

Foto: 2014 by Schattenblick


Zum SUMA-EV-Kongreß in Hamburg sind bisher im Pool
INFOPOOL → BILDUNG UND KULTUR → REPORT
unter dem kategorischen Titel "Suchmaschine" erschienen:

BERICHT/033: Suchmaschine - Erwägen, prüfen, wissen ... (SB)

17. Februar 2015


Zur Tagesausgabe / Zum Seitenanfang