[A]chtung, [C]ontent-[A]bgreifer: [P]iss off!

Für den Rezipienten sind Meta-News-Sites wie news.google.de oder Newsexpress eine praktische Sache: Fast wie am Zeitschriftenkiosk kann der tägliche Output der Presse nach dem gescannt werden, was gerade interessiert – nur ist die Auswahl größer, die Suche komfortabler und man spürt beim Anlesen nicht den finsteren Blick des Kioskbesitzers im Nacken, der einen dafür hasst, dass man alle Magazine mal angrabbelt, dann aber doch nichts kauft.

Verlage sind von dem Angebot der Suchmaschinen längst nicht immer so begeistert: Weil Google & Co. ungefragt die Newssites abgrasen und aus den Inhalten Kurzzusammenfassungen samt Bildmaterial generieren, entzünden sich immer wieder Streitigkeiten. Dem will der Weltverband der Zeitungen WAN (World Association of Newspapers) nun mit einem eigenen DRM-System begegnen: ACAP steht für “Automated Content Access Protocol” und soll automatisch Informationen an Suchmaschinen-Crawler übermitteln, in welchem Umfang und unter welchen Bedingungen welche Inhalte genutzt werden dürfen. So wollen die Verlage die Kontrolle über ihren Content zurückgewinnen.

Djure Meinen vom blog.50hz.de hält die Verlage deshalb für Angsthasen – weil

die jüngeste Vergangenheit [gezeigt hat], dass jeder Versuch, Online-Inhalte hinter wie auch immer gearteten Barrieren zu schützen, zu deren endgültiger Bedeutungslosigkeit führt. Reihenweise wurden die Bezahl- und Registrierungsexperimente wieder eingestampft.

Ich sehe das ein bisschen entspannter, weil ich hinter ACAP nicht per se eine Paid-Content-Technologie sehe, sondern ein System, um die Lizenzbedingungen zur Nutzung bestimmter Inhalte zu normieren. Und das halte ich für das gute Recht der Verlage. Ob sie sich damit nicht ins eigene Bein schießen, wenn sie am Ende Trafficbringern wie Google-News das Teasen ihrer Inhalte verbieten, steht auf einem anderen Blatt und liegt dann in der Entscheidung des Verlages.

Der Haken an der Sache ist in meinen Augen ein ganz anderer: Ein eigenes Protokoll mit Anweisungen für Crawler funktioniert nur, wenn sich die Crawler auch an die Anweisungen halten. Und mit der robots.txt existiert im Prinzip ja schon jetzt die Möglichkeit, bestimmte Crawler davon abzuhalten, Inhalte einer Website auszulesen. Wie gesagt, im Prinzip: Denn der Robots Exclusion Standard ist immer noch nur ein Quasi-Standard, an den sich zwar die meisten, aber eben noch immer nicht alle Suchmaschinen-Crawler halten. Damit ACAP funktioniert, müssten alle Betreiber von Content-Crawlern also darauf verpflichtet werden, diesen Standard zu respektieren und einzuhalten. Und bitte wie soll das gehen?

[Nachtrag] Irgendwie lustig, dass sich ausgerechnet Handelsblatt-Blogger Thomas Knüwer so darüber amüsiert, dass es “einige seiner Mitglieder [gemeint sind die Mitglieder der World Association of Newspapers] nicht kapieren, das ganze Ding mit den Netz” (Fehler im Original). Es war schließlich die Verlagsgruppe Handelsblatt, die dem Nachrichten-Suchdienst Paperboy das Setzen von Deeplinks auf ihre Inhalte per Gerichtsbeschluss untersagen wollte. Aber das war ja schon 2003, in Düsseldorf hat man das “Ding mit dem Netz” in den letzten drei Jahren wohl zu verstehen gelernt. Wenn auch mit Hilfe des BGH.

Comments are closed.