Robots im Recht
Die Richter des BGH stellten in ihrer Entscheidung darauf ab, dass die Klägerin ihre Homepage für Suchmaschinen zugänglich machte, ohne die technische Möglichkeit einzusetzen, die einzelnen Abbildungen von der Suche und der Anzeige durch Suchmaschinen auszuschließen. Hierin sei eine nicht ausdrückliche, gleichwohl wirksame Erlaubnis für die Veröffentlichung zu sehen.
Abbildung 2: Der Website-Betreiber muss Spider wirkungsvoll vom Durchsuchen der Website abhalten. © kalenkov, 123RF.com
Das Urteil entfaltet damit Bedeutung in zweierlei Hinsicht: Zum einen indiziert bereits das Veröffentlichen eines Werks im Web die Zustimmung zur weiteren Verbreitung zumindest durch automatisierte Crawler, zum anderen erwachsen Robots-Anweisungen sozusagen zu normativer Kraft. Weil jeder Webseiteninhalt grundsätzlich für Suchmaschinen erreichbar ist, liegt nach der gerichtlichen Darstellung für jeden Inhalt eine Freigabe vor, wenn kein ausdrückliches Verbot in der »robots.txt« enthalten ist. Das bestehende System, nach der Verbreitung, Veröffentlichung, öffentliche Wiedergabe oder öffentliches Zugänglichmachen verboten ist, wenn keine explizite Gestattung vorliegt, wird damit ins Gegenteil verkehrt.
Das Gericht hatte zwar nur über den Fall entschieden, dass der Suchmaschinenbetreiber kleine Vorschaubilder angefertigt und veröffentlicht hatte, die Grundsatzerwägungen reichen jedoch über diesen Einzelfall hinaus. Jedes automatisierte Durchsuchen fremder Seiten und - sofern keine entsprechenden Robots-Anweisungen vorliegen - Veröffentlichen der Inhalte wären damit zulässig. Weil das Prinzip des uneingeschränkten Zugriffs bedeutet, dass nicht nur einer der Suchmaschinenbetreiber seine Crawler durchs Netz schickt, sondern diese Möglichkeit auch jedem anderen zur Verfügung steht, muss jeder Homepage-Betreiber damit rechnen, dass Spider seine Inhalte durchforsten (Abbildung 2).
Umkehrschluss
Das hätte zur Konsequenz, dass Kopieren, wenn kein ausdrückliches Verbot besteht, erlaubt wäre, und künftig entweder alle Inhalte konsequent auch vor Suchmaschinen verborgen sein müssten, wenn der Urheber sie nicht beliebig kopiert oder verbreitet sehen will. Außerdem wären dann automatisierte Kopien rechtmäßig, nicht aber einzelne, manuell übernommene Bilder oder andere Inhalte, denn dem menschlichen Benutzer sind ja Verbote in Dateien wie der Steuerdatei für Webcrawler nicht ersichtlich. Der Beschluss des BGH [4] könnte damit die bisherige Rechtsprechung erheblich über den Haufen werfen.
Das Gericht hat auch darauf hingewiesen, dass nach der Rechtsprechung des Gerichtshofs der Europäischen Union [5] unter bestimmten Voraussetzungen das Haftungsprivileg für Anbieter von Diensten der Informationsgesellschaft nach der Richtlinie 2000/31/EG über den elektronischen Geschäftsverkehr in Frage kommt. Danach käme eine Haftung des Suchmaschinenbetreibers erst in Betracht, sobald er von der Rechtswidrigkeit der von ihm gespeicherten Information Kenntnis erlangt. (uba)
| Infos |
|---|
| [1] Homepage des Bundesgerichtshofs: [http://www.bundesgerichtshof.de] [2] BGH-Urteil vom 12. Mai 2010 - I ZR 121/08 - Sommer unseres Lebens: [http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?Gericht=bgh&Art=pm&Datum=2010&Sort=3&nr=51935&linked=urt&Blank=1&file=dokument.pdf] [3] Gesetz zum Urheberrecht und Schutzrechte: [http://www.gesetze-im-internet.de/urhg/index.html] [4] Urteil vom 29. April 2010 - I ZR 69/08 - Vorschaubilder:[http://juris.bundesgerichtshof.de] [5] EuGH, Urt. v. 23.3.2010 - C-236/08 bis C-238/08 Tz. 106 ff. - Google/Louis Vuitton: [http://curia.europa.eu/jcms/jcms/j_6/] |
| Der Autor |
|---|
| RA Fred Andresen ist Mitglied der Rechtsanwaltskammer München und der Arbeitsgemeinschaft Informationstechnologie im Deutschen Anwaltverein (DAVIT). |
Diesen Artikel als PDF kaufen
Express-Kauf als PDF
Umfang: 3 Heftseiten
Preis € 0,99
(inkl. 19% MwSt.)
Als digitales Abo
Weitere Produkte im Medialinx Shop »
Versandartikel
Onlineartikel
Alle Rezensionen aus dem Linux-Magazin
- Buecher/07 Bücher über 3-D-Programmierung sowie die Sprache Dart
- Buecher/06 Bücher über Map-Reduce und über die Sprache Erlang
- Buecher/05 Bücher über Scala und über Suchmaschinen-Optimierung
- Buecher/04 Bücher über Metasploit sowie über Erlang/OTP
- Buecher/03 Bücher über die LPI-Level-2-Zertifizierung
- Buecher/02 Bücher über Node.js und über nebenläufige Programmierung
- Buecher/01 Bücher über Linux-HA sowie über PHP-Webprogrammierung
- Buecher/12 Bücher über HTML-5-Apps sowie Computer Vision mit Python
- Buecher/11 Bücher über Statistik sowie über C++-Metaprogrammierung
- Buecher/10 Bücher zu PHP-Webbots sowie zur Emacs-Programmierung
Insecurity Bulletin
Im Insecurity Bulletin widmet sich Mark Vogelsberger aktuellen Sicherheitslücken sowie Hintergründen und Security-Grundlagen. mehr...





