Refine
Year of publication
Document Type
- Article (105) (remove)
Is part of the Bibliography
- no (105)
Keywords
- DSGVO (9)
- Datenschutz (6)
- Digitalisierung (6)
- BDSG (2)
- Bankenaufsicht (2)
- ChatGPT (2)
- Dark Patterns (2)
- Datenschutz-Grundverordnung (2)
- Datenschutzrecht (2)
- EuGH (2)
Immer häufiger begegnen Verbrauchern auf Online-Plattformen Countdowns und Knapp-heits-Meldungen. Ihre intendierte psychologische Wirkung verfehlen sie nicht. Welche gesetzlichen Vorschriften diesen Kaufanreizen Grenzen ziehen und auf welchen Feldern weitergehender Regulierungsbedarf besteht, hat die Rechtswissenschaft bislang noch nicht untersucht. Dieser Aufgabe stellt sich der Beitrag.
Algorithmen, die im Maschinenraum moderner Softwareanwendungen
werkeln, sind zu zentralen Steuerungsinstanzen
der digitalen Gesellschaft avanciert. Immer nachhaltiger
beeinflussen sie unser Leben. Ihre Funktionsweise gleicht aber
teilweise einer Blackbox. Die in ihr schlummernden Risiken
zu bändigen, fordert die Rechtsordnung heraus. Der Beitrag
entwickelt erste Regulierungsideen, mit deren Hilfe sich die
Wertschöpfungspotenziale automatisierter digitaler Prozesse
mit den Grundwerten der Rechtsordnung, insbesondere der informationellen Selbstbestimmung und Diskriminierungsfreiheit,
versöhnen lassen.
Die Neuordnung der Bund-Länder-Finanzbeziehungen verhilft dem deutschen E-Government zu einem substanziellen Innovationssprung: Art. 91c Abs. 5 GG hebt einen neuen Kompetenztitel aus der Taufe, um Bürgern und Unternehmen einen übergreifenden digitalen Zugang zu Verwaltungsleistungen zu verschaffen. Auf dieser Grundlage will der Bund ein digitales Pendant zur Rufnummer 115 etablieren. Die neue Kompetenznorm und ihre einfachgesetzliche Ausgestaltung unterzieht der Beitrag einem kritischen Blick – und legt den Finger in ihre offenen Wunden.
Der Winter 2022/23 wird womöglich als Zeitenwende Künstlicher Intelligenz in die Annalen eingehen. Wie einst die Dampfmaschine oder die Eisenbahn als Basisinnovationen die Produktion von Gütern bzw. das Verkehrswesen grundlegend umwälzten, revolutionieren nunmehr generative Anwendungen, etwa ChatGPT oder der Bildgenerator Midjourney, die Nutzung intelligenter Systeme.
Der Winter 2022/23 wird womöglich als Zeitenwende Künstlicher Intelligenz in die Annalen eingehen. Wie einst die Dampfmaschie oder die Eisenbahn als Basisinnovationen die Produktion von Gütern bzw. das Verkehrswese grundlegend umwälzten, revolutionieren nunmehr generative Anwendungen, etwa ChatGPT oder der Bildgenerator Midjourney, die Nutzung intelligenter Systeme.
Catch me if you can: Quellen-Telekommunikationsüberwachung zwischen Recht und Technik (Langfassung)
(2020)
Die Quellen-TKÜ ist grundrechtsdogmatisch gleichsam ein Sandwichkind zwischen Tele-kommunikationsüberwachung und Online-Durchsuchung. Mit ihrer kleinen Schwester, der Telekommunikationsüberwachung, teilt sie die Eigenschaft, auf die gleichen Kommunikationsdaten, nämlich zu übermittelnde Inhalte, zuzugreifen. Mit ihrer großen Schwester, der Online-Durchsuchung hat sie gemeinsam, das gesamte Endgerät zu infiltrieren. Anders als diese darf sie aber nicht das Gesamtsystem ausspähen, sondern ausschließlich „laufende Kommunikation“ überwachen. Wie sich dies technisch gewährleisten lässt, damit die Quellen-TKÜ nicht in eine Online-Durchsuchung umschlägt, präzisieren die Ermächtigungsnormen bislang nur ungenügend. Der Beitrag sucht nach grundrechts-dogmatisch tragfähigen Antworten auf die verfassungsrechtlichen Problemlagen und legt den Finger in offene Wunden der gesetzlichen Regelungen.
Gehirn-Computer-Schnittstellen beflügeln die Hoffnung auf übermenschliche Kräfte: Sie versetzen Nutzer in die Lage, Prothesen und sonstige Geräte allein mit ihren Gedanken zu steuern. Je weiter die Entwicklung der neuen Technologie voranschreitet und in marktfähige Produkte mündet, desto sichtbarer rücken auch potenzielle Sicherheitsrisiken in den Fokus. Denn Angriffe auf Gehirn-Computer-Schnittstellen können neurologische Daten erspähen oder Gehirnaktivitäten manipulieren und dadurch verheerende Schäden verursachen. Der Beitrag geht der Frage auf den Grund, wie die Rechtsordnung den Risiken eines Angriffs auf Gehirn- Computer-Schnittstellen bislang begegnet – und wie sie ihnen künftig begegnen sollte.
Verbraucherschädigende Designmuster bahnen sich bislang häufig ungestört ihren Weg durch die Online-Welt. Designer, Verbraucherschutzverbände und Rechtswissenschaftler arbeiten aber intensiv daran, den verschiedenen versteckten Mustern Einhalt zu gebieten. Der europäische Gesetzgeber hat nun die Initiative ergriffen und adressiert digitale Designmuster in vier Sekundärrechtsakten: Im Digital Services Act, im Digital Markets Act sowie in den Entwürfen der KI-Verordnung und des Data Act. In welchem Umfang dieses unionsrechtliche Quartett die Gestaltung verbraucherfeindlicher Benutzungsoberflächen rechtlich einhegt, darüber herrscht gegenwärtig noch breite Unsicherheit. Der Beitrag analysiert die einschlägigen normativen Vorgaben des Digital Services Act und ergründet, was diese für die Praxis der Designgestaltung bedeuten.
Der Trendbegriff „Dark Patterns“ hat Konjunktur. Er ist ebenso omnipräsent wie interpreta-tionsoffen. Designmuster, die den Nutzer in eine verbraucherschädigende Richtung lenken sollen, stellen Wissenschaft, Regulierungsbehörden und den Gesetzgeber gleichermaßen vor besondere Herausforderungen. Immer klarer wird: Um Dark Patterns in all ihren Facetten zu beleuchten und Gefahren für Verbraucher wirksam abzuwehren, bedarf es eines interdis-ziplinären Schulterschlusses der Verhaltensökonomie, Rechtswissenschaft und Informatik.
In der Welt digitaler Benutzeroberflächen begegnen Nutzer immer häufiger sog. „Dark Patterns“, die Entscheidungen ihrer Adressaten subtil in eine bestimmte Richtung lenken. Wer Webseiten aufruft, stellt etwa fest, dass es deutlich leichter ist, Berechtigungen für Cookies zu erteilen, als diese zu verweigern. Der Beitrag leuchtet die bestehenden recht-lichen Grenzen, aber auch Lücken für Dark Patterns im Datenschutz-, Vertrags- und Lauterkeitsrecht aus.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: das Datennutzungsgesetz (DNG). Es ist von dem regulatorischen Anliegen beseelt, die Entwicklung innovativer Produkte und Dienst-leistungen der digitalen Wirtschaft mithilfe staatlicher Daten zu fördern. Eng an die sekundär-rechtlichen Vorgaben der PSI-OD-RL angelehnt, versucht das DNG zwei widerstrebende Grundinteressen auszutarieren: einerseits das Anliegen, den staatlichen Datenschatz zu möglichst günstigen und nicht-diskriminierenden Bedingungen zu nutzen; andererseits das Bedürfnis, die Wahrnehmung öffentlicher Aufgaben hinreichend zu finanzieren. Vor allem kommunale Akteure treibt nun die Sorge um, ihren Datenbestand in Zeiten „klammer Stadtkassen“ nicht mehr monetarisieren zu dürfen. Der Beitrag ergründet, inwieweit ihre Befürchtungen berechtigt sind.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: Das Datennutzungsgesetz (DNG).
Enthält ein kommunaler Akteur Dritten bestimmte Datensätze aus sachwidrigen Erwägungen vor, gebietet Art. 3 I GG, sie zu denselben Bedingungen bereitstellen, die er bereits anderen Nutzern gewährte - es entsteht ein Kontrahierungszwang.
Der Beitrag macht es sich zur Aufgabe, einen normativ gangbaren Weg aus dem terminologischen Irrgarten des Sanktionsregimes der DSGVO zu weisen und die innere Sanktionssystematik zu enträtseln. Darauf aufbauend analysiert er das Zusammenspiel zwischen den sanktionsrechtlichen Normen der DSGVO und den Vorschriften des nationalen Rechts, mit denen der deutsche Gesetzgeber die Öffnungsklauseln der Art. 83 Abs. 7,8 und Art. 84 DSGVO inhaltlich auszufüllen gedenkt – und klopft sie darauf ab, inwieweit sie sich konsequent und folgerichtig in das unionsrechtliche Sanktionsregime einfügen.
Datengetriebene Forschung gehört zu den wichtigsten Hoffnungsträgern der Medizin. Sie bewegt sich in einem Spannungsfeld zweier konfligierender Pole: Einerseits sind Gesundheitsdaten in besonderem Maße schutzbedürftig (vgl. Art. 9 Abs. 1 DSGVO). Anderseits ist die Medizinforschung auf eine Privilegierung ihrer Datenverarbeitungen angewiesen, um ihre Ziele wirksam erreichen zu können. Wie sich dieser Antagonismus auflösen lässt, damit Big Data auch im Forschungsbereich sein Potenzial voll entfalten kann, ohne zugleich den Einzelnen als gläsernen Patienten seiner Intimsphäre zu berauben, gehört zu den offenen Rätseln unserer Zeit. Das „Digitale-Versorgung-Gesetz“ (DVG) schafft unterdessen Fakten. Es macht die Daten der gesetzlichen Krankenversicherungen für die Forschung zugänglich: Sämtliche Abrechnungsdaten fließen künftig über ein zentrales Forschungsdatenzentrum der Wissenschaft zu. Für die einen ist das ein längst überfälliger Schritt in Richtung einer digitalen Gesundheitsvorsorge. Für die anderen opfert der Gesetzgeber damit den Datenschutz auf dem Altar der Innovationsgläubigkeit, um einer unreflektierten Technikeuphorie zu huldigen.
Unzähligen Menschen hat er das Leben gekostet, Familien und Existenzen zerstört sowie öffentliche Infrastruktur in Trümmer gelegt: der völkerrechtswidrige Angriffskrieg Russlands gegen die Ukraine. In seinen Anfangstagen brannten sich Bilder einer Attacke auf den Kiewer Fernsehturm in das kollektive Gedächtnis ein. Um die Kommunikationsinfrastruktur des Fernsehturms auszuschalten, hätte es keiner Ballistik bedurft: Auch ein gezielter Hack der IT-Systeme hätte die Datenübertragung und Funktionalität torpedieren können. Warum also offene Gewalt und nicht eine unsichtbare Cyberattacke? Kurzum: Wo ist der Cyberwar?
Die Abwägungsfehlerlehre
(2012)
Begünstigende VAe darf eine Behörde nicht unbegrenzt lange zurücknehmen. Vielmehr setzt das Gesetz ihr eine Ausschlussfrist: Sobald sie von Tatsachen Kenntnis erlangt, welche eine Aufhebung rechtfertigen, darf sie den VA nur innerhalb eines Jahres zurücknehmen - § 48 IV 1 VwVfG. Die Vorschrift schränkt das Prinzip der Gesetzmäßigkeit (Art. 20 III GG) zugunsten der Rechtssicherheit ein: Der Bürger soll in seinem Vertrauen auf den Bestand des VAes wirksam geschützt sein, wenn die Verwaltung für eine bestimmte Zeit trotz Kenntnis untätig geblieben ist. Seine Begrenzungswirkung entfaltet § 48 IV VwVfG aber nur, soweit das Vertrauen des Begünstigten schutzwürdig ist: Die Frist kommt ihm daher nicht zugute, wenn er den VA durch arglistige Täuschung, Drohung oder Bestechung erwirkt hat (§ 48 IV 2 VwVfG). Gleiches gilt, wenn die Notifikation einer unionsrechtlichen Beihilfe entgegen Art. 108 III AEUV unterblieben ist.
Eine neue Technologie erobert die Welt: die Blockchain. Nicht nur Technik-Auguren trauen ihr zu, einen Quantensprung der digitalen Evolution auszulösen. Sie hat das Zeug, vertrauenswürdige Intermediäre wie Registraturbehörden oder Banken zu ersetzen. Denn sie formt einen effizienten technologischen Abwicklungsrahmen für Prozesse, die bislang noch relevante Transaktions- und Verwaltungskosten verschlingen. Doch scheinen IT-Pioniere ihre Rechnung ohne das Recht auf Vergessenwerden zu machen: Eine Blockchain ist wie der Rain Man in Barry Levinsons Filmdrama. Sie vergisst nicht. Entfernt man einzelne Bestandteile aus der kontinuierlichen Verknüpfung der Datenblöcke, droht die Datenkette zu reißen. Die Nutzung der Technologie gerät damit in ein Dilemma zwischen funktional unmöglichem Vergessen-Können und einem datenschutzrechtlich geforderten Vergessen-Müssen. Die Autoren suchen nach Auswegen.
Die Datenschutz-Grundverordnung wird das Gesicht des Datenschutzes nachhaltig verändern. Es sind weniger die materiell-rechtilichen Neuerungen, mit denen sie Akzente setzt. Vor allem das Martortprinzip und die institutionellen Modifikationen in der Struktur der europäischen Datenschutzaufsicht sorgen für eine datenschutzrechtliche Frischzellenkkur, deren Ausstrahlungswirkung weit über die Grenzen der Union hinausreicht. Der Beitrag wirft einen Blick darauf, welche Änderungen die Verordnung im Datenschutzrecht nach sich zieht und wie weit die nationalen Spielräume reichen.