Refine
Year of publication
Document Type
- Article (92) (remove)
Is part of the Bibliography
- no (92)
Keywords
- DSGVO (6)
- Datenschutz (4)
- Digitalisierung (3)
- ChatGPT (2)
- Dark Patterns (2)
- Datenschutz-Grundverordnung (2)
- General-Purpose-AI (2)
- Once-only-Prinzip (2)
- Anonymity Assessment (1)
- Art. 58 Abs. 2 DSGVO (1)
Institute
- Lehrstuhl für Verwaltungswissenschaft, Staatsrecht, Verwaltungsrecht und Europarecht (Univ.-Prof. Dr. Mario Martini) (92) (remove)
Auch wenn das Onlinezugangsgesetz (OZG) nicht mehr fristgerecht bis Ende 2022 umsetzbar ist, schreitet die digitale Transformation der öffentlichen Verwaltung unaufhaltsam voran – neuerdings auch unter der Maxime „Digital First“. Elektronische Verwaltungsleistungen sollen kein Zusatzangebot mehr sein, sondern zum Regelfall werden. Davon ausgehend könnte der nächste (und entscheidende) Schritt in Richtung digitaler Staat „Digital Only“ heißen. Eine (partielle) E-Government-Nutzungspflicht könnte jedoch gegen das Grundgesetz bzw. die Verfassungen der Länder verstoßen – vorausgesetzt sie schützten ein „Recht auf analogen Zugang“.
Immer häufiger begegnen Verbrauchern auf Online-Plattformen Countdowns und Knapp-heits-Meldungen. Ihre intendierte psychologische Wirkung verfehlen sie nicht. Welche gesetzlichen Vorschriften diesen Kaufanreizen Grenzen ziehen und auf welchen Feldern weitergehender Regulierungsbedarf besteht, hat die Rechtswissenschaft bislang noch nicht untersucht. Dieser Aufgabe stellt sich der Beitrag.
Der Winter 2022/23 wird womöglich als Zeitenwende Künstlicher Intelligenz in die Annalen eingehen. Wie einst die Dampfmaschine oder die Eisenbahn als Basisinnovationen die Produktion von Gütern bzw. das Verkehrswesen grundlegend umwälzten, revolutionieren nunmehr generative Anwendungen, etwa ChatGPT oder der Bildgenerator Midjourney, die Nutzung intelligenter Systeme.
Der Winter 2022/23 wird womöglich als Zeitenwende Künstlicher Intelligenz in die Annalen eingehen. Wie einst die Dampfmaschie oder die Eisenbahn als Basisinnovationen die Produktion von Gütern bzw. das Verkehrswese grundlegend umwälzten, revolutionieren nunmehr generative Anwendungen, etwa ChatGPT oder der Bildgenerator Midjourney, die Nutzung intelligenter Systeme.
Verbraucherschädigende Designmuster bahnen sich bislang häufig ungestört ihren Weg durch die Online-Welt. Designer, Verbraucherschutzverbände und Rechtswissenschaftler arbeiten aber intensiv daran, den verschiedenen versteckten Mustern Einhalt zu gebieten. Der europäische Gesetzgeber hat nun die Initiative ergriffen und adressiert digitale Designmuster in vier Sekundärrechtsakten: Im Digital Services Act, im Digital Markets Act sowie in den Entwürfen der KI-Verordnung und des Data Act. In welchem Umfang dieses unionsrechtliche Quartett die Gestaltung verbraucherfeindlicher Benutzungsoberflächen rechtlich einhegt, darüber herrscht gegenwärtig noch breite Unsicherheit. Der Beitrag analysiert die einschlägigen normativen Vorgaben des Digital Services Act und ergründet, was diese für die Praxis der Designgestaltung bedeuten.
Der Trendbegriff „Dark Patterns“ hat Konjunktur. Er ist ebenso omnipräsent wie interpreta-tionsoffen. Designmuster, die den Nutzer in eine verbraucherschädigende Richtung lenken sollen, stellen Wissenschaft, Regulierungsbehörden und den Gesetzgeber gleichermaßen vor besondere Herausforderungen. Immer klarer wird: Um Dark Patterns in all ihren Facetten zu beleuchten und Gefahren für Verbraucher wirksam abzuwehren, bedarf es eines interdis-ziplinären Schulterschlusses der Verhaltensökonomie, Rechtswissenschaft und Informatik.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: das Datennutzungsgesetz (DNG). Es ist von dem regulatorischen Anliegen beseelt, die Entwicklung innovativer Produkte und Dienst-leistungen der digitalen Wirtschaft mithilfe staatlicher Daten zu fördern. Eng an die sekundär-rechtlichen Vorgaben der PSI-OD-RL angelehnt, versucht das DNG zwei widerstrebende Grundinteressen auszutarieren: einerseits das Anliegen, den staatlichen Datenschatz zu möglichst günstigen und nicht-diskriminierenden Bedingungen zu nutzen; andererseits das Bedürfnis, die Wahrnehmung öffentlicher Aufgaben hinreichend zu finanzieren. Vor allem kommunale Akteure treibt nun die Sorge um, ihren Datenbestand in Zeiten „klammer Stadtkassen“ nicht mehr monetarisieren zu dürfen. Der Beitrag ergründet, inwieweit ihre Befürchtungen berechtigt sind.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: Das Datennutzungsgesetz (DNG).
Enthält ein kommunaler Akteur Dritten bestimmte Datensätze aus sachwidrigen Erwägungen vor, gebietet Art. 3 I GG, sie zu denselben Bedingungen bereitstellen, die er bereits anderen Nutzern gewährte - es entsteht ein Kontrahierungszwang.
Der Beitrag macht es sich zur Aufgabe, einen normativ gangbaren Weg aus dem terminologischen Irrgarten des Sanktionsregimes der DSGVO zu weisen und die innere Sanktionssystematik zu enträtseln. Darauf aufbauend analysiert er das Zusammenspiel zwischen den sanktionsrechtlichen Normen der DSGVO und den Vorschriften des nationalen Rechts, mit denen der deutsche Gesetzgeber die Öffnungsklauseln der Art. 83 Abs. 7,8 und Art. 84 DSGVO inhaltlich auszufüllen gedenkt – und klopft sie darauf ab, inwieweit sie sich konsequent und folgerichtig in das unionsrechtliche Sanktionsregime einfügen.
Datengetriebene Forschung gehört zu den wichtigsten Hoffnungsträgern der Medizin. Sie bewegt sich in einem Spannungsfeld zweier konfligierender Pole: Einerseits sind Gesundheitsdaten in besonderem Maße schutzbedürftig (vgl. Art. 9 Abs. 1 DSGVO). Anderseits ist die Medizinforschung auf eine Privilegierung ihrer Datenverarbeitungen angewiesen, um ihre Ziele wirksam erreichen zu können. Wie sich dieser Antagonismus auflösen lässt, damit Big Data auch im Forschungsbereich sein Potenzial voll entfalten kann, ohne zugleich den Einzelnen als gläsernen Patienten seiner Intimsphäre zu berauben, gehört zu den offenen Rätseln unserer Zeit. Das „Digitale-Versorgung-Gesetz“ (DVG) schafft unterdessen Fakten. Es macht die Daten der gesetzlichen Krankenversicherungen für die Forschung zugänglich: Sämtliche Abrechnungsdaten fließen künftig über ein zentrales Forschungsdatenzentrum der Wissenschaft zu. Für die einen ist das ein längst überfälliger Schritt in Richtung einer digitalen Gesundheitsvorsorge. Für die anderen opfert der Gesetzgeber damit den Datenschutz auf dem Altar der Innovationsgläubigkeit, um einer unreflektierten Technikeuphorie zu huldigen.
Unzähligen Menschen hat er das Leben gekostet, Familien und Existenzen zerstört sowie öffentliche Infrastruktur in Trümmer gelegt: der völkerrechtswidrige Angriffskrieg Russlands gegen die Ukraine. In seinen Anfangstagen brannten sich Bilder einer Attacke auf den Kiewer Fernsehturm in das kollektive Gedächtnis ein. Um die Kommunikationsinfrastruktur des Fernsehturms auszuschalten, hätte es keiner Ballistik bedurft: Auch ein gezielter Hack der IT-Systeme hätte die Datenübertragung und Funktionalität torpedieren können. Warum also offene Gewalt und nicht eine unsichtbare Cyberattacke? Kurzum: Wo ist der Cyberwar?
Die Abwägungsfehlerlehre
(2012)
Begünstigende VAe darf eine Behörde nicht unbegrenzt lange zurücknehmen. Vielmehr setzt das Gesetz ihr eine Ausschlussfrist: Sobald sie von Tatsachen Kenntnis erlangt, welche eine Aufhebung rechtfertigen, darf sie den VA nur innerhalb eines Jahres zurücknehmen - § 48 IV 1 VwVfG. Die Vorschrift schränkt das Prinzip der Gesetzmäßigkeit (Art. 20 III GG) zugunsten der Rechtssicherheit ein: Der Bürger soll in seinem Vertrauen auf den Bestand des VAes wirksam geschützt sein, wenn die Verwaltung für eine bestimmte Zeit trotz Kenntnis untätig geblieben ist. Seine Begrenzungswirkung entfaltet § 48 IV VwVfG aber nur, soweit das Vertrauen des Begünstigten schutzwürdig ist: Die Frist kommt ihm daher nicht zugute, wenn er den VA durch arglistige Täuschung, Drohung oder Bestechung erwirkt hat (§ 48 IV 2 VwVfG). Gleiches gilt, wenn die Notifikation einer unionsrechtlichen Beihilfe entgegen Art. 108 III AEUV unterblieben ist.
Eine neue Technologie erobert die Welt: die Blockchain. Nicht nur Technik-Auguren trauen ihr zu, einen Quantensprung der digitalen Evolution auszulösen. Sie hat das Zeug, vertrauenswürdige Intermediäre wie Registraturbehörden oder Banken zu ersetzen. Denn sie formt einen effizienten technologischen Abwicklungsrahmen für Prozesse, die bislang noch relevante Transaktions- und Verwaltungskosten verschlingen. Doch scheinen IT-Pioniere ihre Rechnung ohne das Recht auf Vergessenwerden zu machen: Eine Blockchain ist wie der Rain Man in Barry Levinsons Filmdrama. Sie vergisst nicht. Entfernt man einzelne Bestandteile aus der kontinuierlichen Verknüpfung der Datenblöcke, droht die Datenkette zu reißen. Die Nutzung der Technologie gerät damit in ein Dilemma zwischen funktional unmöglichem Vergessen-Können und einem datenschutzrechtlich geforderten Vergessen-Müssen. Die Autoren suchen nach Auswegen.
Mit ihrem Entwurf einer KI-Verordnung verfolgt die EU-Kommission das Ziel, Innovations-offenheit und Innovationsverantwortung im digitalen Binnenmarkt miteinander in Ausgleich zu bringen. Sie will die Potenziale von KI-Systemen fördern und zugleich ihre Risiken für die betroffenen Personen eindämmen. Insbesondere der spezielle Rechtsrahmen für sogenann-te KI-Reallabore (Art. 53 bis 55 Abs. 1 lit. a KI-VO-E) soll sicherstellen, dass die EU trotz der neuen Gesetzesvorgaben führend bei der Entwicklung von KI-Systemen wird. Ob der Kom-missionsvorschlag regulatorischer Experimentierräume diese Erwartung erfüllen kann oder ob er noch rechtlicher Nachschärfungen bedarf (und wenn ja, welcher), untersucht dieser Beitrag.