Refine
Year of publication
- 2022 (12) (remove)
Document Type
- Article (8)
- Part of a Book (2)
- Other (1)
- Public lecture (1)
Has Fulltext
- no (12)
Is part of the Bibliography
- no (12)
Keywords
- Gesichtserkennung (2)
- Artificial Intelligence (1)
- Artificial Intelligence - AI (1)
- BDSG (1)
- Challenges (1)
- Cookie and Consent Banners (1)
- DSGVO (1)
- Dark Patterns (1)
- Datennutzungsgesetz (1)
- Datenschutz (1)
Immer häufiger begegnen Verbrauchern auf Online-Plattformen Countdowns und Knapp-heits-Meldungen. Ihre intendierte psychologische Wirkung verfehlen sie nicht. Welche gesetzlichen Vorschriften diesen Kaufanreizen Grenzen ziehen und auf welchen Feldern weitergehender Regulierungsbedarf besteht, hat die Rechtswissenschaft bislang noch nicht untersucht. Dieser Aufgabe stellt sich der Beitrag.
Gehirn-Computer-Schnittstellen beflügeln die Hoffnung auf übermenschliche Kräfte: Sie versetzen Nutzer in die Lage, Prothesen und sonstige Geräte allein mit ihren Gedanken zu steuern. Je weiter die Entwicklung der neuen Technologie voranschreitet und in marktfähige Produkte mündet, desto sichtbarer rücken auch potenzielle Sicherheitsrisiken in den Fokus. Denn Angriffe auf Gehirn-Computer-Schnittstellen können neurologische Daten erspähen oder Gehirnaktivitäten manipulieren und dadurch verheerende Schäden verursachen. Der Beitrag geht der Frage auf den Grund, wie die Rechtsordnung den Risiken eines Angriffs auf Gehirn- Computer-Schnittstellen bislang begegnet – und wie sie ihnen künftig begegnen sollte.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: das Datennutzungsgesetz (DNG). Es ist von dem regulatorischen Anliegen beseelt, die Entwicklung innovativer Produkte und Dienst-leistungen der digitalen Wirtschaft mithilfe staatlicher Daten zu fördern. Eng an die sekundär-rechtlichen Vorgaben der PSI-OD-RL angelehnt, versucht das DNG zwei widerstrebende Grundinteressen auszutarieren: einerseits das Anliegen, den staatlichen Datenschatz zu möglichst günstigen und nicht-diskriminierenden Bedingungen zu nutzen; andererseits das Bedürfnis, die Wahrnehmung öffentlicher Aufgaben hinreichend zu finanzieren. Vor allem kommunale Akteure treibt nun die Sorge um, ihren Datenbestand in Zeiten „klammer Stadtkassen“ nicht mehr monetarisieren zu dürfen. Der Beitrag ergründet, inwieweit ihre Befürchtungen berechtigt sind.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: Das Datennutzungsgesetz (DNG).
Enthält ein kommunaler Akteur Dritten bestimmte Datensätze aus sachwidrigen Erwägungen vor, gebietet Art. 3 I GG, sie zu denselben Bedingungen bereitstellen, die er bereits anderen Nutzern gewährte - es entsteht ein Kontrahierungszwang.
Unzähligen Menschen hat er das Leben gekostet, Familien und Existenzen zerstört sowie öffentliche Infrastruktur in Trümmer gelegt: der völkerrechtswidrige Angriffskrieg Russlands gegen die Ukraine. In seinen Anfangstagen brannten sich Bilder einer Attacke auf den Kiewer Fernsehturm in das kollektive Gedächtnis ein. Um die Kommunikationsinfrastruktur des Fernsehturms auszuschalten, hätte es keiner Ballistik bedurft: Auch ein gezielter Hack der IT-Systeme hätte die Datenübertragung und Funktionalität torpedieren können. Warum also offene Gewalt und nicht eine unsichtbare Cyberattacke? Kurzum: Wo ist der Cyberwar?
Rund eine Milliarde Videoüberwachungskameras sind rund um den Globus installiert. Immer häufiger kommen dabei auch Gesichtserkennungssysteme zum Einsatz. Für diese ist es längst kein technischer Herkulesakt mehr, eine Person allein auf der Grundlage einer beliebigen Fotoaufnahme an jedem denkbaren Ort zu identifizieren. Welchen rechtlichen Rahmenbedingungen der präventive Einsatz automatisierter Gesichtserkennung in der Polizeiarbeit unterworfen ist, analysiert der Beitrag am Beispiel dreier praktisch relevanter Einsatzszenarien.
Dark patterns steer users into taking decisions they would not have made otherwise. They are widespread in ‘cookie banners’ where they nudge or otherwise lead users into ‘consen-ting’ to intensive and controversial processing of personal data, such as online tracking and behavioural targeting. The prevalence of dark patterns in the privacy context is not only due to an enforcement deficit. It is also due to a lack of legal provisions that effectively implement the principles of privacy by design and by default. The legislator should address privacy dark patterns by ensuring meaningful choice of data subjects.