Lehrstuhl für Verwaltungswissenschaft, Staatsrecht, Verwaltungsrecht und Europarecht (Univ.-Prof. Dr. Mario Martini)
Refine
Year of publication
Document Type
- Article (64)
- Part of a commentary (47)
- Book (24)
- Public lecture (18)
- Part of a Book (13)
- Interview (12)
- Contribution to online periodical (7)
- Other (5)
- Review (5)
- Doctoral Thesis (3)
Has Fulltext
- no (200) (remove)
Is part of the Bibliography
- no (200)
Keywords
- Datenschutz-Grundverordnung (32)
- DSGVO (6)
- Digitalisierung (6)
- Datenschutz (5)
- Vergaberecht (4)
- Dark Patterns (3)
- Preisrecht (3)
- Allgemeines Verwaltungsrecht (2)
- Artificial Intelligence (2)
- Artificial Intelligence - AI (2)
Institute
- Lehrstuhl für Verwaltungswissenschaft, Staatsrecht, Verwaltungsrecht und Europarecht (Univ.-Prof. Dr. Mario Martini) (200)
- Lehrstuhl für Verwaltungswissenschaft und öffentliches Recht (Univ.-Prof. Dr. Hermann Hill) (5)
- Lehrstuhl für öffentliches Recht, insbesondere allgemeines und besonderes Verwaltungsrecht (Univ.-Prof. Dr. Jan Ziekow) (3)
- Lehrstuhl für Öffentliches Recht, insbesondere Europarecht und Völkerrecht (Univ.-Prof. Dr. Wolfgang Weiß) (2)
- Lehrstuhl für Öffentliches Recht, insbesondere deutsches und europäisches Verwaltungsrecht (Univ.-Prof. Dr. Ulrich Stelkens) (1)
§ 35 a VwVfG, § 31 a SGB X und § 155 IV AO machen den
Weg für vollautomatisierte Verwaltungsverfahren in deutschen
Amtsstuben frei. Die persönlichkeitsrechtlichen Anforderungen,
welche die Datenschutz-Grundverordnung an solche
Verfahren stellt, engen den bislang bestehenden mitgliedstaatlichen
Handlungsspielraum ein; ihre Auswirkungen
blieben in der wissenschaftlichen Diskussion bislang
unbeleuchtet. Der Beitrag füllt diese Lücke – und wirft einen
Blick auf allgemeine regulatorische Herausforderungen des
Einsatzes von Algorithmen in der öffentlichen Verwaltung.
Recht der Digitalisierung
(2024)
Die digitale Transformation wälzt unser gesellschaftliches Zusammenleben grundlegend um: Ob in der Medizin, im Verkehrssektor, bei der beruflichen und privaten Kommunikation so-wie in vielen weiteren Bereichen – digitale Anwendungen sind kaum mehr aus dem Alltag der Menschen hinwegzudenken. Das ruft eine Kernfrage auf den Plan, die wir als Gesellschaft beantworten müssen: Nach welchen Regeln wollen wir heute und künftig (im digitalen Raum) miteinander leben? Von der Suche nach passgenauen Antworten hierauf sowie der rasant wachsenden Bedeutung, die Rechtsfragen mit Digitalisierungsbezug in der Praxis und Juris-tenausbildung erfahren, handelt dieses Lehrbuch. Bislang fehlt es an einer rechtsgebiets-übergreifenden didaktischen Darstellung des Rechts der Digitalisierung. Unser Ziel ist es, einen möglichst breiten Blick auf all die Herausforderungen zu werfen, die die digitale gesell-schaftliche Transformation für das Recht bereithält. Wir möchten dabei zum einen darstellen und mitunter kritisch reflektieren, welchen Umgang das Recht schon heute mit Veränderun-gen gefunden hat, die sich in unserer Lebenswirklichkeit durch die digitale Transformation ergeben haben. Zum anderen möchten wir zeigen, in welchen Winkeln des Rechts noch Nachholbedarf besteht – und wie die nationalen und der europäische Gesetzgeber diesen de lege ferenda befriedigen könnten.
Immer häufiger begegnen Verbrauchern auf Online-Plattformen Countdowns und Knapp-heits-Meldungen. Ihre intendierte psychologische Wirkung verfehlen sie nicht. Welche gesetzlichen Vorschriften diesen Kaufanreizen Grenzen ziehen und auf welchen Feldern weitergehender Regulierungsbedarf besteht, hat die Rechtswissenschaft bislang noch nicht untersucht. Dieser Aufgabe stellt sich der Beitrag.
Verbraucherschädigende Designmuster bahnen sich bislang häufig ungestört ihren Weg durch die Online-Welt. Designer, Verbraucherschutzverbände und Rechtswissenschaftler arbeiten aber intensiv daran, den verschiedenen versteckten Mustern Einhalt zu gebieten. Der europäische Gesetzgeber hat nun die Initiative ergriffen und adressiert digitale Designmuster in vier Sekundärrechtsakten: Im Digital Services Act, im Digital Markets Act sowie in den Entwürfen der KI-Verordnung und des Data Act. In welchem Umfang dieses unionsrechtliche Quartett die Gestaltung verbraucherfeindlicher Benutzungsoberflächen rechtlich einhegt, darüber herrscht gegenwärtig noch breite Unsicherheit. Der Beitrag analysiert die einschlägigen normativen Vorgaben des Digital Services Act und ergründet, was diese für die Praxis der Designgestaltung bedeuten.
Lange haben Erben, die Digitalwirtschaft und die Öffentlichkeit auf die erste höchstrichterliche Entscheidung zum digitalen Nachlass gewartet (JZ 2019, 255, in diesem Heft). Nunmehr hat der BGH die juristische »Leichenstarre« überwunden, welche die Diskussion über Jahre prägte: Er gewährt Erben Zugang zum Benutzerkonto des sozialen Netzwerks Facebook. Die Interessen und Rechte der betroffenen Kommunikationspartner haben das Nachsehen gegenüber dem Erbrecht. Das Grundsatzurteil entspricht dem Rechtsgefühl vieler Menschen. So sehr seine Wertung in den Grundzügen überzeugen mag: Die telekommunikations- sowie datenschutzrechtliche Würdigung des BGH gibt Anlass zur Kritik.
Datengetriebene Forschung gehört zu den wichtigsten Hoffnungsträgern der Medizin. Sie bewegt sich in einem Spannungsfeld zweier konfligierender Pole: Einerseits sind Gesundheitsdaten in besonderem Maße schutzbedürftig (vgl. Art. 9 Abs. 1 DSGVO). Anderseits ist die Medizinforschung auf eine Privilegierung ihrer Datenverarbeitungen angewiesen, um ihre Ziele wirksam erreichen zu können. Wie sich dieser Antagonismus auflösen lässt, damit Big Data auch im Forschungsbereich sein Potenzial voll entfalten kann, ohne zugleich den Einzelnen als gläsernen Patienten seiner Intimsphäre zu berauben, gehört zu den offenen Rätseln unserer Zeit. Das „Digitale-Versorgung-Gesetz“ (DVG) schafft unterdessen Fakten. Es macht die Daten der gesetzlichen Krankenversicherungen für die Forschung zugänglich: Sämtliche Abrechnungsdaten fließen künftig über ein zentrales Forschungsdatenzentrum der Wissenschaft zu. Für die einen ist das ein längst überfälliger Schritt in Richtung einer digitalen Gesundheitsvorsorge. Für die anderen opfert der Gesetzgeber damit den Datenschutz auf dem Altar der Innovationsgläubigkeit, um einer unreflektierten Technikeuphorie zu huldigen.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: das Datennutzungsgesetz (DNG). Es ist von dem regulatorischen Anliegen beseelt, die Entwicklung innovativer Produkte und Dienst-leistungen der digitalen Wirtschaft mithilfe staatlicher Daten zu fördern. Eng an die sekundär-rechtlichen Vorgaben der PSI-OD-RL angelehnt, versucht das DNG zwei widerstrebende Grundinteressen auszutarieren: einerseits das Anliegen, den staatlichen Datenschatz zu möglichst günstigen und nicht-diskriminierenden Bedingungen zu nutzen; andererseits das Bedürfnis, die Wahrnehmung öffentlicher Aufgaben hinreichend zu finanzieren. Vor allem kommunale Akteure treibt nun die Sorge um, ihren Datenbestand in Zeiten „klammer Stadtkassen“ nicht mehr monetarisieren zu dürfen. Der Beitrag ergründet, inwieweit ihre Befürchtungen berechtigt sind.
Die Datennutzung der öffentlichen Hand hat jüngst einen neuen informations- und wettbe-werbsrechtlichen Ordnungsrahmen erhalten: Das Datennutzungsgesetz (DNG).
Enthält ein kommunaler Akteur Dritten bestimmte Datensätze aus sachwidrigen Erwägungen vor, gebietet Art. 3 I GG, sie zu denselben Bedingungen bereitstellen, die er bereits anderen Nutzern gewährte - es entsteht ein Kontrahierungszwang.
Der Trendbegriff „Dark Patterns“ hat Konjunktur. Er ist ebenso omnipräsent wie interpreta-tionsoffen. Designmuster, die den Nutzer in eine verbraucherschädigende Richtung lenken sollen, stellen Wissenschaft, Regulierungsbehörden und den Gesetzgeber gleichermaßen vor besondere Herausforderungen. Immer klarer wird: Um Dark Patterns in all ihren Facetten zu beleuchten und Gefahren für Verbraucher wirksam abzuwehren, bedarf es eines interdis-ziplinären Schulterschlusses der Verhaltensökonomie, Rechtswissenschaft und Informatik.
E-Participation in Germany
(2015)
Dark patterns steer users into taking decisions they would not have made otherwise. They are widespread in ‘cookie banners’ where they nudge or otherwise lead users into ‘consen-ting’ to intensive and controversial processing of personal data, such as online tracking and behavioural targeting. The prevalence of dark patterns in the privacy context is not only due to an enforcement deficit. It is also due to a lack of legal provisions that effectively implement the principles of privacy by design and by default. The legislator should address privacy dark patterns by ensuring meaningful choice of data subjects.
Es kommt nicht allzu häufig vor, dass die traditionsgeprägten christlichen Großkirchen mit institutionellen Innovationen auf sich aufmerksam machen. Genau dies ist jedoch im kirchlichen Datenschutzrecht geschehen: Gestützt auf ihr verfassungsrechtliches Selbstbestimmungsrecht haben die Evangelische Kirche in Deutschland und die römisch-katholischen Diözesen erstmals einen eigenen Rechtsweg für datenschutzrechtliche Streitigkeiten eröffnet. Wie sich die kirchliche Datenschutzgerichtsbarkeit zu den unionalen Rechtsschutzvorgaben des Art. 91 i.V.m. Art. EWG_DSGVO Artikel 78 und EWG_DSGVO Artikel 79 DSGVO verhält, ist noch offen.