“Killer Acquisitions“ auf digitalen Märkten vor dem Hintergrund des Kartellrechts sowie des Digital Markets Act
Rückblick auf die Ringvorlesung „Automatisierte Systeme“ mit Dr. Björn Christian Becker
Am 9.1.2024 fand erneut eine Veranstaltung im Rahmen der Ringvorlesung „Automatisierte Systeme“ in hybrider Form statt. Hierzu hatten der Lehrstuhl für Zivilrecht, Europäisches und Internationales Wirtschaftsrecht (Prof. Dr. Buck-Heeb) und der Lehrstuhl für Deutsches, Europäisches und Internationales Zivil- und Handelsrecht (Prof. Dr. Dr. h.c. Oppermann) zusammen mit dem Interdisziplinären Institut für Automatisierte Systeme e.V. (RifaS) eingeladen.
Dieses Mal konnte Herr Dr. Björn Christian Becker, Akademischer Rat a.Z. und Habilitand am Lehrstuhl für globales Wirtschaftsrecht, internationale Schiedsgerichtsbarkeit und Bürgerliches Recht an der Julius-Maximilians-Universität Würzburg als Referent gewonnen werden. Herr Dr. Becker befasste sich thematisch mit einem als „Killer Acquisitions“ umschriebenen Phänomen, dem Digital Markets Act der EU (Verordnung (EU) 2022/1925) und KI-getriebenen Technologien bei der Identifikation solcher sog. Killer Acquisitions. Bei solchen „Killer Acquisitions“ geht es um das „Eliminieren“ (potenzieller) Wettbewerber durch Aufkauf des Unternehmens und Einstellung der Innovationen des Zielunternehmens, um künftigen Wettbewerb zuvorzukommen.
Nach einer Einführung ging der Referent auf die wettbewerbsrechtliche Wirkungen von Killer Acquisitions ein. Angeknüpft wurde zunächst an eine den Pharmasektor betreffende Studien aus dem Jahr 2020, die offenlegt, dass marktstarke Unternehmen systematisch kleinere Unternehmen und Start-ups aufkaufen und sodann das Geschäft des aufgekauften Unternehmens einstellen. Ähnliche Aufkaufstrategien sind auch in anderen Sektoren, insbesondere auf digitalen Märkten zu beobachten.
Das beschriebene Phänomen lässt sich mit der kartellrechtlichen Fusionskontrolle nur schwer erfassen, da solche Killer Acquisitions oft in einer Phase realisiert werden, in denen die Zielunternehmen noch keine oder nur geringe Umsätze erzielen. Entsprechend erlangen die Kartellbehörden oft noch keine Kenntnis von den entsprechenden Zusammenschlussvorhaben.
Thematisiert wurde, ob auch dann noch von sog. Killer Acquisitions gesprochen werden kann, wenn gerade im besonders dynamischen und innovationsgetriebenen digitalen Sektoren die von den Zielunternehmen begründeten Innovationen nicht eingestellt, sondern in das Unternehmen des Erwerbers integriert und teilweise weiterentwickelt werden. Das wurde grds. bejaht, sodann aber überlegt, wie das wettbewerbsrechtlich zu beurteilen ist. Beleuchtet wurden sowohl die negativen als auch die positiven Innovationsanreize.
Der Vortrag ging sodann auf Killer Acquisitions auf digitalen Märkten ein, auf denen ein hoher Innovationsdruck besteht. Als Beispiel hierfür wurde der Erwerb von WhatsApp in 2014 und Instagram in 2012 durch Facebook angeführt. Beleuchtet wurden zunächst die Unterschiedlichkeit des Pharmamarktes zu digitalen Märkten. Insofern besteht Uneinigkeit in der Literatur hinsichtlich der Verbreitung von Killer Acquisitions auf digitalen Märkten. Eine Aufgabe der Marke des Zielunternehmens erfolgte dort nämlich nach einer Untersuchung nur in ca. 60% der Fälle. Der Referent mahnte die Notwendigkeit weiterer empirischer Forschung an.
Der Referent ging sodann auf die Aufgreifinstrumente der Aufsichtsbehörden angesichts dessen ein, dass sich viele Vorgänge unterhalb der Fusionskontrolle abspielen. Der Referent sprach sich für ein möglichst flexibles Aufgreifinstrument aus. Dargestellt wurden die bereits diskutierten bzw. in den Mitgliedstaaten realisierten Modelle. Das bezog sich etwa auf transaktionsbezogene Aufgreifschwellen wie sie etwa in Deutschland in § 35 Ia GWB vorgesehen sind, auf marktanteilsbezogene Aufgreifschwellen, auf die Orientierung am wirtschaftlichen Wert einer Transaktion (sog. Economic-Goodwill-Test), auf die Verweisungslösung der Kommission über Art. 22 der Fusionskontrollverordnung sowie auf eine Anmeldeverfügung (z.B. § 32f II GWB). Letztere hält der Referent die Anmeldeverfügung für das grds. vorzugswürdige Instrument zur Erfassung von wettbewerbsschädlichen Zusammenschlussvorgängen unterhalb der Schwellenwerte für vorzugswürdig, da hier die Flexibilität der Behörden am größten sei.
Eingegangen wurden schließlich auf Art. 14 Digital Markets Act, der eine Kombination der Verweisungslösung und der Anmeldeverfügung sei. Diese Regelung verpflichtet die sog. Gatekeeper dazu, die EU-Kommission über alle geplanten Zusammenschlüsse vor deren Vollzug zu unterrichten. Jedoch ist im Digital Markets Act kein eigenes Fusionskontrollregime enthalten. Die Gefahr einer uneinheitlichen Verwaltungspraxis wurde betont.
Sodann wurde die materielle Beurteilung behandelt. Man müsse etwa prognostizieren wie sich das aufgekaufte Unternehmen entwickeln würde, wenn es nicht aufgekauft würde, was in der Praxis erhebliche Schwierigkeiten aufwerfen kann. Aufgrund der fortgeschrittenen Zeit nur knapp wurde auf die mögliche Rolle von KI-getriebenen Technologien bei der Identifikation von Killer Acquisitions eingegangen. Der Vortrag schloss mit einem Ausblick und einer Conclusio.
An den Vortrag schloss sich eine Diskussion an. Dabei wurden u.a. die Möglichkeit einstweiliger Maßnahmen thematisiert. Aufgegriffen wurden auch der Aspekt der Verweisungslösung und deren bisherige praktische Relevanz sowie das Verhältnis zwischen Art. 32f GWB und Art. 14 Digital Markets Act.
Rechtshandbuch Metaverse von Dr. Dr. Hans Steege und Dr. Kuuya Chibanguza
„Künstliche Intelligenz und Vertragsschluss – Was passiert, wenn der „smarte Kühlschrank“ den Haushalt führt?“
Rückblick auf die Ringvorlesung „Automatisierte Systeme“ mit Prof. Dr. Tim Dornis, LL.M. (Stanford)
Am 7.11.2023 fand erneut eine Veranstaltung im Rahmen der Ringvorlesung „Automatisierte Systeme“ in hybrider Form statt. Hierzu hatten der Lehrstuhl für Zivilrecht, Europäisches und Internationales Wirtschaftsrecht (Prof. Dr. Buck-Heeb) und der Lehrstuhl für Deutsches, Europäisches und Internationales Zivil- und Handelsrecht (Prof. Dr. Dr. h.c. Oppermann) zusammen mit dem Interdisziplinären Institut für Automatisierte Systeme e.V. (RifaS) eingeladen.
Dieses Mal konnte Herr Prof. Dr. Tim Dornis, Inhaber des Lehrstuhls für Bürgerliches Recht und Gewerblichen Rechtsschutz an der Leibniz Universität sowie Global Professor of Law an der NYU School of Law in Paris/New York, als Referent gewonnen werden. Thematisch befasste sich Prof. Dornis mit dem Phänomen künstlich-intelligenter Systeme beim Abschluss von Verträgen. Als Beispiele können – zumindest im Rahmen einer Zukunftsbetrachtung, wenn auch noch nicht real umgesetzt – Agenten auf Online-Marktplätzen oder die sog. Robo Advisors auf den Finanzmärkten genannt werden. Sie könnten künftig ggf. die vertragsrelevanten Umstände ermitteln und bewerten sowie sodann die Einigung mit dem Vertragspartner bewirken. Auch ein aktives Verhandeln mit dem vertraglichen Gegenüber bzgl. der konkreten Vertragsinhalte erscheint angesichts von Chatbots wie ChatGPT nur eine Frage der Zeit.
Spannend wird es, wenn die eingesetzte Technik selbstlernend ist, d.h. nicht nur (wie bislang) eine Bestellhilfe oder eine online-Bestellfunktion wie dies etwa bzgl. Druckerpatronen schon aktuell ist vorliegt. Der Mensch hat in solchen Fällen typischerweise keine Kontrolle mehr über die konkreten Transaktionen. Schließlich handelt die KI in diesen Konstellationen autonom und unabhängig von menschlicher Steuerung. Insofern stellt sich die Frage nach einem autonomen Vertragsschluss.
Unklar ist schon die Einordnung eines solchen KI-Verhaltens in die Strukturen des Vertragsrechts. Die dabei auftauchenden Fragen sind so zahlreich wie ungeklärt: Kommt ein Vertrag zustande? Wer sind die Vertragsparteien? Was soll bei KI-Fehlfunktionen gelten? Nach einer Darstellung der unterschiedlichen Ansichten in der wissenschaftlichen Literatur unterbreitete der Referent seinen eigenen Lösungsansatz. Seiner Ansicht nach sind die Fälle rund um die „vertragsschließenden“ autonomen smarten Geräten über eine Vertrauens- und Rechtsscheinhaftung nach § 172 Abs. 2 BGB analog zu lösen. Es liege eine planwidrige Regelungslücke vor, die durch die Anwendung jener geschlossen werden könne. Der Vertrauenstatbestand könne durch einen Rechtsschein nach „üblichen Gepflogenheiten“ (Rechtsgedanke des § 56 HGB) entstehen.
Die praktischen Konsequenzen dieser Ansicht führte Prof. Dornis sodann anhand von zwei Fallbeispielen vor. Der erste Fall bezog sich auf typische künftige Szenarien des KI-Einsatzes, etwa auf Plattformen. Hier werde idR eine Vorweg-Vereinbarung über die rechtsgeschäftliche Geltung des KI-Verhaltens erfolgen, was regelmäßig durch der AGB-Kontrolle unterliegenden AGBs geschehen wird. Damit ergeben sich hier keine weiteren offenen Zurechnungs- bzw. Haftungsfragen.
Der zweite Fall betrifft atypische Szenarien, wie etwa KI-Systeme, die im „Online-Alleingang“ tätig werden. Nur in solchen (Ausnahme-)Fällen sei das Abstellen auf die Vertrauens- und Rechtsscheinhaftung relevant. Rechtssicherheit könne hier durch die Aufforderung zur Erklärung des Gegenübers über die Geltung der KI-Erklärung geschaffen werden (arg. e §§ 108 Abs. 2 S. 2, 177 Abs. 2 S. 2 BGB). Konkret: Die KI legt offen, dass sie KI ist und verlangt eine „Zustimmung“ des Gegenübers.
An den Vortrag schloss sich eine rege Diskussion an. Dabei wurden u.a. das Autonomierisiko sowie die Gefahren für die Privatautonomie thematisiert. Angesprochen wurde auch das Phänomen des „algorithmic consumers“ und wettbewerbsrechtliche Aspekte. Wer sich noch intensiver über die o.g. Thematik informieren möchte, sei auf den Aufsatz von Prof. Dornis im AcP 223 (2023), 717 ff. verwiesen.
“Rechtliche Anforderungen an das autonome Fahren – wertebasierte Programmierung und Einhaltung der Verkehrsvorschriften“
Rückblick auf die Ringvorlesung „Automatisierte Systeme“
mit Dr. iur. Dr. rer. pol. Hans Steege
Am 11.07.2023 fand erneut eine Veranstaltung im Rahmen der Ringvorlesung „Automatisierte Systeme“ statt. Hierzu hatten der Lehrstuhl für Zivilrecht, Europäisches und Internationales Wirtschaftsrecht (Prof. Dr. Buck-Heeb) und der Lehrstuhl für Deutsches, Europäisches und Internationales Zivil- und Handelsrecht (Prof. Dr. Dr. h.c. Oppermann) zusammen mit dem Interdisziplinären Institut für Automatisierte Systeme e.V. (RifaS) eingeladen.
Dieses Mal konnte Herr Dr. iur. Dr. rer. pol. Hans Steege als Referent gewonnen werden. Herr Dr. Dr. Steege ist im Bereich Datenschutz bei der Cariad SE, einer Volkswagen Group Company, tätig. Zudem ist er Lehrbeauftragter an der Universität Stuttgart für die Bereiche Autonomes Fahren und Künstliche Intelligenz. Er ist u.a. Mitherausgeber der Zeitschrift für das Recht der digitalen Wirtschaft (ZdiW), der Zeitschrift Straßenverkehrsrecht (SVR) sowie des Handbuchs Künstliche Intelligenz.
Der Vortrag bot einen spannenden Überblick über die rechtlichen Anforderungen an automatisierte und autonome Fahrfunktionen aus dem StVG. Dort finden sich nach den StVG-Novellen 2017 und 2021 mit den §§ 1a ff. StVG sowie den §§ 1d ff. StVG Regelungen für das hoch- und vollautomatisierte sowie autonome Fahren. Der Referent ging repräsentativ auf die wertebasierte Programmierung von Fahrfunktionen und auf die Einhaltung und Programmierung der Verkehrsvorschriften ein. Die entscheidende Frage lautet dabei, wie sich eine wertebasierte Programmierung erreichen lässt bzw. wie Verkehrsvorschriften programmiert werden können.
Die StVG-Novelle 2021 ermöglicht das vollautomatisierte Fahren. Hierbei gibt der Fahrer die Fahrzeugführung auf ausgewählten Strecken an die KI ab. An den Betrieb eines solchen Fahrzeugs stellt das Gesetz bestimmten Anforderungen. Zum Beispiel muss das Fahrzeug die geltenden Verkehrsvorschriften einhalten. Auch hat das Fahrzeug bei einem Unfall und einer unvermeidbaren alternativen Schädigung unterschiedlicher Rechtsgüter die Bedeutung der Rechtsgüter zu berücksichtigen, wobei dem Schutz des menschlichen Lebens die höchste Priorität zukommt. Trotz der zahlreichen Vorgaben führen die gesetzlichen Regelungen aus Sicht des Referenten zu erheblicher Rechtsunsicherheit. Als problematisch wird insbesondere die Dilemma-Situation angesehen, bei der derzeit nur einheitlich anerkannt ist, dass eine quantitative Abwägung von Menschenleben unzulässig ist.
Insgesamt hielt Herr Dr. Dr. Steege fest, dass der Regelungsgehalt der StVO nicht passend ist, was dazu führt, dass die Anforderungen in der Praxis kaum eingehalten werden können. Eine weitere Formalisierung des Straßenverkehrsrechts würde Abhilfe schaffen, erscheint jedoch aufgrund der unbestimmten Rechtsbegriffe nicht in vollem Umfang möglich. Problematisch sei zudem, dass sich autonome Fahrzeuge regelkonform verhalten müssen, während Menschen sich verkehrswidrig verhalten können. Dies könnte ggf. in der Praxis dazu führen, dass autonome Fahrzeuge zu Hindernissen werden.
Spannend waren auch die Ausführungen zu den Haftungsfragen, namentlich, wenn ein automatisiertes Fahrzeug in einen Unfall verwickelt wird. Eine besondere Haftung sieht die StVG-Novelle nicht vor, vielmehr richtet sich die Haftung nach den Vorschriften, die auch für nicht-automatisierte Kraftfahrzeuge gelten (§ 7 StVG, § 18 StVG, § 823 BGB). Denkbar ist jedoch eine Differenzierung in Bezug auf den Sorgfaltsmaßstab. Bei autonomen Fahrzeugen, also bei Fahrzeugen, in denen die Fahrfunktion vollständig und während der ganzen Fahrt von der KI übernommen wird, spielt zudem die Fahrerhaftung keine Rolle, die Halterhaftung hingegen bleibt bestehen.
Abgerundet wurde der Vortrag durch eine spannende Diskussion, in der insbesondere die Dilemma-Situation noch einmal aufgegriffen wurde. Hierbei wurde festgehalten, dass sich diese per se schlecht programmieren lässt und dass ggf. akzeptiert werden muss, dass es die perfekte Lösung nicht gibt. Auch wurde betont, dass an die KI keine höheren Anforderungen als an Menschen gestellt werden sollten. Außerdem wurde diskutiert, ob technische Standards und szenenbasierte Ansätze ggf. als Methode zur Auslegung der unbestimmten Rechtsbegriffe in den Straßenverkehrsvorschriften herangezogen werden können.
„KI und Human-Centric Entscheidungsfindung: Geht das? Welche Rolle hat der Mensch?“
mit Frau Prof. Dr. Ing. habil. Sanaz Mostaghim
Die Ringvorlesung „Automatisierte Systeme widmete sich diesmal dem Thema von „KI und Human-Centric Entscheidungsfindung“. Die Referentin, Frau Sanaz Mostaghim fokussierte dabei die Fragen, ob das geht und welche Rolle der Mensch dabei hat.
Zunächst führte Frau Prof. Dr. Susanne Beck in die Thematik von Künstliche Intelligenz (KI) und Recht ein und berichtete dabei aus ihrem Forschungsprojekt zur rechtlichen Analyse von KI-gesteuerten Entscheidungsunterstützungssystemen. Deutlich wurde hier, wie schon in zahlreichen vergangenen Veranstaltungen der Ringvorlesung, die erhebliche Bedeutung der interdisziplinären Forschung.
Werden lernende Systeme für die Entscheidungsfindung eingesetzt, könne es trotzdem zu falschen Entscheidungen kommen. Das führe zu der Frage nach der Verantwortlichkeit hierfür. Aus diesem Grund sollte nach Ansicht von Frau Prof. Beck stets der Mensch in der „Entscheidungsschleife“ integriert bleiben („human in the loop“). Es bedürfe einer bedeutsamen menschlichen Kontrolle („meaningful human control“). Insofern stelle sich die Frage, wie KI gestaltet werden muss, dass der Mensch sinnvoll verantwortlich gemacht werden kann. Dafür brauche es Lösungen aus dem Fachbereich der Informatik.
An diese einleitenden Ausführungen knüpfte sodann der Vortrag von Frau Prof. Mostaghim an. Die Referentin ist Informatikprofessorin und Gründerin und Leiterin des SwarmLabs an der Fakultät für Informatik der Otto-von-Guericke-Universität Magdeburg. Ihr Forschungsschwerpunkt liegt in Bereich der multikriteriellen Optimierung und Entscheidungsfindung, der evolutionären Algorithmen, der kollektiven Entscheidungsfindung sowie deren Anwendung in Robotik und Naturwissenschaften.
Auch sie betont, dass der Mensch ins Zentrum der Entscheidungsfindung genommen werden müsse. Evolutionäre Algorithmen würden komplexe Entscheidungen mit bis zu 1000 Variablen ermöglichen. Die Besonderheit sei, dass diese mit Mutationen arbeiten. Sie würde eine zufällige Population kreieren, die von dem Algorithmus im nächsten Schritt bewertet und die am wenigsten passenden Lösungen eliminiert werden. Dieser Prozess laufe immer wieder ab. Die Algorithmen seien darauf ausgerichtet, mehrere Lösungen mit gleicher Qualität zu erzeugen. Der Mensch entscheide dann zwischen den Alternativen.
Hervorgehoben wurden die zahlreichen Anwendungsfelder der evolutionären Algorithmen. Sie könnten zum Beispiel zur Modellierung einer Pandemie genutzt werden und verschiedene Vorschläge zu Strategien machen. Sie würden auch bei autonomen Fahrzeugen und Robotern eingesetzt. Gerade in diesem Bereich brauche es eine Kooperation mit der Rechtswissenschaft, um autonome Systeme rechtssicher und moralisch zu gestalten.
Rückblick auf die Ringvorlesung zu Kryptowerten und Kryptodienstleistern: Aktueller Stand und Ausblick mit RA Alireza Siadat
Der Lehrstuhl für Zivilrecht, Europäisches und Internationales Wirtschaftsrecht (Prof. Dr. Buck-Heeb) und der Lehrstuhl für Deutsches, Europäisches und Internationales Zivil- und Handelsrecht (Prof. Dr. Oppermann) präsentierten zusammen mit dem Interdisziplinären Institut für Automatisierte Systeme e.V. (RifaS) in der letzten Ringvorlesung „Automatisierte Systeme“ 2022 einen hochinteressanten Vortrag zum Thema „Kryptowerte und Kryptodienstleister: Aktueller Stand und Ausblick“: Herr Siadat ist auf diesem Rechtsgebiet besonders bewandert. Er berät in seiner Tätigkeit als Rechtsanwalt bei „Annerton“ verschiedene Mandanten bei unterschiedlichen aufsichtsrechtlichen Fragestellungen rund um das Thema Krypto und hielt international mehrere Vorträge dazu.
Herr Siadat begann zunächst mit einer Einordnung der Begriffe „Kryptowerte“ und „Kryptoassets“, die bedeutend ist für die weitere Diskussion, aber auch für die Regulierung insgesamt. Dabei grenzen sich diese digitalen Vermögenswerte natürlich von den Physischen ab. Gleichzeitig können sie aber auch eigene Währungen darstellen, hinter denen keine physische Sache steht (z.B. Bitcoin).
Für die Regulierung ist die Funktion der sogenannten „Token“ wichtiger. Neben den Utility Token werden hauptsächlich noch Security/Investment Tokens, Payment/Currency Tokens und Anlagetokens unterschieden. Daneben gibt es jedoch noch weitere Kategorien. Dazu gehört beispielsweise die nicht-austauschbaren (non fungible) Tokens („NFT“), die weltweit in ihrer Bekanntheit steigen, indem immer mehr NFT-Kunst entsteht.
Die Regulierung dieser Tokens setzt seit der 5. Geldwäscherichtlinie (Anti-Money Laundering Directive, AMLD) direkt bei den Intermediären an. Darüber sollen möglichst viele Informationen gewonnen werden, indem die neuen Verpflichteten die wahre Identität hinter den Public Keys verknüpfen müssen. Diese Verpflichteten wurden daher ergänzt um all jene, die Kryptowährungen in Fiat-Geld umtauschen und alle Anbieter von elektronischen Geldbörsen. Des Weiteren sind Kryptowerte § 1 Abs. 1 S. 4 KWG zusätzlich als Finanzinstrumente qualifiziert worden, wobei reine Utility-Token davon ausgenommen sind.
Das Merkmal des Kryptowerts funktioniert dabei als Auffangtatbestand. So erfüllt beispielsweise Bitcoin streng gesehen nicht alle Voraussetzungen eines Kryptowertes, denn El Salvador akzeptiert seit einiger Zeit BTC (Bitcoin) als offizielles Zahlungsmittel und sichert allen die Auszahlung in Dollar zu. Das entbehrt einen Kryptoverwahrer jedoch nicht vor dem Aufsichtsrecht, sondern würde Bitcoin als Währung weiterhin unter die aufsichtsrechtlichen Reglungen des KWG stellen und eine Erlaubnispflicht zur Folge haben.
Die bestehende „Limited Range“ Ausnahme für diese Erlaubnispflicht hat Herr Siadat anschließend in einem anschaulichen Beispiel erklärt. Somit könnte ein Krypto-Bonuspunkte-System ohne eine aufsichtsrechtliche Regulierung aufgesetzt werden, wenn sich die damit verbundene Zahlungsfunktion auf einen engen Dienstleistungs- oder Warenbereich fokussiert.
Das Kryptoverwahrgeschäft ist nach § 1 Abs. 1 Satz 2 Nr. 6 KWG definiert. Dies wird rechtlich jedoch vom Depotgeschäft umfasst und erlaubt es, dass die Verwahrstellen, die schon eine Erlaubnis für das Depotgeschäft besitzen, dieses auf Kryptowerte und kryptografische Schlüssel ausweiten, ohne eine zusätzliche Erlaubnis einzuholen. Zusätzlich wurde der Tatbestand des Kryptowertpapierregisterführers eingeführt § 1 Abs. 1a Nr. 8 KWG.
Nach einer abschließenden Darstellung der Entwicklung, die virtuelle Währungen, Bitcoin und Kryptowerte international durchlaufen haben, gab es die Möglichkeit Herrn Siadat bestehende Fragen zu stellen. Die Diskussion spannte sich dabei von der Akzeptanz Bitcoins als Währung durch El Salvador bis zum Kursfall des FTT Coins.
Die nächste Rifas Ringvorlesung findet im Januar 2023 statt.
CH 09.11.2022
Ringvorlesung zu Kryptowerte und Kryptodienstleister: Aktueller Stand und Ausblick mit RA Alireza Siadat am 8.11.2022 um 18.00 Uhr
Ringvorlesung zu "Unendliche Weiten - Science Fiction, Technikgestaltung und Recht" am 24.5.2022 um 17.00 Uhr
Ringvorlesung zu "Robot Justice - Übernimmt künstliche Intelligenz zukünftig die Rolle des (Schieds-)Richters? am 11.1.2022 um 18.00 Uhr
Ringvorlesung zum autonomen Fahren am 14.12.2021
Ringvorlesung zu "Krypto-Token und die Digitalisierung von Sachwerten" am 6.7.2021
Ringvorlesung zu "From Gutenberg to the Internet" am 27.4.2021
Internationale Aktivitäten zum autonomen Fahren am 23. April zusammen mit ITS mobility