Interview zum KI-Gesetzentwurf der EU mit AlgorithmWatch

Ende April wurde von der EU-Kommission ein Gesetzentwurf zur Regulierung von Künstlicher Intelligenz (KI) vorgelegt. Damit soll europaweit der Umgang mit solcher Technik gezielt geregelt und Risiken eingeschränkt werden. Den gesamten Entwurf findet ihr hier.

Frau Dr. iur. des. Angela Müller von AlgorithmWatch war so freundlich, uns ein Interview zu dieser Thematik und Ihren Einschätzungen zum Gesetzentwurf zu geben. Sie hat einen PhD in Rechtswissenschaft sowie einen M.A. in Political and Economic Philosophy. Ihre Dissertation behandelte die extraterritoriale Anwendung von Menschenrechten, u.a. in Zusammenhang mit der Nutzung neuer Technologien. An der Universität Zürich war sie als SNF-Doktorandin und wissenschaftliche Assistentin tätig. Zudem war sie Visiting Researcher an der Columbia University, New York, sowie an der Hebrew University, Jerusalem. Zuvor war Angela Müller als Projektleiterin beim aussenpolitischen Think Tank foraus, als Projektmanagerin einer Innovationsförderungsplattform der Hochschule Luzern sowie in der UNO-Abteilung des Eidgenössischen Departements für Auswärtige Angelegenheiten EDA tätig. Des Weiteren engagiert sie sich als Vize-Präsidentin der Gesellschaft Schweiz-UNO.
In diesem Sinne bereits an dieser Stelle vielen Dank!

ELSA Tübingen: Zunächst als kleine Einführung der Arbeit Ihrer Organisation AlgorithmWatch: Ihr Ziel ist “Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen”. Wie funktioniert Ihre Arbeit dabei?

Dr. iur. des. Angela Müller: Wir sind eine zivilgesellschaftliche Forschungs- und Advocacyorganisation. Das heisst, einerseits beobachten wir den Einsatz und die Auswirkungen von Systemen, die Entscheidungen automatisieren oder unterstützen, zeigen ethische Konflikte auf, und bringen dies auch einer breiteren Öffentlichkeit näher. Andererseits tragen wir dazu bei, Strategien und Lösungsansätze zu entwickeln, wie solche Systeme automatisierter Entscheidungsfindung (ADM, kurz für automated decision-making) so eingesetzt werden können, dass sie uns allen nutzen, statt uns zu schaden.

ELSA Tübingen: Weshalb ist eine solche Überwachung durch Organisationen notwendig? Wo und inwiefern sehen Sie einige der schwerwiegendsten Gefahren für die Rechte von Individuen?

Dr. iur. des. Angela Müller: Die Automatisierung von Entscheidungen eröffnet zahlreiche Möglichkeiten für unsere Gesellschaft – wir sind also keineswegs technophob oder wollen uns der technologischen Entwicklung entziehen. Allerdings ist es eine falsche Vorstellung, dass wir es mit objektiver Technologie zu tun haben. ADM-Systeme sind sogenannte ‚soziotechnologische‘ Systeme und werden immer in einem bestimmten Kontext angewandt – der gesellschaftliche Hintergrund mit all seinen Werten, Normen, und Praktiken ist dafür der Ausgangspunkt.
Der Einsatz von ADM-Systemen kann mit einer Reihe an ungerechten Auswirkungen für Individuen einhergehen – zum Beispiel, wenn automatisierte Systeme bei der Vergabe von Sozialleistungen den schwierigen Kontext von bereits marginalisierten Gruppen nicht gebührend berücksichtigen, oder wenn Gesichtserkennungstechnologien dunkelhäutige Menschen und Frauen schlechter erkennen, da sie vorwiegend mit Bildern von weißen Männern trainiert wurden. ADM-Systeme können so bestehende gesellschaftliche Diskriminierungen und Ungerechtigkeiten übernehmen und dadurch sogar verstärken. Zudem hat ihr Einsatz auch Auswirkungen auf die Gesellschaft als solches. Um nochmals auf das Beispiel Gesichtserkennung zurückzukommen: Wenn solche Systeme im öffentlichen Raum eingesetzt werden, kann dies die Wahrnehmung von Grundrechten – z.B. die Meinungs- und Versammlungsfreiheit – schwerwiegend einschränken und auch einen ‚chilling effect‘, eine abschreckende Wirkung, haben, der mit fundamentalen Prinzipien unseres demokratischen Zusammenlebens nicht vereinbar ist.

ELSA Tübingen: Die Definition was genau unter den Begriff der Artificial Intelligence (AI) bzw. der Künstlichen Intelligenz (KI) fällt, ist umstritten. Dies betont auch eine Studie des Europarates.
Gibt es eine Definition, die Ihrer Ansicht nach AI am besten beschreibt?

Dr. iur. des. Angela Müller: Wie bereits angetönt: Wir sprechen nicht von KI, sondern von Systemen automatisierter Entscheidungsfindung – aus verschiedenen Gründen: Einerseits gibt es eine ganze Reihe von KI-Systemen, die wir als völlig unproblematisch erachten. Wir konzentrieren uns auf Systeme, die eine gesellschaftliche Relevanz haben, also menschliche Entscheidungen vorhersagen, vorherbestimmen, oder Entscheidungen automatisiert treffen. Uns geht es nicht um eine bestimmte Technologie, sondern um den soziotechnologischen Kontext, in dem sie eingesetzt wird. Es ist letztlich eine Diskussion über Macht und Gerechtigkeit in unserer Gesellschaft. Zudem ist der Begriff KI nicht nur schwammig, sondern auch irreführend, da wir es hier nicht mit einer ‚Intelligenz‘ im menschlichen Sinne zu tun haben.

ELSA Tübingen: Aufgrund der angesprochenen Komplexität und der vielfältigen Auswirkungen von KI wurde Ende April von der EU-Kommission ein Gesetzentwurf zur Regulierung von Künstlicher Intelligenz vorgestellt.
Zur Einstufung der Regulierungen bzw. Verboten verschiedener Anwendungen wurde eine risikoorientierte Lösung vorgesehen.
Eine besonders regulierte Anwendung ist hierbei die automatische Gesichtserkennung. Sie ist zwar nicht grundsätzlich erlaubt, jedoch unter bestimmten, jeweils auslegungsbedürftigen Voraussetzungen. Viele sehen dies problematisch und fürchten ein Schlupfloch für bspw. Massenüberwachung.
Wie groß ist eine solche Gefahr tatsächlich und überwiegen die aus der Zulassung gewonnen Vorteile?

Dr. iur. des. Angela Müller: Der Entwurf verbietet die Anwendung von biometrischer Erkennung in Echtzeit durch Strafverfolgungsbehörden – mit bestimmten Ausnahmen, zum Beispiel wenn es um schwere Verbrechen geht. Alle anderen Anwendungen von ‚remote‘ biometrischer Erkennung sowie ihr Einsatz durch andere Akteure bleiben erlaubt, werden allerdings als hochriskant eingestuft und entsprechend gewissen Verpflichtungen unterworfen.
Der Einsatz von Gesichtserkennung ist in ganz Europa enorm auf dem Vormarsch – sie wird beispielsweise in Schulen, Stadien und Casinos, bei der Verbrechensbekämpfung, aber auch bei Demonstrationen oder zur Durchsetzung von Covid-19-Maßnahmen eingesetzt. Wir begrüßen die grundsätzliche Anerkennung, dass solche Systeme hochproblematisch sind, da sie einer Massenüberwachung Tür und Tor öffnen können. Deshalb sollten auch Schlupflöcher geschlossen werden, so dass auch andere öffentliche Stellen oder private Akteure, die im Auftrag von öffentlichen Behörden handeln, solche Systeme nicht einsetzen dürfen. Wie erwähnt: Wenn wir im öffentlichen Raum jederzeit identifiziert werden können, widerspricht dies der Idee des gesellschaftlichen Zusammenlebens in einer grundrechtsbasierten, liberalen Demokratie.

ELSA Tübingen: Wie bereits soeben angesprochen, sind viele der einzelnen Begrifflichkeiten rund um das Risikopotential nicht eindeutig definiert, bspw. wann ein “hohes Risiko” vorliegt. Inwieweit ist hierbei überhaupt eine rechtssichere Anwendung des Gesetzes möglich?

Dr. iur. des. Angela Müller: Das ist in der Tat ein schwieriger Aspekt. Der Vorschlag der EU-Kommission teilt KI-Systeme in vier Kategorien ein: Verbotene, hochriskante, begrenzt riskante, und minimal riskante Systeme (diese letzte Kategorie bleibt unreguliert). Bei den hochriskanten Systemen stützt er sich auf eine bestimmte vordefinierte Liste von Anwendungen, die als hochriskant eingestuft werden – darunter gehören unter anderem ihr Einsatz im Personalwesen, für den Zugang zu staatlichen Leistungen oder im Migrations- und Asylkontext. Diese Liste kann auch erweitert werden, um zukünftige technologische Entwicklungen einbeziehen zu können.
Wir sehen hier aber einige offene Fragen. Einerseits sind die Kriterien, nach denen weitere Anwendungen auf die Liste gesetzt werden können, vage formuliert. Andererseits stellt sich die grundsätzliche Frage, wie sinnvoll es ist, von einer solchen vordefinierten Liste auszugehen. Gerade im öffentlichen Sektor sollten unserer Einschätzung nach alle Systeme vor ihrem Einsatz eine Folgenabschätzung (‚impact assessment‘) durchlaufen und gewissen Transparenzpflichten unterworfen sein. Zum Beispiel sollten Informationen zu all diesen Systemen in einem öffentlichen Register einsehbar sein. Denn: Auch Systeme, die auf den ersten Blick nicht hochriskant erscheinen, können relevante Auswirkungen mit sich bringen. Umso wichtiger ist dann auch, dass in solchen Fällen die Zuschreibung von Verantwortung und Rechenschaftspflichten gewährleistet sind.

ELSA Tübingen: Eröffnet dieser Mangel an strengen Richtlinien ein großes Missbrauchspotential?

Dr. iur. des. Angela Müller: Die Regulierung unterwirft hochriskante KI-Anwendungen einer Reihe von Verpflichtungen. Ihre Anbieter·innen müssen sodann einschätzen, ob das System mit der Regulierung konform ist, und es auf dieser Basis zertifizieren lassen, bevor sie es einsetzen. In den meisten Fällen reicht dafür eine Selbsteinschätzung durch den oder die Anbieter·in. Hier stellt sich in der Tat die Frage, inwiefern dies zuverlässigen Schutz gewährleistet. Es ist zudem noch unklar, wie eine solche Konformitätseinschätzung aussehen würde – auch hier besteht noch Klärungsbedarf.

ELSA Tübingen: Ist dieser Mangel an Transparenz nicht auch für betroffene Menschen nachteilig – bspw. in Hinsicht auf Beschwerde- und Klagemöglichkeiten? Und insbesondere auch angesichts der Tatsache, dass die Erklärung zum Gesetzentwurf betont, den Mensch ins Zentrum der Regelungen stellen zu wollen, um u.a. ein möglichst großes Vertrauen der Menschen zu gewährleisten?

Dr. iur. des. Angela Müller: Transparenz herzustellen ist – als Mittel zum Zweck – in der Tat zentral: Nur wenn wir wissen, wo, von wem und mit welchem Zweck diese Systeme eingesetzt werden und wie sie funktionieren, können wir überhaupt eine sinnvolle und faktenbasierte demokratische Debatte darüber führen und diese demokratisch kontrollieren – und sicherstellen, dass Verantwortungen zugeschrieben werden, beispielsweise durch individuelle Beschwerdemöglichkeiten.
Der Regulierungsvorschlag wendet sich klar an Anbieter·innen und Anwender·innen – und was er damit zu wenig berücksichtigt, ist die Perspektive von Betroffenen und die Mittel und Wege, wie sie tangiert sind und sich wehren können. Dies ist eine zentrale Dimension. Gleichzeitig unterwirft er unterwirft hochriskante Systeme nun einer Reihe an Transparenzpflichten, die wir begrüßen und die als Voraussetzung für individuelle Beschwerden notwendig sind.

ELSA Tübingen: Dem Entwurf zufolge liegt u.a. die Durchsetzung der Regelungen weitestgehend bei den Mitgliedsstaaten, allerdings wurde auch ein übergreifendes European Artificial Intelligence Board (EAIB) vorgeschlagen. Inwieweit bestehen Gefahren oder Schwierigkeiten bei einer Einzellösung bezüglich Missbrauchschancen und uneinheitlicher Rechtseinschränkung?

Dr. iur. des. Angela Müller: Die Schaffung des EAIB soll eine gewisse Harmonisierung bei der Rechtsdurchsetzung sicherstellen, was sicher sinnvoll ist. Gleichzeitig verbleibt, ähnlich wie dies bei der Datenschutzgrundverordnung der Fall ist, die Verantwortung für die Durchsetzung zu weiten Teilen bei den Mitgliedsstaaten.
Wir fragen uns, ob die Kompetenzen und Ressourcen auf nationaler Ebene dann auch wirklich ausreichend vorhanden sind, um eine konsistente Durchsetzung herzustellen: Zum Beispiel würden für die nationale Koordinationsstelle, die „national supervisory authority“, gemäß Entwurf schon eine bis 25 Vollzeitstellen ausreichen. Dies ist unvorstellbar: Wenn in einem kleinen Mitgliedsstaat nur eine Person für ihre Koordination zuständig ist, wird die Durchsetzung der Regulierung zu einem Ding der Unmöglichkeit.

ELSA Tübingen: Wie gut gelingt mit dem neuen Gesetzentwurf der Spagat zwischen Grundrechtsschutz und Förderung Innovation – das erklärte Ziel des Entwurfes?
Insbesondere auch unter dem Gesichtspunkt, international Vorreiter bzw. wettbewerbsfähig zu sein?

Dr. iur. des. Angela Müller: Was ich als wichtigen und richtigen Schritt erachte, ist, dass die EU-Kommission mit diesem Entwurf anerkennt, dass der Einsatz von KI zwar Chancen bietet, aber dass er auch enorme Risiken mit sich bringen kann – und dass es klarer Rahmenbedingungen bedarf, um einen verantwortungsvollen und ethischen Einsatz solcher Systeme sicherzustellen.
Mit ihrem Entwurf positioniert sich die EU diesbezüglich klar, gleichzeitig schafft sie damit natürlich auch eine Rechtssicherheit im Umgang mit KI. Sie verhindert einerseits einen Flickenteppich von nationalen Regelungen innerhalb der Union und steckt andererseits nun, zu einem international vergleichsweise frühen Zeitpunkt, das Feld ab und definiert die Regeln. Diese Rechtssicherheit ist wiederum für die Förderung von Innovation sehr wichtig – die Unternehmen wissen klar, was hier gelten wird. Ob dies alles in allem zu einem Wettbewerbsvorteil oder -nachteil wird, wird sich weisen.
Es ist aber schon auch so, dass die Herausforderungen, die KI mit sich bringt, auch anderswo thematisiert und angegangen werden. Beispielsweise wird dies auch im US-amerikanischen Kontext vermehrt diskutiert, wenn auch nicht in dieser umfassenden Weise wie nun in Europa.

ELSA Tübingen: Welche Bedeutung könnte ein solches EU-Gesetz für Nicht-EU-Länder haben?
Insbesondere auch in Anbetracht der Tatsache, dass die EU dabei unter anderem das Ziel verfolgt, sich vorteilhaft im internationalen Wettbewerb der KI-Forschung zu positionieren.

Dr. iur. des. Angela Müller: Die Auswirkungen auf Drittstaaten sind tatsächlich enorm. Einerseits würde die Regulierung konkrete rechtliche Auswirkungen mit sich bringen, da auch Anbieter·innen und Anwender·innen im Ausland der Regulierung unterworfen werden, wann immer sie KI-Systeme innerhalb der EU anbieten. Als Beispiel: Wenn ein Start-up im Vereinten Königreich ein KI-System zur Rekrutierung von Arbeitnehmenden entwickelt, wird es dieses aufgrund der Wichtigkeit des EU-Marktes regelmässig auch Arbeitgebenden in der EU verkaufen wollen. Sie würden aber auch bereits unterworfen, wenn nur schon der Output dieser Systeme in der EU verwendet wird, also Auswirkungen auf Individuen in der EU hat – das heißt, wenn zum Beispiel ein schweizerisches Unternehmen in der Schweiz die Kreditwürdigkeit von in der EU wohnhaften Personen bewertet und diese Prognose dann innerhalb der EU verwendet wird.
Gleichzeitig wird die Regulierung – ähnlich wie die Datenschutzgrundverordnung – für die Bevölkerung in der Schweiz, UK, Norwegen und anderen Drittstaaten indirekt auch einen zusätzlichen Schutz mit sich bringen: Für viele grenzüberschreitend arbeitende Unternehmen wäre es schlichtweg zu kompliziert oder unmöglich, ihre KI-Systeme anders auszugestalten, je nachdem, ob sie in Norwegen oder in Frankreich verwendet werden. Sie werden sich also entscheiden, diese grundsätzlich den EU-Regeln konform zu machen. So kann schlussendlich auch die Bevölkerung in Drittstaaten wie Norwegen – und anderswo – profitieren.
Nicht zuletzt wird die Regulierung auch politische Folgen haben: Nur schon durch ihre Ankündigung wird das Thema KI-Governance auf der Agenda nochmals kräftig nach oben klettern – was zu begrüßen ist. Andere Staaten kommen noch stärker unter Druck, dieses anzugehen. Zudem setzt die EU mit ihren Regeln schon auch einen substantiellen Standard, der weltweit als Messlatte gelten wird. Andere Staaten werden prüfen, ob und inwiefern sie KI in ähnlicher Weise regulieren – oder sich auch rechtfertigen wollen, wenn sie eben davon abweichen.

ELSA Tübingen: Der Gesetzentwurf hat es sich unter anderem auch zum Ziel gemacht, das Risiko von Diskriminierung durch Algorithmen zu minimieren. Dass dies ein sehr komplexes Vorhaben ist, zeigt unter anderem das Beispiel der Auswirkung von genutzten Datenmengen bei der Bewerbersortierung von Amazon.
Inwieweit können solche Probleme überhaupt vorhergesehen und reguliert werden?

Dr. iur. des. Angela Müller: Damit sprechen Sie in der Tat ein wichtiges Problem an. Amazon hat festgestellt, dass sein Bewerbersortierungssystem sexistische Tendenzen aufweist, also nicht-männliche Bewerbende überproportional aussortiert. Selbst wenn das Kriterium ‚Geschlecht‘ explizit entfernt wird, können solche Systeme diese Tendenzen beibehalten: Das System erkannte das Muster aus der bisherigen Bewerbungshistorie von Amazon, wo schlichtweg viel öfters Männer eingestellt wurden, und reproduzierte dieses. Auch wenn das Geschlecht in den Daten nicht mehr erkennbar ist, können solche Systeme sich an sogenannte ‚Proxies‘ haften, die dann stellvertretend für das Kriterium ‚Geschlecht‘ dienen – zum Beispiel gewisse Hobbys, die typischerweise mit weiblichen Personen assoziiert werden. So haben sie weiterhin sexistische Auswirkungen.
Diese Verzerrung in den Trainingsdaten (im Fachjargon ‚bias‘ genannt) ist in der Tat sehr schwer festzustellen und auszuradieren. Es gibt gewisse technologische Ansätze dazu, aber dies kann nicht ausreichen: Die Probleme, die dahinter liegen, sind nicht durch Technologie zu lösen – ihr Ursprung liegt bei diesem Beispiel in der sexistischen Einstellungspraxis von Amazon, und diese wiederum gründet in unserer Gesellschaft. Wie zu Beginn gesagt: Automatisierte Systeme übernehmen die Wertevorstellungen, die in einem gesellschaftlichen Kontext aufzufinden sind – und dabei geht es nicht alleine um den bias in den Trainingsdaten. Sie übernehmen vergangene gesellschaftliche Ungerechtigkeiten und tragen diese in die Zukunft.

ELSA Tübingen: KI findet in den verschiedensten Bereichen Anwendung, von Medizin bis hin zum Verkehr. Könnte eine sektor-orientiere Lösung eventuell besser auf die verschiedenen Anwendungsbereiche eingehen und nicht durch verallgemeinerte Regulierungen bspw. im sehr speziellen Medizinbereich für Menschen hilfreiche Innovationen einschränken?

Dr. iur. des. Angela Müller: Es ist wichtig, die Herausforderungen umfassend anzugehen. Gewisse allgemeine Forderungen sollten die ganze Breite von Systemen treffen: Wie erwähnt fordern wir zum Beispiel für alle ADM-Systeme im öffentlichen Sektor, dass sie in einem öffentlichen Register aufgeführt werden und dass eine Folgenabschätzung vorgenommen wird. Auch ist es bei allen Systemen wichtig, dass Rahmenbedingungen für Verantwortungszuschreibung geschaffen werden, unter anderem durch Aufsichtsinstitutionen, Auditierungen und Regulierungen.
Gleichzeitig haben Sie völlig Recht, dass der Algorithmus von Facebook nicht in derselben Weise angegangen kann wie ein selbstfahrendes Auto. Der Kontext ist also unbedingt mit zu berücksichtigen. Für die Bestimmung der Risiken sollte der Sektor hingegen nicht per se bestimmend sein: Nicht alle KI-Systeme zum Beispiel im industriellen Sektor sind unproblematisch – auch in diesem Sektor gibt es kritische Infrastrukturen, etc. Insofern begrüßen wir auch, dass die EU-Kommission das Kriterium des Sektors entgegen der ursprünglichen Absichten aus dem Vorschlag entfernt hat.
Gleichzeitig ist es so, dass natürlich auch eine Reihe von sektorspezifischen Regulierungen bereits und weiterhin existiert, die nun mit dieser umfassenden Regulierung ergänzt werden. Der Vorschlag selbst erwähnt eine Reihe von anderen Normen, zu denen Interdependenzen bestehen.

ELSA Tübingen: Könnte ein solcher Effekt eventuell durch eine nicht-bindende Regelung – wie sie u.a. vom Ad hoc Committee on Artificial Intelligence (CAHAI) in einer Studie zur Durchführbarkeit solcher Regulierungen diskutiert wurden- abgeschwächt werden?

Dr. iur. des. Angela Müller: AlgorithmWatch hat Beobachterstatus im CAHAI, entsprechend verfolgen wir diese Diskussionen intensiv. Wir sehen klare Vorteile bei einem bindenden Instrument. Es ist auch nicht so, dass bindende Regulierungen – sei es auf Ebene EU oder Europarat – die Anwendung von KI unterbinden sollen. Ziel muss es sein, deren Einsatz so zu gestalten, dass er eben Grundrechte, demokratische Prinzipien und rechtsstaatliche Garantien schützt, statt dass er diese bedroht, und dass er individuelle Autonomie, Freiheit und Gemeinwohl tatsächlich erhöht, statt sie zu reduzieren. Dafür brauchen wir entsprechende Rahmenbedingungen. Wir sind auch der Meinung, dass es für dieses Ziel eine Reihe von Maßnahmen brauchen wird – und Regulierung ist nicht die einzige davon, wohl aber eine wichtige.

ELSA Tübingen: Die Studie selbst betont zudem, dass ein solcher Entwurf eventuell als unausgereift angesehen werden könnte. Ist es angesichts der relativen Neuheit und hohen Komplexität des Feldes der KI überhaupt möglich, zur jetzigen Zeit einen sinnvollen Gesetzentwurf anzufertigen?

Dr. iur. des. Angela Müller: Wie bereits erwähnt: Das Feld ist in der Tat komplex und der Chatbot der Krankenversicherung unterscheidet sich tatsächlich wesentlich von Gesichtserkennungssystemen der Polizei. Gleichzeitig gibt es, wie ebenfalls erwähnt, gewisse Anforderungen bezüglich Transparenz und Rechenschaft, die alle Systeme erfüllen müssen. Und dann müssen wir auch sehen: Der horizontale Ansatz der Regulierung ist zwar neu, allerdings sind KI-Anwendungen bereits in vielfacher Weise reguliert. Einerseits durch spezifische Regeln zu algorithmischen Systemen, wie dies beispielsweise im Finanzsektor der Fall ist, andererseits gibt es auch technologieunabhängige Normen, die relevant sind: Solange wir eine gesetzlich verankerte Krankenversicherungspflicht – und damit ein gesetzlich verankertes Solidaritätsprinzip in diesem Bereich – haben, kann meine Versicherung eine Leistung nicht davon abhängig machen, dass ich täglich 10‘000 Schritte gemacht und dies via Fitness Tracker aufgezeichnet habe. Auch diese Norm reguliert den Einsatz automatisierter Systeme. Zudem ist es– gerade auch im öffentlichen Sektor – wichtig zu betonen, dass rechtsstaatliche Prinzipien, Grundrechte und Diskriminierungsschutz auch im Kontext von automatisierten Entscheiden weiterhin gelten und angewendet werden können und sollen.

ELSA Tübingen: Gibt es noch abschließende Anmerkungen Ihrerseits?

Dr. iur. des. Angela Müller: Das Bewusstsein, dass dies eine Debatte über bestehende (Un-)Gerechtigkeiten in unserer Gesellschaft ist und entsprechend möglichst inklusiv sein soll, ist wichtig: Es sollen dabei nicht nur Technologieexpert·innen mitwirken. Gerade die menschenrechtliche Dimension – ich selbst habe auch einen Hintergrund im Menschenrechtsbereich – ist meines Erachtens zentral: Zivilgesellschaftliche Organisationen, ethische und rechtliche Menschenrechtsexpert·innen und insbesondere auch Betroffene brauchen einen Platz am Tisch, wenn es um den verantwortungsvollen Einsatz von KI geht. Entsprechend freuen wir uns darauf, diese Diskussionen hier und anderswo weiterzuführen!

Wir danken Dr. ius. des. Angela Müller von AlgorithmWatch nochmal vielmals für Ihre Einschätzungen und Hilfe durch Ihre Expertise!

Jetzt teilen!