schwatzgelb.de das Fanzine rund um Borussia Dortmund
A- A+
schwatzgelb.de das Fanzine rund um Borussia Dortmund
Startseite | FAQ | schwatzgelb.de unterstützen
Login | Registrieren

Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande (BVB)

Nietzsche, Sonntag, 16.06.2019, 01:58 (vor 1777 Tagen) @ hardbreak

Doch keine Angst ich beschäftige mich schon lange genug damit und ich rede auch nicht von heute sondern von der Hoffnung was in Zukunft möglich sein wird.

Du kannst ja gern hoffen, aber Deine Vorstellungen sind halt trotzdem nicht sehr nah an der Realität. Ich erkläre unten was dazu.

Und ab es eine schwache oder Starke KI oder doch nur ein simpler Algorithmus ist ist am ende völlig egal solange das Ergebnis stimmt.

Gleich hier ein erster Denkfehler: Woher weiß man denn, dass das Ergebnis stimmt? Wenn Menschen die Resultate der KI überprüfen, kann man sich das auch gleich sparen.
Du gehst davon aus, dass es sich um ein Problem handelt, das genau eine richtige Lösung hat. Das ist aber selten der Fall. Es gibt meist sehr viel Spielraum.

Und noch was es wurden doch die ganzen Unzulänglichkeiten von Menschen aufgezählt also warum setz man da dann noch sein vertrauen hinein?

Und genau die Unzulänglichkeiten hast Du eben auch beim Bauen und Trainieren einer KI. Das Problem bleibt dasselbe, es tritt bloß an anderer Stelle auf.

Zu Deinen Beispielen:

Gleichheit: Staatsanwaltschaft setzt KI gegen Vorurteile ein
Staatsanwälte in das USA lassen sich bei ihren Entscheidungen oft genug durch Vorurteile bezüglich der Hautfarbe eines Verdächtigen leiten.
https://www.golem.de/news/gleichheit-staatsanwaltschaft-setzt-ki-gegen-vorurteile-ein-1906-141875.html

Die KI entfernt aus Berichten alle Details, die Rückschlüsse auf die Rasse zulassen. Es handelt sich um Texterkennung. Das hat nichts mit Jura zu tun.

KI schlägt 20 Anwälte bei der Analyse von Verträgen klar.
https://t3n.de/news/ki-schlaegt-anwaelte-analyse-963741

Die Tatsache, dass Du diesen Bericht anführst zeigt, dass Du Dir eben nicht die richtigen Fragen stellst.

Was haben die gemacht?
Die haben Verträge genommen, die angeblich "30 rechtliche Probleme" beinhalten. Dann haben die eine speziell darauf trainierte KI und Anwälte darauf angesetzt, diese 30 Probleme zu finden.

Folgende Sachen fallen auf:
1. Woher wissen die, dass es nur die 30 Probleme sind und nicht noch weitere?
2. Wer legt fest, welche der 30 Probleme auch wirklich Probleme sind?
3. Welche Anwälte haben die genommen? Kannten die sich wirklich in dem Bereich aus?
4. Der Versuch fand unter Zeitdruck statt.
5. Der Artikel ist von einem Tech-Magazin, welches über eine Tech-Firma berichtet. Man sollte zumindest in Betracht ziehen, dass die Darstellung einseitig ist.

Wieder liegt dem Versuch die Annahme zugrunde, dass es genau 30 Problem und sonst keine gibt, dass es genau eine richtige Lösung (alle 30 Probleme gefunden) und sonst nur falsche gibt.
Welche eine Überraschung, dass ein Computer genau die Sachen findet, die man vorher eingegeben hat. Und welch eine Überraschung, dass Menschen nicht alle finden, wenn man sie unter Zeitdruck unvorbereitet vor das gleiche Problem setzt.

In einem Verfahren in der echten Welt weiß man vorher nicht, ob es überhaupt ein richtiges (im Sinne von korrekt) Ergebnis gibt. Und es ist so gut wie sicher, dass wenn es eins gibt, auch viele andere richtig wären (leicht verändertes Strafmaß z.B.).

Und dann mal ganz allgemein. Annahme: Eine KI ist Richter und spricht ein Urteil. Eine Partei bezweifelt, dass der Prozess fair war.

Wie sieht die Überprüfung aus?
- Fragt man die KI nochmal? Was, wenn etwas anderes rauskommt?
- Fragt man eine andere KI? Warum hat man dann nicht gleich diese genommen?
- Eine KI ist, wenn sie sich selbst trainiert, zunächst einmal eine Black Box. Man kann nicht mehr nachvollziehen, wie sie zu ihrer Entscheidung gekommen ist. Das ist nicht hinnehmbar, weil es eine Überprüfung unmöglich macht.
- Man kann die KI ihre Entscheidungsschritte protokollieren lassen. Dann fällt das Problem der Black Box weg. Aber dann ist man sofort wieder da, wo man jetzt auch ist. Abgesehen davon, dass die Komplexität der Situation dramatisch zugenommen hat, weil man nun nicht mehr nur den eigentlichen Sachverhalt, sondern auch noch die Bewertung der Details durch eine KI nachvollziehen und bewerten muss.

Und weitere Probleme:
- Wer erstellt das juristische Material, mit dem die KI trainiert wird? Woher weiß man, dass es nur korrekte Bewertungen enthält, wenn das Ausgangsproblem doch war, dass Menschen das nicht gut können und sich uneins sind?
- Wer stellt sicher, dass die Tech-Leute das juristische Material auch korrekt nutzen?
- Wenn die KI erstmal angelernt ist und man Tests macht, wer legt fest, dass sie korrekt funktioniert? Das geht ja nur wieder, indem ein Mensch das beurteilt. Aber genau das war ja Dein Ausgangsproblem, dass das nicht zuverlässig geht.
- In welcher Weise wird eine Richter-KI mit den Fakten zum Fall gefüttert? Wie stellt man sicher, dass man nicht durch die Art der Aufbereitung der Daten die KI unzulässig beeinflusst.

Ich könnte jetzt hier noch zig weitere Punkte anführen. Was Du erhoffst, hat nichts mit der Realität zu tun. Und das Leben ist wesentlich komplizierter als Deine Ausgangsannahmen.


Antworten auf diesen Eintrag:



gesamter Thread:


1233934 Einträge in 13687 Threads, 13784 registrierte Benutzer Forumszeit: 26.04.2024, 15:44
RSS Einträge  RSS Threads | Kontakt | Impressum | Nutzungsbedingungen | Datenschutzerklärung | Forumsregeln