Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande (BVB)
Doch keine Angst ich beschäftige mich schon lange genug damit und ich rede auch nicht von heute sondern von der Hoffnung was in Zukunft möglich sein wird.
Du kannst ja gern hoffen, aber Deine Vorstellungen sind halt trotzdem nicht sehr nah an der Realität. Ich erkläre unten was dazu.
Und ab es eine schwache oder Starke KI oder doch nur ein simpler Algorithmus ist ist am ende völlig egal solange das Ergebnis stimmt.
Gleich hier ein erster Denkfehler: Woher weiß man denn, dass das
Ergebnis stimmt? Wenn Menschen die Resultate der KI überprüfen,
kann man sich das auch gleich sparen.
Du gehst davon aus, dass es sich um ein Problem handelt, das
genau eine richtige Lösung hat. Das ist aber selten der Fall. Es
gibt meist sehr viel Spielraum.
Und noch was es wurden doch die ganzen Unzulänglichkeiten von Menschen aufgezählt also warum setz man da dann noch sein vertrauen hinein?
Und genau die Unzulänglichkeiten hast Du eben auch beim Bauen und Trainieren einer KI. Das Problem bleibt dasselbe, es tritt bloß an anderer Stelle auf.
Zu Deinen Beispielen:
Gleichheit: Staatsanwaltschaft setzt KI gegen Vorurteile ein
Staatsanwälte in das USA lassen sich bei ihren Entscheidungen oft genug durch Vorurteile bezüglich der Hautfarbe eines Verdächtigen leiten.
https://www.golem.de/news/gleichheit-staatsanwaltschaft-setzt-ki-gegen-vorurteile-ein-1906-141875.html
Die KI entfernt aus Berichten alle Details, die Rückschlüsse auf die Rasse zulassen. Es handelt sich um Texterkennung. Das hat nichts mit Jura zu tun.
KI schlägt 20 Anwälte bei der Analyse von Verträgen klar.
https://t3n.de/news/ki-schlaegt-anwaelte-analyse-963741
Die Tatsache, dass Du diesen Bericht anführst zeigt, dass Du Dir eben nicht die richtigen Fragen stellst.
Was haben die gemacht?
Die haben Verträge genommen, die angeblich "30 rechtliche
Probleme" beinhalten. Dann haben die eine speziell darauf
trainierte KI und Anwälte darauf angesetzt, diese 30 Probleme zu
finden.
Folgende Sachen fallen auf:
1. Woher wissen die, dass es nur die 30 Probleme sind und nicht
noch weitere?
2. Wer legt fest, welche der 30 Probleme auch wirklich Probleme
sind?
3. Welche Anwälte haben die genommen? Kannten die sich wirklich
in dem Bereich aus?
4. Der Versuch fand unter Zeitdruck statt.
5. Der Artikel ist von einem Tech-Magazin, welches über eine
Tech-Firma berichtet. Man sollte zumindest in Betracht ziehen,
dass die Darstellung einseitig ist.
Wieder liegt dem Versuch die Annahme zugrunde, dass es genau 30
Problem und sonst keine gibt, dass es genau eine richtige Lösung
(alle 30 Probleme gefunden) und sonst nur falsche gibt.
Welche eine Überraschung, dass ein Computer genau die Sachen
findet, die man vorher eingegeben hat. Und welch eine
Überraschung, dass Menschen nicht alle finden, wenn man sie unter
Zeitdruck unvorbereitet vor das gleiche Problem setzt.
In einem Verfahren in der echten Welt weiß man vorher nicht, ob es überhaupt ein richtiges (im Sinne von korrekt) Ergebnis gibt. Und es ist so gut wie sicher, dass wenn es eins gibt, auch viele andere richtig wären (leicht verändertes Strafmaß z.B.).
Und dann mal ganz allgemein. Annahme: Eine KI ist Richter und spricht ein Urteil. Eine Partei bezweifelt, dass der Prozess fair war.
Wie sieht die Überprüfung aus?
- Fragt man die KI nochmal? Was, wenn etwas anderes
rauskommt?
- Fragt man eine andere KI? Warum hat man dann nicht gleich diese
genommen?
- Eine KI ist, wenn sie sich selbst trainiert, zunächst einmal
eine Black Box. Man kann nicht mehr nachvollziehen, wie sie zu
ihrer Entscheidung gekommen ist. Das ist nicht hinnehmbar, weil
es eine Überprüfung unmöglich macht.
- Man kann die KI ihre Entscheidungsschritte protokollieren
lassen. Dann fällt das Problem der Black Box weg. Aber dann ist
man sofort wieder da, wo man jetzt auch ist. Abgesehen davon,
dass die Komplexität der Situation dramatisch zugenommen hat,
weil man nun nicht mehr nur den eigentlichen Sachverhalt, sondern
auch noch die Bewertung der Details durch eine KI nachvollziehen
und bewerten muss.
Und weitere Probleme:
- Wer erstellt das juristische Material, mit dem die KI trainiert
wird? Woher weiß man, dass es nur korrekte Bewertungen enthält,
wenn das Ausgangsproblem doch war, dass Menschen das nicht gut
können und sich uneins sind?
- Wer stellt sicher, dass die Tech-Leute das juristische Material
auch korrekt nutzen?
- Wenn die KI erstmal angelernt ist und man Tests macht, wer legt
fest, dass sie korrekt funktioniert? Das geht ja nur wieder,
indem ein Mensch das beurteilt. Aber genau das war ja Dein
Ausgangsproblem, dass das nicht zuverlässig geht.
- In welcher Weise wird eine Richter-KI mit den Fakten zum Fall
gefüttert? Wie stellt man sicher, dass man nicht durch die Art
der Aufbereitung der Daten die KI unzulässig beeinflusst.
Ich könnte jetzt hier noch zig weitere Punkte anführen. Was Du erhoffst, hat nichts mit der Realität zu tun. Und das Leben ist wesentlich komplizierter als Deine Ausgangsannahmen.
Antworten auf diesen Eintrag:
- Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande - Nietzsche, 16.06.2019, 01:58
gesamter Thread:
- Neu auf schwatzgelb.de: Der Prozess am Amtsgericht Sinsheim aus Sicht eines Angeklagten -
Redaktion schwatzgelb.de,
14.06.2019, 20:15
- Neu auf schwatzgelb.de -
Textmarker,
14.06.2019, 23:16
- Neu auf schwatzgelb.de - MarcBVB, 15.06.2019, 15:43
- Neu auf schwatzgelb.de - Wallone, 15.06.2019, 12:02
- Neu auf schwatzgelb.de - Daniel_nette, 15.06.2019, 11:45
- Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande -
hardbreak,
15.06.2019, 02:52
- Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande -
Nietzsche,
15.06.2019, 12:03
- Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande -
hardbreak,
15.06.2019, 16:49
- Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande - Nietzsche, 16.06.2019, 01:58
- Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande -
hardbreak,
15.06.2019, 16:49
- Das Problem sind die Menschen man denke nur an Gustl Mollath und viele ande -
Nietzsche,
15.06.2019, 12:03
- Macht man halt einfach nicht -
quincy123,
14.06.2019, 22:14
- Macht man halt einfach nicht -
Nietzsche,
14.06.2019, 23:51
- Macht man halt einfach nicht -
quincy123,
15.06.2019, 01:25
- Macht man halt einfach nicht - Nietzsche, 15.06.2019, 11:58
- Macht man halt einfach nicht -
Paolo,
15.06.2019, 09:02
- Macht man halt einfach nicht - quincy123, 15.06.2019, 12:29
- Macht man halt einfach nicht -
quincy123,
15.06.2019, 01:25
- Macht man halt einfach nicht -
Torwartfehler,
14.06.2019, 22:30
- Macht man halt einfach nicht -
quincy123,
14.06.2019, 22:35
- Macht man halt einfach nicht -
Sascha,
15.06.2019, 08:53
- Macht man halt einfach nicht - quincy123, 15.06.2019, 12:37
- Macht man halt einfach nicht -
Sascha,
15.06.2019, 08:53
- Macht man halt einfach nicht - Bügeleisen im Schuh, 14.06.2019, 22:34
- Macht man halt einfach nicht -
quincy123,
14.06.2019, 22:35
- Macht man halt einfach nicht -
Nietzsche,
14.06.2019, 23:51
- Neu auf schwatzgelb.de -
Textmarker,
14.06.2019, 23:16