Ich werde in Zukunft die ganzen kommerziellen "AI"-Plattformen (ChatGPT, Grok, Gemini, etc.) als "ManaaS" (#Mansplaning as a Service) bezeichnen.

Die erklären aus dem Brustton der Überzeugung Dinge, von denen sie absolut keine Ahnung haben und erfinden "Fakten", wenn es ihnen in den Kram passt.
Selbst wenn sie erwischt werden, machen sie mit einem "anyway ..." einfach weiter und sind vollkommen von sich und ihrer Überlegenheit überzeugt.

Also: #AI = #ManaaS (Mansplaining as a Service)

in reply to 分 Bifurkatus

@dichotomiker Dem entnehme ich, dass du der Meinung bist, durch Prompt-Engineering bestehe die Möglichkeit, den sogenannten KIs das Faktenerfinden ausgetrieben werden könnte.

Das lässt zwei Schlüsse zu:
1. Die Betreiber lassen es explizit und bewusst zu, dass ihre Systeme fantasieren. (Das wäre zumindest bedenklich.)
2. Es ist nicht möglich, sonst würde das ja bei der Konfiguration bereits umsetzbar sein.

in reply to Thoralf Will 🇺🇦🇮🇱🇹🇼

1. Betreiber lassen sie fantasieren, betreiben aber auch Trainings um fatale Antworten zu vermeiden wenn es bspw. um Straftaten geht.
2. Es besteht offenbar am Meisten Bedarf an konkreten Antworten. Wenn du relativierende, unsichere Antworten willst, kannst du das verlangen.

Die Frage ist, ist Irren männlich? Gibt es unter Frauen keine Gerüchteküchen? Müssen wir mit KI Geschlechterklischees reproduzieren oder geht es auch mal ohne, jetzt wo der Golem geschlechtsneutral ist?

This entry was edited (6 months ago)
in reply to 分 Bifurkatus

@dichotomiker Ich habe noch keine sogenannte "KI" gesehen, die einigermaßen verlässlich nützliche Antworten liefert, ohne dass man sehr viel Energie in das Prompt Engineering investiert oder triviale Fragen stellt.

Und selbst wenn man explizit verlangt, dass sie keine Fantasieantworten geben, besteht eine signifikante Gefahr, dass sie es doch tun.

Mansplaining ist evident ein vorwiegend männliches Problem.

in reply to Thoralf Will 🇺🇦🇮🇱🇹🇼

Mansplaining kann per Definition nur ein männliches Problem sein. Also keines von KI.

Wenn du Fantasieantworten erwartest, solltest du LLMs nicht ernsthaft befragen. Explizit einen Funktionsumfang zu Verlangen, funktioniert bei LLMs nicht.

Das Umformulieren von Texten und das Wiedergeben von weit verbreiteten Stereotypen und Vorstellungen funktioniert gut. Perplexity.ai tut auch ganz gut, was Fakten angeht, weil sie nur Quellzitate von ausgewählten Suchergebnissen umformulieren.

This entry was edited (6 months ago)
in reply to 分 Bifurkatus

@dichotomiker LLMs sind von Menschen trainiert, auf Basis von Texten, etc. von Menschen.
Es spiegelt also in gewisser Weise die Gesellschaft wieder. Entsprechend spiegelt es auch hier die Verhaltensweisen wieder.

Tatsächlich ist auch Perplexity ziemlich gut darin, im Zweifel einfach "Fakten" zu erfinden oder die Quellen einfach falsch zuzuordnen bzw. falsch zu interpretieren bzw. Kontextfehler zu machen.

in reply to Thoralf Will 🇺🇦🇮🇱🇹🇼

@dichotomiker Konkretes Beispiel für Perplexity:
"Gib mir eine Liste der 100 bedeutensten Frauen der Geschichte."
<Liste mit 100 Frauen>
Nachfrage: "100 weitere"
<Liste mit 100 Frauen>

Sieht auf den ersten Blick gut aus. Auf den zweiten Blick sieht man beispielsweise, dass Namen doppelt auftauchen.

Spielt man das Spiel weiter, werden die Fehler immer eklatanter.

in reply to Thoralf Will 🇺🇦🇮🇱🇹🇼

Ja, nach unserem Gespräch ein ebenso blödsinniges Beispiel. Überhöhte Erwartungen und zwei Männer, die mansplainen.

Der eine will nicht wahrhaben, dass die Hochstapelei im Mansplaining von überhöhten Erwartungen herrührt, und der andere erwartet, dass einer der Mansplaining vorwirft, reflektierter ist, als er es von der KI verlangt.

in reply to 分 Bifurkatus

@dichotomiker Ist es tatsächlich eine überhöhte Erwartung, wenn eine als "KI" bezeichnete Lösung absolut triviale und eindeutige Fragen nicht richtig beantworten kann, weil es tatsächlich eben nicht intelligent ist, sondern eigentlich strunzdumm, da es im Grunde nur ein glorifiziertes Patternmatching mit einem Stall voller Regeln ausführt?

Und da die Regeln (vorwiegend) von Männern aus einer patriarchalen Welt stammen, funktionieren sie auch so.

in reply to Thoralf Will 🇺🇦🇮🇱🇹🇼

Wie patriarchisch ist es, von einer Maschine wie von einer Frau behandelt werden zu wollen, wenn man sie wie einen Soldaten behandelt?

Du meinst, das Hochstapeln käme vom Training der KI. Ich sage, es kommt auch vom "Training" des Nutzers. Bisher wurden Maschinen wie Soldaten gebaut, damit sie gehorchend mit Befehlen umgehen können. Das ist bei LLMs offensichtlich anders.

Unknown parent

@herzmut Mansplaining ist eine vorwiegend männliche Eigenschaft.
Das ist in meinen Augen evident.

Unsere patriarchale Gesellschalschaft fördert das auch sehr direkt.

Kannst du aber gern mit den Betroffenen diskutieren (üblicherweise Frauen).
Ich bin ja eher auf der Seiten der Täter zu finden und frage mich auch hier gerade, ob ich nicht schon wieder an der Grenze des Mansplaining schramme.