Kurz: wie gehen wir mit dem Werkzeug ChatGPT/Bard/Copilot um? Die Diskussion wurde im Moderatorenbereich bereits angestoßen, wir haben da einige Meinungen gesammelt, auch im Forum gab es einige Meinungsäußerungen (nachdem jemand die Initiative ergriffen hat und alte Antworten mit ChatGPT beantwortet hat, und nach Beschwerde einfach die Quellenmarkierung entfernte...).
Bisherige Diskussions-Threads:
viewtopic.php?t=188638 Woran erkennt man einen von einer KI geschriebenen Beitrag
viewtopic.php?t=188645 KI - Chancen oder Risiken, Fluch oder Segen?
Der neueste Fall von "ich helfe mit KI":
viewtopic.php?t=188733 Empfang von autoreply automatisch ablehnen [EXIM] (das ich hierhin umleite)
Und da haben wir schon ein paar Ansichten und Geschehnisse in einem ThreadSADekay hat geschrieben:03.01.2024 15:55:59Bei diesem Thema bin ich auch nicht so wirklich schlau, ob man dies wirklich nutzen sollte. Da es doch noch extreme Fehler mit sich bringt.fischig hat geschrieben:02.01.2024 20:14:45Die Diskussion darum, wie wir mit Antworten von ChatGPT verfahren, ist zwar noch offen, aber eine Kennzeichnung wäre wohl das mindeste, analog zu einer Quellenangabe - wenn man etwas offensichtlich nicht selbst erbracht hat.
Alles andere ist in meinem Verständis weiter nichts als ein böswilliges Plagiat und Grund, den Benutzer zu sperren.
- Heins (seines Zeichens Neuling im dfde, zumindest dem Postcounter und Registrierungsdatum nach, hat also vielleicht die bisherigen Diskussionen nicht mitbekommen oder bewusst einen neuen Account erstellt, um seine Reputation nicht zu beschädigen) beantwortete die Frage mit ChatGPT (relativ offensichtlich, dem Stil nach - zumindest für jemanden, der es kennt). Und seine Antwort nicht also solche kennzeichnet. Akut ist da auch ein Spamverdacht aufgrund der IP, aber das kann auch ein Proxy gewesen sein. Ich würde das aber dennoch als Paradebeispiel stehen lassen, auch wenn der User möglicherweise kein Feedback gibt.
- fischig, der das Werkzeug nicht im Forum haben möchte (nicht, dass er damit allein steht, KP97 hat sich dem direkt angeschlossen)
- SADekay, der darüber lieber noch eine Runde beraten wollte, bevor er eine Entscheidung trifft
- der fiese Moderator, der den Beitrag (nach einem Hinweis) als das markiert hat, was er ist - aber sonst die Kirche im Dorf gelassen hat.
Meine Meinung:
(tl;dr: ich mag keine Hexenjagd auf "KI"-Anwender, bin aber nicht auf Durchzug getrimmt bei der Anwendung und möchte, dass Besucher wie SADekay wissen, wer und was ihnen antwortet).
1. Large Language Models können hilfreich sein, ähnlich wie große Suchmaschinen hilfreich sind, weil sie eine große Datenbasis effizient durchsuchen können (aber: in, out - bei LLM gilt das noch viel mehr als bei Suchmaschinen)
2. Wir sollten lernen, dieses Werkzeug zu verstehen/einschätzen zu können und unseren Verstand weiterhin benutzen. Ich verwende ja auch nicht das Werkzeug "Forum", um im debianforum.de nach der besten Distribution zu fragen (oder doch?). Dazu ist es aber wichtig, ...
3. Die Beiträge eines LLM sind möglicherweise nicht "urheberrechtlich geschützt", wobei es mir im Folgenden nicht um irgendeine Rechtsverbindlichkeit geht, sondern um die Nachvollziehbarkeit: man sollte die Erkenntnisse aus einem LLM als solche erkennen können.
4. Vertrauenswürdigkeit/Einschätzbarkeit: bei dem vergleichbaren Werkzeug "Suchmaschine" komme ich immer wieder auf eine Quelle - offizielle Dokumentation, Paper, blog-Einträge, Forendiskussionen, ... und der erfahrene Web-Anwender weiß, ob er sich mit seiner Frage nach dem besten Tortenguss lieber bei Dr. Oetker, einer bekannten Seite mit redaktionellem Inhalt oder einem Forum informiert (oder allem!), und wie vertrauenswürdig diese Informationen sind.
5. (Fast eher eine Begründung für 3.) "Halluzinationen": LLMs neigen zum "halluzinieren" von Inhalten, wenn die Informationen in der Datenbasis nur spärlich sind (das weiß ich nicht aus der Theorie, sondern der Praxis), und sind entgegen der Kennzeichnung "KI" durch die Medien alles andere als intelligent, und nicht fähig zu logischen Schlussfolgerungen. Das ist in der Tiefe eher etwas für den philosophischen Thread oben (#2), aber man muss davon ausgehen, dass die Antwort (obwohl sie völlig stimmig klingt, zumindest für themenfremde Leser) erfundener Unfug ist. Um (Rufmord abzuwenden und) Schäden zu vermeiden, inkludiert das Sprachmodell bei sensitiven Themen eine Warnung (und ist oft bei direkter Nachfrage eher nicht hilfreich, als zu erklären, wie man Schwarzpulver herstellt). Welche Themen das sind, kontrolliert aber OpenAI.
Habt bitte Nachsicht, dass ich die bisherigen Threads nicht zusammenfasse. Mein Ziel ist, dass am Ende dieses Threads etwas herauskommt, dem feltel zustimmen kann (oder sich zumindest eine Meinung bilden kann, was denn das Forum möchte), sodass wir da zu einem Entschluss kommen. Bleibt bitte freundlich miteinander, auch wenn die Meinungen divergieren. Ein Stimmungbild ist wichtiger als dass jemand am Ende "Recht" behält.