Umgang mit ChatGPT und co im dfde

Schreibt hier die Funktionen, Kategorien und Themen rein, die euch momentan hier noch fehlen.
Antworten
Benutzeravatar
heisenberg
Beiträge: 4123
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

Re: Umgang mit ChatGPT und co im dfde

Beitrag von heisenberg » 09.01.2024 17:33:22

Zum Thema juristische Probleme bzgl. ungeklärter Inhalte von LLVM-Ergebnissen:

Hier finde ich die Wahrscheinlichkeit, dass da problematische Situationen eintreten können als absolut gering an, aus diesen Gründen:
  • Die Betreiber haben genau das gleiche Problem: Sie werten urheberrechtlich geschütztes Material aus. Eine indirekte Urheberrechtsverletzung durch Inhalte von Inhabern nach "Transformation" von *GPT nachzuweisen zu wollen, scheint mir unrealistisch.
  • Die Verbreitung ist weltweit und umfassend. Ein Klageweg gegen X Millionen Rechtssubjekte scheint mir nicht vielversprechend.
  • Ein Element der Entwicklung ist ja auch die Auswertung der Nutzung. Beschränken die Anbieter die Nutzung, nehmen Sie sich selbst eine wichtige Unterstützung.
Falls das doch in die Richtung gehen sollte, wird man das in den Medien mitkriegen.

Desweiteren ist das Forum bereits jetzt mit betreffenden Inhalten durchsetzt, was bereits aktuell schwierig sein dürfte diese Elemente zu filtern.
Zuletzt geändert von heisenberg am 09.01.2024 20:27:13, insgesamt 3-mal geändert.

Benutzeravatar
mn77de
Beiträge: 186
Registriert: 23.11.2003 16:53:53
Wohnort: Übersee
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von mn77de » 09.01.2024 17:34:49

Vielleicht noch etwas generelles, das man vielleicht unterscheiden muss:
  1. Einerseits muss es klare Grenzen geben, klare Regeln und auch Konsequenzen, damit nicht alles drunter und drüber läuft. :arrow: Forenregeln
  2. Andererseits ist sicherlich auch eine Richtlinie gut, welcher "Ton" im Forum gepflegt wird, was wichtig und was möglichst zu unterlassen ist. :arrow: Knigge
Debian stable, AwesomeWM, Mate, Helix, LF, Git, Java, Xemy, JayMo, ...
OpenSource! :THX:

hec_tech
Beiträge: 1094
Registriert: 28.06.2007 21:49:36
Wohnort: Wien
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von hec_tech » 09.01.2024 18:41:25

Ich setze ChatGPT usw auch gerne für manche Problemstellung ein.
Allerdings kann das jeder selbst machen - in einem Forum erwarte ich mir Antworten von Menschen.

Alternativ sollten KI Antworten als solche markiert werden.

Die Frage die ich mir stelle ist ob wir in Zukunft noch die Möglichkeit haben zu unterscheiden ob ein Mensch oder eine KI eine Antwort verfasst hat.

Was machen wir aber mit Antworten die einfach nur Bullshit sind - auch das kann von KI generiert werden?

Benutzeravatar
TRex
Moderator
Beiträge: 8314
Registriert: 23.11.2006 12:23:54
Wohnort: KA

Re: Umgang mit ChatGPT und co im dfde

Beitrag von TRex » 09.01.2024 18:56:17

Denkt doch auch mal an die anderen Faktoren, wenn ihr euch über noch nicht geschriebene Beiträge unterhaltet.

1. Warum entscheidet sich jemand auf einen Thread zu antworten? (initiale Motivation)
2. Welche Erwartungshaltungen kann derjenige auf seinen Beitrag annehmen?
3. Was möchte derjenige mit seinem Beitrag erreichen? (sonstige Motivation: Selbstbild, Altruismus, Ruhm und Ehre)

Ich gehe doch nicht nüchtern in nen Thread, wo ich quasi gar nichts beizutragen habe und quatsche irgendeinen Unsinn? Wenn ich das doch tue, dann vermutlich, weil ich Aufmerksamkeit brauche (Spam, Defizit, ...). Reflektiert doch mal, über welche Beispiele ihr hier redet, wie wahrscheinlich das ist oder was dafür/dagegen spricht.

Beispiel viewtopic.php?p=1348609#p1348609: ich verstehe die Motivation nicht zur Gänze, aber es war nicht böswillig oder komplett stumpf (anders als beim EXIM-Thread). Warum debmatrix sich jetzt aber dazu gemüßigt gefühlt hat hier zu antworten, fühlt sich wie ein Nischenfall an: Techdemo? Alte Fragen aufräumen, indem man sie beantwortet? In der Regel wird man das nicht tun.
Valide und wahrscheinlicher wäre für mich die Frage eines Users, wie man in GNOME irgendetwas einstellt - da wäre die Antwort von GPT vermutlich ausführlich, vielleicht korrekt und somit hilfreich. Aber ich kann, ob markiert oder nicht, nichts über die Verlässlichkeit der Information sagen, aber wenn ChatGPT dran steht, nehme ich einen so ausfomulierten Beitrag nicht mehr ganz so für bare Münze wie wenn mir z.B. dasebastian "direkt" geantwortet hätte.
Jesus saves. Buddha does incremental backups.
Windows ist doof, Linux funktioniert nichtDon't break debian!Wie man widerspricht

katzenfan
Beiträge: 645
Registriert: 19.04.2008 22:59:51

Re: Umgang mit ChatGPT und co im dfde

Beitrag von katzenfan » 10.01.2024 12:21:00

Fall es jemanden hier interessiert; thematisch sollte es noch passen?

Kommission veröffentlicht Aufforderungen zur Einreichung von Beiträgen zum Wettbewerb in den Bereichen virtuelle Welten und generative KI
https://ec.europa.eu/commission/pressco ... e/ip_24_85
Alle interessierten Interessenträger werden gebeten, ihre Erfahrungen und Einschätzungen zum Wettbewerb in Bezug auf virtuelle Welten und generative KI mitzuteilen sowie Vorschläge zu übermitteln, wie das Wettbewerbsrecht zum Schutz des Wettbewerbs auf diesen neuen Märkten beitragen kann. Die Europäische Kommission wird alle im Rahmen der beiden Aufforderungen eingehenden Beiträge sorgfältig analysieren. Anschließend wird sie möglicherweise im zweiten Quartal 2024 einen Workshop veranstalten, bei dem die wesentlichen Elemente aus den Beiträgen dargelegt und die entsprechenden Fragen näher erörtert werden.

reox
Beiträge: 2515
Registriert: 06.06.2006 22:09:47
Lizenz eigener Beiträge: MIT Lizenz

Re: Umgang mit ChatGPT und co im dfde

Beitrag von reox » 10.01.2024 14:58:50

Meillo hat geschrieben: ↑ zum Beitrag ↑
09.01.2024 11:02:40
@reox: Das waren nun aber noch keine Gruende, warum das Posten von Beitraegen, die aus nichts als einem KI-Zitat bestehen, gut sein sollen.

Im Gegensatz zum Zitieren von Manpages, Websites und Co., wo man dem zitierten Text gemeinhin auch einen Kontext geben wird, motivieren KI-Antworten dazu, sie einfach nur hinzuklatschen. (Das bietet dann auch keinen Mehrwert dem gegenueber, dass die fragende Person die KI selbst verwendet.)

Mir geht es also speziell um Gruende und Anwendungsfaelle, wo es sinnvoll sein koennte, alleinig eine zitierte KI-Antwort zu posten.
Ok ja, ich verstehe deinen Punkt. Ich denke, dass wir hier von zwei verschiedenen Dingen reden: 1) ist es grundsätzlich sinnvoll 2) ist es derzeit sinnvoll.
Ich finde grundsätzlich nämlich, dass es keinen Unterschied machen sollte woher eine Information kommt. Wie gesagt, auch ein Fachbuch kann Blödsinn beinhalten, aber die Wahrscheinlichkeit ist geringer und daher ist die Quelle vertrauenswürdiger. Deswegen wird eine Quelle ja auch angegeben.

Dieser Punkt ist nun natürlich valide:
hikaru hat geschrieben: ↑ zum Beitrag ↑
09.01.2024 10:57:37
Genau das ist bei einer KI anders. Die kann ohne Mühe(!) eine gut aussehende(!) Antwort halluzinieren.
Deshalb 2): Ich denke, dass KI (noch) nicht reif genug ist für den Einsatz als Erklärmaschine. Mein Bauchgefühl ist, dass in ein paar Jahren die KI auch mit Belegen begründen kann oder sagt "weiß ich nicht". Das ist sicherlich technisch nicht ganz einfach, aber ich vermute Mal möglich.
Meillo hat geschrieben: ↑ zum Beitrag ↑
09.01.2024 11:02:40
Wenn Posts nur aus Manpagezitaten oder nur aus einem Shellbefehl oder Kommentar bestehen, dann finde ich das auch derzeit unhoeflich und wenig hilfreich. Bloss ist das derzeit die Ausnahme. Beim bisherigen Einfluss der KI auf das Forum ist es eher der Normalfall. Darum muss das IMO unterschiedlich bewertet werden. (Zudem kommt das von hikaru vertretene Problem des Bewertungsaufwands dazu.)
Ich hab jetzt nicht so den Überblick wie viele Posts hier ausschließlich KI Antworten beinhalten, aber es erscheint mir zumindest logisch, dass dem so ist. Klar, das ist sehr einfach zu machen, ergibt eine schöne Form etc.
Also ja, ich kann auch hier den Grund verstehen wieso man es nicht erlauben will. Ich denke man könnte es so zusammenfassen, dass es aus technischer Sicht keinen Grund gibt (technisch gesehen ein Zitat) aber aus Foren-Etiquette schon, nämlich das es unhöflich ist eine KI antworten zu lassen. Hab ich das richtig interpretiert?

niemand
Beiträge: 749
Registriert: 22.12.2023 16:35:53
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von niemand » 10.01.2024 15:41:08

Meillo hat geschrieben: ↑ zum Beitrag ↑
09.01.2024 11:02:40
Wenn Posts nur aus Manpagezitaten oder nur aus einem Shellbefehl oder Kommentar bestehen, dann finde ich das auch derzeit unhoeflich und wenig hilfreich.
Als Betroffener, der auch mal einfach einen (getesteten) Befehlsaufruf hinschreibt: das wäre doch wieder ein sinnvoller Einsatz der LLM? „DebGPT, schreibe mir eine hübsche Geschichte um ›programm --option1=x --option2=y -i infile -o outfile‹!“
„I fought in the Vim-Emacs-War.“ Quelle

Benutzeravatar
Meillo
Moderator
Beiträge: 9224
Registriert: 21.06.2005 14:55:06
Wohnort: Balmora
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von Meillo » 10.01.2024 16:26:04

Du hast die Sarkasmus-Tags vergessen ...
Use ed once in a while!

niemand
Beiträge: 749
Registriert: 22.12.2023 16:35:53
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von niemand » 10.01.2024 16:56:32

Jain … zwar würde ich das nun nicht wirklich machen, allerdings weiß ich auch nicht, was an einem Einzeiler als Antwort verkehrt sein soll, wenn damit die Frage beantwortet oder das Problem gelöst wird.
„I fought in the Vim-Emacs-War.“ Quelle

Benutzeravatar
Meillo
Moderator
Beiträge: 9224
Registriert: 21.06.2005 14:55:06
Wohnort: Balmora
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von Meillo » 10.01.2024 17:26:04

niemand hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 16:56:32
[...] allerdings weiß ich auch nicht, was an einem Einzeiler als Antwort verkehrt sein soll, wenn damit die Frage beantwortet oder das Problem gelöst wird.
Wie schon weiter oben beschrieben, ist das Problem, dass fuer die lesende Person viele Fragen offen bleiben, die dir als antwortende Person klar sind.

Wenn ich ein reines Zitat lese, dann sind fuer mich u.a. diese Fragen offen:
- Ist das nur geraten oder getestet?
- Bist du dir sicher und kennst du dich damit aus, oder ist das ein Schnellschuss?
- Ist das die Loesung oder ein Hinweis?
- Was muss ich ggf. bedenken?
- Hast du mein Problem korrekt verstanden?

In einfachen Faellen, bei sehr konkreten Fragen kann ein einzelner Befehl ausreichen ... wobei auch das eine gewisse Unhoeflichkeit hat, denn das ist ja wie wenn jemand in einer Gruppe eine Frage stellt und jemand daraufhin nur ein Wort reinwirft oder oder der Personen kommentarlos eine kopierte Seite in die Hand drueckt. Ein zusaetzlicher Satz (wie: ``Probier's mal so:'' oder ``So geht es:'' oder ``Ich mache das so:'') ist in jedem Fall freundlicher und bestimmt keine Zeitverschwendung.

Ein unkommentierter Satz wird nur dann eine ausreichende Antwort sein, wenn die fragende Person in dem Thema fit ist und ihr nur die richtige Idee oder das passende Stichwort nicht einfaellt. Dann reicht die Inspiration, damit sie alles weitere selber kann. In den meisten Faellen fragen Personen aber dann wenn sie sich in einem Thema nicht gut auskennen. Folglich verstehen sie eine Antwort nicht so gut wie du als Antwortender, der du das Thema ueberblickst. (Man vergisst ja leicht, wie komplex ein Thema erschien, bevor man es durchdrungen hatte!) Aber stellst du sicher, dass die fragende Person deine kontextlose Antwort verstehen wird, wenn du sie postest ... oder gehst du nur davon aus, weil sie *fuer* *dich* selbsterklaerend ist?

Mir geht es nicht um jeden Einzelfall -- ich selber habe sicherlich auch das eine oder andere Mal nur einen Shellbefehl als Antwort gepostet -- sondern mir geht es um das grundsaetzliche Verstaendnis, warum ich Antworten, die aus einem reinen Zitat bestehen, schlecht finde.
Use ed once in a while!

niemand
Beiträge: 749
Registriert: 22.12.2023 16:35:53
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von niemand » 10.01.2024 17:36:57

Meillo hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 17:26:04
n einfachen Faellen, bei sehr konkreten Fragen kann ein einzelner Befehl ausreichen ... wobei auch das eine gewisse Unhoeflichkeit hat, denn das ist ja wie wenn jemand in einer Gruppe eine Frage stellt und jemand daraufhin nur ein Wort reinwirft oder oder der Personen kommentarlos eine kopierte Seite in die Hand drueckt.
Sag’ ich ja: wenn die eigentliche Antwort von mir selbst kommt, aber aufgrund für mich wenig nachvollziehbarer Konventionen zusätzlich informationsloser Fülltext erwartet wird, kann ich diesen ja auch vom LLM erstellen lassen. Da ist’s dann egal, ob das Ding an einer Stelle seiner stochastischen Kette falsch abbiegt und „halluziniert“, weil die relevante Info ja von mir kommt. Es muss nur ausreichend freundlich wirken (womit DeppGPT leider rausfällt), und das kann ich beim Überfliegen sicherstellen. Vielleicht kann man’s gar ins Forum einbinden, sodass ein Klick auf einen Button genügt, und der Beitrag wird in genehmem Maß aufgepolstert (und entsprechend gekennzeichnet, selbstverständlich)?

Gut, ist nun nicht ganz ernst gemeint. Aber ganz aus der Luft gegriffen halt auch nicht …
„I fought in the Vim-Emacs-War.“ Quelle

Benutzeravatar
heisenberg
Beiträge: 4123
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

Re: Umgang mit ChatGPT und co im dfde

Beitrag von heisenberg » 10.01.2024 19:53:19

Meillo hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 17:26:04
Wie schon weiter oben beschrieben, ist das Problem, dass fuer die lesende Person viele Fragen offen bleiben, die dir als antwortende Person klar sind.

Wenn ich ein reines Zitat lese, dann sind fuer mich u.a. diese Fragen offen:

- Ist das nur geraten oder getestet?
- Bist du dir sicher und kennst du dich damit aus, oder ist das ein Schnellschuss?
- Ist das die Loesung oder ein Hinweis?
- Was muss ich ggf. bedenken?
- Hast du mein Problem korrekt verstanden?
Ich stimme zu. Es wäre schöner, wenn alle Fragen geklärt würden. Die Frage, die ich stelle, ist aber nicht: Ist eine perfekte oder von einem Menschen formulierte Antwort besser als eine reine LLM-Antwort. Die Frage, die ich mir stelle, ist: Ist eine reine LLM-Antwort nicht nur schlecht, sondern immer genau absolut überhaupt nichts Wert? Wäre letzteres der Fall, würde ich sie verbieten - sonst nicht; und ich finde das trifft nicht zu. Und selbst wenn eine LLM-Antwort falsch sein sollte, dann motiviert sie den TE möglicherweise dazu, diese Antwort auszuprobieren und vielleicht auch an dem erhaltenen Fehler zu arbeiten - kurz: sich mehr mit der Aufgabe zu beschäftigen. Das finde ich gut. Ebenso erlangt die Person dann sowohl sofort als auch mit der Zeit die Erkenntnis, das und auf welche Art LLM-Antworten unzureichend oder oftmals auch falsch sein können und erlangt Kompetenz bei der Nutzung. Das finde ich auch gut.
wobei auch das eine gewisse Unhoeflichkeit hat, denn das ist ja wie wenn jemand in einer Gruppe eine Frage stellt und jemand daraufhin nur ein Wort reinwirft oder oder der Personen kommentarlos eine kopierte Seite in die Hand drueckt.
Ja. Ich kann verstehen, dass Du das als unhöflich wertest und im Sinne es Dialoges wünscht, dass man sich in selbst formulierten Worten unterhält. Trotzdem würde ICH die Wertung Unhöflichkeit hier nicht nutzen. Ich finde es gar nicht unhöflich, wenn jemand sich die - wenn gleich sehr geringe - Mühe macht, eine Frage bei einer LLM einzukippen und mir die Antwort präsentiert. Wenn ich mich bzgl. der Höflichkeit entscheiden müsste, dann würde ich das eher als höflich werten.

----

Ein Grund gegen die LLM-Nutzung könnte sein, dass man sich durch LLM-Antworten das Forum mit fehlerhaften Vorschlägen zumüllt, die dann entsprechend per Suchmaschine verbreitet werden. Ich finde es schöner, wenn Suchmaschinen funktionierende Lösungen anzeigen. Hier wäre vielleicht die Frage, ob man solche Inhalte beobachtet um zu sehen, wie gravierend das Problem tatsächlich sein wird und schließlich entfernt, damit das nicht passiert. (bedeutet Zusatzaufwand).

----

Was mich selbst betrifft, so schreibe ich meist gewissenhaft und manuell meine Beiträge. Ich tue es nicht, wenn ich übermüdet bin und neben mir stehe, wenn ich sehr wenig Zeit habe, wenn absolute Trivialfragen gestellt werden oder wenn ich den Eindruck habe, dass der TE ein fauler Sack ist, der sich nicht die geringste Mühe gibt. Bei letzterem würde ich da erst mal einen Link oder ein LLM-Text hinknallen und wenn er den nicht liest, war's das für mich meistens.

Benutzeravatar
Meillo
Moderator
Beiträge: 9224
Registriert: 21.06.2005 14:55:06
Wohnort: Balmora
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von Meillo » 10.01.2024 20:16:48

niemand hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 17:36:57
Meillo hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 17:26:04
n einfachen Faellen, bei sehr konkreten Fragen kann ein einzelner Befehl ausreichen ... wobei auch das eine gewisse Unhoeflichkeit hat, denn das ist ja wie wenn jemand in einer Gruppe eine Frage stellt und jemand daraufhin nur ein Wort reinwirft oder oder der Personen kommentarlos eine kopierte Seite in die Hand drueckt.
Sag’ ich ja: wenn die eigentliche Antwort von mir selbst kommt, aber aufgrund für mich wenig nachvollziehbarer Konventionen zusätzlich informationsloser Fülltext erwartet wird, [...]
Du hast die Aussage meines Posts leider nicht verstanden.

Auch scheint dir entgangen zu sein, dass meine Beispiele keine inhaltslosen Floskeln sind, sondern relevante, informationstragende Begleitinformationen.
Use ed once in a while!

niemand
Beiträge: 749
Registriert: 22.12.2023 16:35:53
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von niemand » 10.01.2024 20:36:47

Meillo hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 20:16:48
Du hast die Aussage meines Posts leider nicht verstanden.
Das mag sein. Verstanden habe ich: du erwartest in jedem Fall zumindest irgendwelche Höflichkeitsfloskeln, von mir „informationsloser Fülltext“ genannt. Was meintest du stattdessen?
Meillo hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 20:16:48
Auch scheint dir entgangen zu sein, dass meine Beispiele keine inhaltslosen Floskeln sind, sondern relevante, informationstragende Begleitinformationen.
Entschuldige, das verstehe ich nicht.

Ich gehe hier mal von einer Frage wie: „Wie codiere ich mit Debianffmpeg einen Film von Format A in Format B um?“ aus – meine Antwort wäre ein Einzeiler, welche informationstragenden relevanten Begleitinformationen würden dir in diesem Fall fehlen? Möchtest du, dass man die verwendeten Optionen erklärt, also quasi die Manpage zitiert, die zudem jeder, der das Programm installiert hat, bei Interesse selbst aufrufen kann? Oder geht es halt doch um informationslosen Fülltext à la „Probier’s mal so: “?

Edit, Nachtrag: Dass eine Frage, die über das simple Beispiel oben hinausgeht, einer adäquaten Beantwortung bedarf, stelle ich nicht infrage. Nur, dass in jedem Fall Fülltext angebracht werden müsse. Wenn das aber doch so sein sollte, dann könnte man den in diesen Fällen auch von einem LLM erstellen lassen.
„I fought in the Vim-Emacs-War.“ Quelle

Benutzeravatar
Meillo
Moderator
Beiträge: 9224
Registriert: 21.06.2005 14:55:06
Wohnort: Balmora
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von Meillo » 10.01.2024 21:14:33

Auch wenn man es auf den ersten Blick vielleicht nicht wahrnimmt, so traegt jedes meiner Beispiele Informationen, die der Schreiber damit bewusst oder unbewusst transportiert.

``Probier's mal so:'' ... zeigt auf, dass es ein Vorschlag ist. Es ist nicht gesagt, dass es auf diese Weise funktionieren wird, aber in dieser Richtung kommt man vermutlich einen Schritt weiter.

- ``So geht es:'' ... zeigt auf, dass sich der Schreiber sicher ist, dass es so funktioniert. Ob es eine gute Loesung ist, ist offen.

- ``Ich mache das so:'' ... zeigt, dass diese Loesung aus der Praxis kommt, also erprobt ist. Zudem wird sie halbwegs praktikabel sein, wenn die antwortende Person das immer so macht.

Je nachdem welcher Einleitungssatz verwendet wird, bewerte ich den eigentlichen Inhalt unterschiedlich. Das ist daher eine relevante Information.

Ich verwende solche Formulierungen bewusst und nehme sie auch bewusst wahr. Fuer viele wird das moeglicherweise unbewusst passieren, aber dennoch wird damit Information transportiert ... selbst wenn es, wie in diesen Beispielen nur 3-4 Woerter sind!



Der Kern der Aussage meines Posts war aber das, was du nicht zitiert hast:
Meillo hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 17:26:04
Wie schon weiter oben beschrieben, ist das Problem, dass fuer die lesende Person viele Fragen offen bleiben, die dir als antwortende Person klar sind.

Wenn ich ein reines Zitat lese, dann sind fuer mich u.a. diese Fragen offen:
- Ist das nur geraten oder getestet?
- Bist du dir sicher und kennst du dich damit aus, oder ist das ein Schnellschuss?
- Ist das die Loesung oder ein Hinweis?
- Was muss ich ggf. bedenken?
- Hast du mein Problem korrekt verstanden?

[...]

Ein unkommentierter Satz wird nur dann eine ausreichende Antwort sein, wenn die fragende Person in dem Thema fit ist und ihr nur die richtige Idee oder das passende Stichwort nicht einfaellt. Dann reicht die Inspiration, damit sie alles weitere selber kann. In den meisten Faellen fragen Personen aber dann wenn sie sich in einem Thema nicht gut auskennen. Folglich verstehen sie eine Antwort nicht so gut wie du als Antwortender, der du das Thema ueberblickst. (Man vergisst ja leicht, wie komplex ein Thema erschien, bevor man es durchdrungen hatte!) Aber stellst du sicher, dass die fragende Person deine kontextlose Antwort verstehen wird, wenn du sie postest ... oder gehst du nur davon aus, weil sie *fuer* *dich* selbsterklaerend ist?
Zwischenmenschliche Kommunikation ist schwierig ... oft wird nicht das verstanden, was gemeint ist ... umso mehr wenn die Kommunikationspartner aus unterschiedlichen Kontexten kommen, was in einem Internetforum ein ueblicher Fall ist (unterschiedliches Alter, unterschiedliche Bildung, unterschiedliche IT-Erfahrung, unterschiedliche Forenerfahrung, ...).

Auch auf den ersten Blick wenig inhaltsreiche Rahmeninformation hilft dabei, die eigentliche Information richtig verstehen zu koennen. Das muss keine Seite Text sein, aber es sollte doch ein gewisses Mass sein -- Neulingen gegenueber braucht es etwas mehr, Profis gegenueber reicht weniger. So wenige Woerter wie in meinen Beispielen machen schon einen Unterschied. Dadurch wird das Verstaendnis der eigentlichen Information erleichtert.

Inhaltslose Floskeln helfen dabei nicht weiter (die sind nur Nettigkeiten, die mir selbst beispielsweise auch nicht besonders wichtig sind), aber inhaltstragende Begleitsaetze sind etwas ganz anderes ... wie ich hoffentlich oben deutlich machen konnte.
Use ed once in a while!

Benutzeravatar
mn77de
Beiträge: 186
Registriert: 23.11.2003 16:53:53
Wohnort: Übersee
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von mn77de » 11.01.2024 09:42:39

Ich stimme @heisenberg da zu.

Würden LLM nicht irgendeinen Nutzen bieten, gäbe es sie vmtl. nicht.
LLM werden mit unendlich vielen Informationen gefüttert, welche somit sehr einfach abgefragt werden können. Eine kurze Frage kann einem eine umfassende Google-Recherche ersparen.
LLM sind aber definitiv nicht fehlerfrei und ja, ChatGPT ist manchmal sehr voreingenommen. :lol: Darum braucht es einen Menschen, der nochmal drüber schaut.
heisenberg hat geschrieben: ↑ zum Beitrag ↑
10.01.2024 19:53:19
Ja. Ich kann verstehen, dass Du das als unhöflich wertest und im Sinne es Dialoges wünscht, dass man sich in selbst formulierten Worten unterhält. Trotzdem würde ICH die Wertung Unhöflichkeit hier nicht nutzen. Ich finde es gar nicht unhöflich, wenn jemand sich die - wenn gleich sehr geringe - Mühe macht, eine Frage bei einer LLM einzukippen und mir die Antwort präsentiert.
Wie gesagt, man muss aus meiner Sicht unterscheiden:
  1. Einerseits gibt und braucht es klare Regeln, Grenzen die von jedem einzuhalten sind und ansonsten Konsequenzen nach sich ziehen.
    Hierzu gehört aus meiner Sicht, dass Quellen gekennzeichnet werden müssen. Tut dies jemand nicht, wird er darauf hingewiesen das zu korrigieren.
  2. Andererseits braucht es so etwas wie einen Knigge. Welchen Umgangston wünschen wir uns hier?
    Dies ist dann kein Gesetz, beeinflusst aber ebenso maßgeblich das gesamte Forum.
    "Erst Lesen und Suchen, dann Posten" ist hier eine gutes Beispiel.
Debian stable, AwesomeWM, Mate, Helix, LF, Git, Java, Xemy, JayMo, ...
OpenSource! :THX:

Benutzeravatar
whisper
Beiträge: 3373
Registriert: 23.09.2002 14:32:21
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von whisper » 11.01.2024 10:34:10

mn77de hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 09:42:39
I
LLM sind aber definitiv nicht fehlerfrei und ja, ChatGPT ist manchmal sehr voreingenommen. :lol: Darum braucht es einen Menschen, der nochmal drüber schaut.
Muss ich mich ja nochmal direkt melden.
Ich hatte vor Monaten entdeckt, dass GPT nicht versteht, was z.B. Gestern, Heute und Morgen ist.
Hier war es leicht zu entdecken.

Siehe viewtopic.php?t=187330
Also ja, ChatGPT schreibt sehr überzeugend, aber liegt leider manchmal total falsch.
Alter ist übrigens keine Ausrede, nur Erfahrung, die sich stapelt. 😉

reox
Beiträge: 2515
Registriert: 06.06.2006 22:09:47
Lizenz eigener Beiträge: MIT Lizenz

Re: Umgang mit ChatGPT und co im dfde

Beitrag von reox » 11.01.2024 10:53:56

whisper hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 10:34:10
Ich hatte vor Monaten entdeckt, dass GPT nicht versteht, was z.B. Gestern, Heute und Morgen ist.
Hier war es leicht zu entdecken.

Siehe viewtopic.php?t=187330
Also ja, ChatGPT schreibt sehr überzeugend, aber liegt leider manchmal total falsch.
Das ist halt ein Phänomen, welches sich nicht (oder noch nicht) durch Sprache abbilden lässt. Ähnlich ist das ja mit Mathe. die LLMs haben teilweise aus Beispielen gelernt das 1+2=3 ist. Fragt man dann nach 9+10 kommt Blödsinn, weil es das nicht in den Trainingsdaten hatte. Dann hat man größere Modelle gemacht und das interessante war, dass die Modelle plötzlich Additionen lösen konnten, die nicht in den Trainingsdaten waren. dH irgendwas hat das Modell dort tatsächlich gelernt, wie es mit Additionen umgehen muss. Es gab dazu ein Paper, aber ich finds nimmer... Offenbar heißt die Methode das zu Testen "Long Random Addition Test (LRAT)".
Ich kann mir vorstellen, dass ein LLM ebenfalls in der Lage ist Zeitdaten korrekt einzuordnen, wenn man es genügend und richtig trainiert. Eine andere Möglichkeit ist ja auch solche Prompts zu erkennen und an andere Tools weiterzugeben, zB Matheaufgaben direkt zu lösen.

tobo
Beiträge: 2335
Registriert: 10.12.2008 10:51:41

Re: Umgang mit ChatGPT und co im dfde

Beitrag von tobo » 11.01.2024 11:41:56

reox hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 10:53:56
Ähnlich ist das ja mit Mathe. die LLMs haben teilweise aus Beispielen gelernt das 1+2=3 ist. Fragt man dann nach 9+10 kommt Blödsinn, weil es das nicht in den Trainingsdaten hatte. Dann hat man größere Modelle gemacht und das interessante war, dass die Modelle plötzlich Additionen lösen konnten, die nicht in den Trainingsdaten waren. dH irgendwas hat das Modell dort tatsächlich gelernt, wie es mit Additionen umgehen muss.".
Anders als das hier schon behauptet wurde, kann die Funktionalität auch durch Updates wachsen:
Factuality and mathematical improvements (Jan 30, 2023)

We’ve upgraded the ChatGPT model with improved factuality and mathematical capabilities.

Benutzeravatar
mn77de
Beiträge: 186
Registriert: 23.11.2003 16:53:53
Wohnort: Übersee
Kontaktdaten:

Re: Umgang mit ChatGPT und co im dfde

Beitrag von mn77de » 11.01.2024 13:36:40

tobo hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 11:41:56
Anders als das hier schon behauptet wurde, kann die Funktionalität auch durch Updates wachsen:
Die KI-Geschichte wird sich weiter entwickeln, genau wie sich das Internet, PC's, Auto's, ... weiter entwickelt haben.
Ich denke bzgl. KI befinden wir uns, verglichen mit dem Internet, irgendwo in den 90er Jahren und dem Durchbruch des Internets: 14k-Modem, AOL, ... :lol:
Und wo stehen wir heute?
Debian stable, AwesomeWM, Mate, Helix, LF, Git, Java, Xemy, JayMo, ...
OpenSource! :THX:

fischig
Beiträge: 4115
Registriert: 24.12.2019 12:25:08
Lizenz eigener Beiträge: MIT Lizenz

Re: Umgang mit ChatGPT und co im dfde

Beitrag von fischig » 11.01.2024 16:20:33

Nicht ganz zum Thema passend:
Die KI-Geschichte wird sich weiter entwickeln,
Die KI-Geschichte wird sich derzeit gar nicht entwickeln. Wenn's mal soweit ist, dann gute Nacht. Aber die KI-Geschichte wird von Menschen weiter entwickelt. Das ist ein bedeutsamer Unterschied! Sollte man bedenken. Und da gibt's offenbar so manche, die's gerne sähen, wenn die KI-Geschichte sich weiterentwickelte.

reox
Beiträge: 2515
Registriert: 06.06.2006 22:09:47
Lizenz eigener Beiträge: MIT Lizenz

Re: Umgang mit ChatGPT und co im dfde

Beitrag von reox » 11.01.2024 16:55:07

fischig hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 16:20:33
Nicht ganz zum Thema passend:
Die KI-Geschichte wird sich weiter entwickeln,
Die KI-Geschichte wird sich derzeit gar nicht entwickeln. Wenn's mal soweit ist, dann gute Nacht. Aber die KI-Geschichte wird von Menschen weiter entwickelt. Das ist ein bedeutsamer Unterschied! Sollte man bedenken. Und da gibt's offenbar so manche, die's gerne sähen, wenn die KI-Geschichte sich weiterentwickelte.
Naja, das Zitat war unvollständig ;)
mn77de hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 13:36:40
genau wie sich das Internet, PC's, Auto's, ... weiter entwickelt haben.
Also streng genommen müsste es heißen "weiter entwickelt wurden".

Ganz abwegig ist es aber nicht, nachdem man zB mit neuronalen Netzen Hyperparametertuning von anderen Netzen machen kann. AI entwickelt also bereits AI weiter.
Ähnlich bei LLMs. Zum Alignment und Training verwendet man spezielle LLMs, welche bestimmte Aufgaben sehr gut lösen und trainiert mit denen die "generischen" LLMs.

Benutzeravatar
TRex
Moderator
Beiträge: 8314
Registriert: 23.11.2006 12:23:54
Wohnort: KA

Re: Umgang mit ChatGPT und co im dfde

Beitrag von TRex » 11.01.2024 17:43:15

reox hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 10:53:56
whisper hat geschrieben: ↑ zum Beitrag ↑
11.01.2024 10:34:10
Ich hatte vor Monaten entdeckt, dass GPT nicht versteht, was z.B. Gestern, Heute und Morgen ist.
Hier war es leicht zu entdecken.

Siehe viewtopic.php?t=187330
Also ja, ChatGPT schreibt sehr überzeugend, aber liegt leider manchmal total falsch.
Das ist halt ein Phänomen, welches sich nicht (oder noch nicht) durch Sprache abbilden lässt. Ähnlich ist das ja mit Mathe. die LLMs haben teilweise aus Beispielen gelernt das 1+2=3 ist. Fragt man dann nach 9+10 kommt Blödsinn, weil es das nicht in den Trainingsdaten hatte. Dann hat man größere Modelle gemacht und das interessante war, dass die Modelle plötzlich Additionen lösen konnten, die nicht in den Trainingsdaten waren. dH irgendwas hat das Modell dort tatsächlich gelernt, wie es mit Additionen umgehen muss. Es gab dazu ein Paper, aber ich finds nimmer... Offenbar heißt die Methode das zu Testen "Long Random Addition Test (LRAT)".
Ich kann mir vorstellen, dass ein LLM ebenfalls in der Lage ist Zeitdaten korrekt einzuordnen, wenn man es genügend und richtig trainiert. Eine andere Möglichkeit ist ja auch solche Prompts zu erkennen und an andere Tools weiterzugeben, zB Matheaufgaben direkt zu lösen.
Mit genug Daten zur Substitution lässt sich vieles lösen.
User hat geschrieben: was tut das?

Code: Alles auswählen

zgrep -i -E "commandline|end-date" /var/log/apt/history* | grep "full-upgrade" -A 1 | grep -v "^-" | awk '\''!(NR%2){print $0 " " p}{p=$0}'\'' | awk -F '\'' '\'' '\''{print $2 "; " $3 "; " $6}'\'' | sort
ChatGPT hat geschrieben:
Dieser Befehl durchsucht die APT-Verlaufsprotokolldateien auf einem Debian-basierten System nach Informationen zu "full-upgrade" Ereignissen. Der Befehl filtert Zeilen, die "commandline" oder "end-date" enthalten, und zeigt dann relevanten Informationen zu "full-upgrade" Ereignissen an, einschließlich Datum, Uhrzeit und Paketversionen. Schließlich werden die Ergebnisse sortiert.
Das ist näher an der Realität, als ich erwartet habe.
Jesus saves. Buddha does incremental backups.
Windows ist doof, Linux funktioniert nichtDon't break debian!Wie man widerspricht

Benutzeravatar
TRex
Moderator
Beiträge: 8314
Registriert: 23.11.2006 12:23:54
Wohnort: KA

Re: Umgang mit ChatGPT und co im dfde

Beitrag von TRex » 14.01.2024 12:33:42

Ich bin nicht ganz ohne Meinung zum Thema, darum hab ich jemand unbeteiligten gefragt (zumindest glaube ich das). Firmenzugang zu ChatGPT-32k war natürlich genauso hilfreich wie das vollständige Laden und Zurechtstutzen (auf Beitragskörper) und Anonymisieren des Threads mit JavaScript.
ChatGPT hat geschrieben: Nach Analyse des Threads kann ich folgende Schlussfolgerungen ziehen:

Die Diskussion dreht sich um den Umgang mit Beiträgen, die von KI-generierten Sprachmodellen wie ChatGPT, Bard oder Copilot erstellt wurden. Die Teilnehmer des Threads sind sich weitgehend einig, dass KI-generierte Beiträge gekennzeichnet werden sollten, ähnlich wie Quellenangaben bei zitierten Inhalten. Es gibt jedoch unterschiedliche Meinungen darüber, ob und in welchem Umfang KI-generierte Beiträge im Forum akzeptiert werden sollten.

Einige Teilnehmer sind der Meinung, dass KI-generierte Beiträge grundsätzlich nicht im Forum erlaubt sein sollten, da sie die Diskussionen verwässern könnten und potenziell irreführend oder ungenau sein können. Sie argumentieren, dass Foren für menschliche Interaktionen und Diskussionen gedacht sind und dass KI-generierte Beiträge dieses Prinzip untergraben könnten.

Andere Teilnehmer argumentieren, dass KI-generierte Beiträge nützlich sein könnten, insbesondere wenn sie als solche gekennzeichnet sind und von menschlichen Benutzern überprüft und bewertet wurden. Sie weisen darauf hin, dass KI-generierte Beiträge oft detailliertere und umfassendere Antworten liefern können als menschliche Benutzer, und dass sie daher einen Mehrwert bieten können.

Einige Teilnehmer haben auch Bedenken hinsichtlich der rechtlichen Aspekte von KI-generierten Beiträgen geäußert, insbesondere in Bezug auf Urheberrechtsfragen und die Verantwortlichkeit für die bereitgestellten Informationen.

Zusammenfassend lässt sich sagen, dass die Mehrheit der Teilnehmer der Meinung ist, dass KI-generierte Beiträge gekennzeichnet werden sollten und dass sie nur dann akzeptabel sind, wenn sie von menschlichen Benutzern überprüft und bewertet wurden. Es besteht jedoch keine Einigkeit darüber, ob KI-generierte Beiträge grundsätzlich im Forum erlaubt sein sollten oder nicht.
Toll, soweit war ich auch schon.
Jesus saves. Buddha does incremental backups.
Windows ist doof, Linux funktioniert nichtDon't break debian!Wie man widerspricht

Benutzeravatar
heisenberg
Beiträge: 4123
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

Re: Umgang mit ChatGPT und co im dfde

Beitrag von heisenberg » 14.01.2024 17:59:14

Wie wäre es, das unstrittige (LLM Ja, aber nur mit Kennzeichnung und mit Begleittext, Verbot undeklarierter LLM-Texte) erst einmal umzusetzen in den Regeln und "Knigge" und bzgl. des Themas, bei dem keine Einigkeit herrscht (LLM ohne Begleittext) ohne Verbot zu belassen und gleichzeitig in diesem Thread Fälle zu sammeln, die sich dazu ergeben? In einem Jahr dürfte es dann entweder genug Material geben, als Grundlage für eine Entscheidungsfindung oder wenn nicht, dann besteht kein Regelungsbedarf, weil Thema schlicht keine ausreichend relevanten Auswirkungen hat. Ggf. das Thema weiter in Beobachtung halten, um die Entscheidung zu überdenken.
Zuletzt geändert von heisenberg am 14.01.2024 20:06:23, insgesamt 1-mal geändert.

Antworten