
Korrektur: Solange nicht 100% bewiesen ist, dass eine Antwort eine KI-Antwort ist, kann man sie eigentlich nicht ahnden.
fischig hat geschrieben:15.01.2024 18:13:06So wie sich KI/lmm/was weiß ich für mich darstellt, geht's dabei nicht um Erkenntnisgewinn mittels KI, sondern um Geschäfte (ich bevorzuge den Terminus: Profite) mittels derselben. Sollten Forenbetreiber und Nutzer bedenken, die sich freier Software (und nicht nur dem Freibier) verpflichtet fühlen.
Mir ist nicht klar, wessen Gewinn ihr da gerade ansprecht - für die Betreiber ist das erst einmal eine Investition, die natürlich nicht dauerhaft im aktuellen Modus laufen kann und wird. Das hat aber auf diesen Thread nur moderat viel Einfluss - wenn ChatGPT zu 50% aus Werbebannern und injizierten Werbeinformationen besteht, dann wird das auch keiner mehr verwenden wollen (oder es greift unsere keine-Werbung-Klausel, wenn bei der Antwort auf die Interpretation einer iptables-Anweisung Haarshampoo beworben wird).reox hat geschrieben:15.01.2024 18:51:24Ich glaube, dass es aktuell weniger um Erkenntnisgewinn mittels KI sondern Erkenntnisgewinn im Bereich der KI geht. Zwei Paar Schuhe.
[...]
Auf der anderen Seite stehen hinter solchen Modellen große Firmen wie Alphabet, Meta, oder Microsoft und natürlich haben die eine Gewinnerzielungsabsicht...
[...]
Edit: Ich hab nochmal überlegt und mir fallen doch auch einige Fälle ein, bei denen KI Systeme tatsächlich Erkenntnisgewinn geliefert haben. Obiges bezog sich eher auf GPT und Konsorten.
Mir auch nicht, aber mir fällt auf, dass sich vor allem - wenn nicht ausschließlich - kommerziell arbeitende Firmen dafür interessieren, sofern sie KI nicht selbst aus Vermarktungsinteressen heraus entwickeln und das täten sie nicht, wenn sie sich davon keinen Gewinn versprächen - denke ich (Google wurde erwähnt, Zeitungsfirmen, chatGPT). Und heraus kommt dann: siehe TRex. Oder so herum: nichts Genaues weiß man nicht. Allgemeine Überprüfbarkeit (schien mir irgendwie ein Grundwert freier Software zu sein) der Aussagen - Fehlanzeige. Ist ja auch egal, so lange's niemand merkt und das Geschäft läuft.TRex hat geschrieben: Mir ist nicht klar, wessen Gewinn ihr da gerade ansprecht
Das stimmt. Da habe ich den zeitlichen Verlauf falsch wahrgenommen. Streiche: "Du hast meine Meinung ignoriert.". Setze: "Moment Mal! Ich bin anderer Meinung!".Meillo hat geschrieben:09.01.2024 08:46:24Zu dem Zeitpunkt, als ich das gepostet hatte, war dein Befuerworten fuer das Posten reiner KI-Antworten noch nicht so klar, wie du es spaeter gemacht hast. Da du das klargestellt hast, und es andere damit lesen konnten, habe ich das nicht mehr nachtraeglich in meinem Post editiert.heisenberg hat geschrieben:09.01.2024 01:16:33Ich bin ganz anderer Meinung. Gerade der minimale Aufwand, den es kostet, eine *GPT-Only-Antwort zu erzeugen, kann diese Imho attraktiv machen, um gerade Neulingen sehr detailliert, einen Sachverhalt zu erläutern zu lassen. Nachdem mein letzter Beitrag schon genau das aussagt, wundert es mich, dass Du einen Konsens benennst, der diese Meinung ignoriert.Meillo hat geschrieben:04.01.2024 14:55:352) Wir scheinen uns einig zu sein, dass *reine* KI-Antworten (also wenn der Post quasi nur aus der KI-Antwort besteht, auch wenn diese als solche gekennzeichnet ist) unerwuenscht sind. Die Tendenz scheint mir zu einem Verbot solcher Posts zu gehen. (-> Aufnahme in die Forenregeln.)
Ich hatte "Erkenntnisgewinn mittels KI" interpretiert als "Die KI zeigt und jetzt neue Dinge, die wir ohne nicht hätten finden können". Das passiert ja tatsächlich in bestimmten Bereichen (einfach mal nach "AI can design new protein" u.Ä. suchen) und ist vermutlich auch noch ganz am Anfang.TRex hat geschrieben:16.01.2024 12:46:02Mir ist nicht klar, wessen Gewinn ihr da gerade ansprecht - für die Betreiber ist das erst einmal eine Investition, die natürlich nicht dauerhaft im aktuellen Modus laufen kann und wird. Das hat aber auf diesen Thread nur moderat viel Einfluss - wenn ChatGPT zu 50% aus Werbebannern und injizierten Werbeinformationen besteht, dann wird das auch keiner mehr verwenden wollen (oder es greift unsere keine-Werbung-Klausel, wenn bei der Antwort auf die Interpretation einer iptables-Anweisung Haarshampoo beworben wird).
Ob das für Forscher etwas bringt? Weiß nicht, bin da eher skeptisch. Viel hilft viel, wie reox beschrieben hat. Effizienz und "Intelligenz"/Verständnis wären da IMHO die nächsten Ziele. Oder "Synthetic Sentience - Can Artificial Intelligence become conscious?" (37C3).
Für uns Anwender ist der Gewinn analog zu einer Suchmaschine - natürlich haben Google und Co eine Gewinnerzielungsabsicht, aber deswegen verbiete ich doch niemandem das Verwenden dieser Suchmaschine. Es kopiert halt auch keiner die Google Analytics Werbeblöcke mit in die Antwort![]()
dasebastian hat geschrieben:16.01.2024 16:40:16Bei den teilweise neutralen bis leicht positiven Sichtweisen zu KI*, ich muss mir damals als Kind anscheinend einen Dachschaden geholt haben, was Skynet betrifft. Das ist nämlich zuverlässig das erste, das sich mir aufdrängt, wenn ich an KI denke.
LLMs liefern keine qualitativ hochwertigen Antworten. Sie können Fachbegriffe mit Erklärungen liefern, die falsch oder richtig sind. Diese Fachbegriffe sind wichtig, um den Zugang zu einem Thema zu bekommen und sich dann in anderen Quellen mit neuer Kenntnis dieser wichtigen Fachbegriffe gezielter annähern zu können. Ich finde es wichtig, gewisse Fachbegriffe und Konzepte zu einem Thema erst einmal zu bekommen, um dann genauer suchen zu können. Gerade wenn es um eher theoretisches Wissen geht, was man so direkt nicht überprüfen kann, dann ist Überprüfung anhand zusätzlicher Quellen natürlich besonders wichtig. Die Bewertung muss sich der Fragende also anhand anderer Quellen selbst erarbeiten. Hilfreiche Hinweise, nach was er suchen muss, bekommt er von den LLMs. Das kann er bis zu einem gewissen Grad auch alleine.hikaru hat geschrieben:15.01.2024 09:44:41Das hatte ich tatsächlich missverstanden, ändert aber an meiner Antwort nichts. Eine komplexe Frage muss in ihrer Komplexität vom LLM auch korrekt erkannt werden, um eine qualitativ hochwertige Antwort liefern zu können. Komplex, also umfangreich und vielschichtig kann die Antwort unabhängig vom korrekten Verständnis sein. Der Fragende muss dann trotzdem bewerten, ob die Antwort korrekt ist, was genau die Kenntnisse voraussetzt die dem Fragenden fehlen.heisenberg hat geschrieben:14.01.2024 23:34:44Ich meinte die Komplexität auf der Frageseite (Mensch), nicht auf der der Antwort ($LLM).
Meine Einwürfe werden hier und da nicht (mit schriftlicher Quittierung/Beantwortung) zur Kenntnis genommen. Das ist manchmal in der Tat unangenehm. Manchmal kommentiere ich das. Aber einen Anspruch darauf, dass jemand spezifische Antworten gut findet, sie tatsächlich umsetzt, versteht, verstehen will, kommentiert, ... sehe ich da nicht.Kann ich mir das wirklich aussuchen? Ich denke, diese "Kultur" müssten wir erst entwickeln, dass jemand der gekennzeichnet aber unkommentiert einen KI-Text postet nicht erwarten kann, dass seine Antwort zur Kenntnis genommen wird.heisenberg hat geschrieben:14.01.2024 23:34:44Naja. Mit der Kennzeichnung entfällt das. Da steht dann "KI" als Autor und dann kann ich mir aussuchen, ob ich das lesen will oder nicht.
Den Begriff Rickrolling musste ich erst recherchieren. Und auch danach kann ich noch nicht nachvollziehen, was Du ausdrücken möchtest. Kannst Du das nochmal erklären, ohne den Begriff Rickrolling zu benutzen?Und ich denke, wir müssten selbst die Kennzeichnung formalisieren, so dass eine KI-Antwort auf den ersten Blick als solche erkenntlich ist. Sonst kommt es zu Rickrolling.
Diesen Fragen würde ich mich widmen, sobald entschieden ist, was erwünscht und was unerwünscht ist.Lohnt sich dafür möglicherweise ein eigener Quote-Tag? Falls ja, wie kriegen wir die Nutzer dazu, ihn konsequent zu nutzen?
Auch mit der Diskussion darüber würde ich abwarten, bis klar ist und verkündet wurde, was denn jetzt genau unerwünscht ist. Hier sehe ich derzeit eine Tendenz diverser Meinungen, aber noch keine Entscheidung.Andererseits: Würde eine einfache und klare Kennzeichnung vielleicht sogar dazu verleiten, eigentlich unerwünschte unkommentierte KI-Antworten zu posten?
Ich erwarte grundsätzlich von jemandem, der um Unterstützung bittet ein gewisses Maß an Eigenengagement. Es gibt da für mich viele Ausnahmen und Gründe zur Nachsichtigkeit, was ich in dem einen oder anderen Fall ansetze. Aber normalerweise erwarte ich schon von jemandem, dass er sich mit dem Thema etwas auseinander gesetzt hat, d. h. sich Gedanken gemacht hat, Websuche verwendet hat und vielleicht auch eine LLM gefragt hat.Das DF ist ein technisches Forum. D.h., Fragen werden in erster Linie deshalb gestellt, weil der Fragende Kenntnisdefizite zum Thema hat. Eine präzise Anfrage zu stellen setzt aber genau diese Kenntnisse voraus.heisenberg hat geschrieben:14.01.2024 23:34:44Und ich würde sagen: Da ist für mich der springende Punkt: Eine Anfrage sehr präzise zu stellen, ist ein gewisser Aufwand und ist bei entsprechender Kompetenz des Fragenden IMHO wertvoll - auch als KI-Only-Beitrag.
Viele Fragen tauchen hier gar nicht auf, weil der Fragende sie sich bei der Aufarbeitung des Themas für einen guten Eingangsbeitrag bereits selbst beantwortet hat. Anfangs unpräzise Fragen werden oft im Verlauf eines Threads präzisiert - mit Hilfe von Usern, die die nötigen Kenntnisse zum Thema haben. Ich sehe nicht, wie KI-Antworten bei diesem Prozess helfen, denn das ist im Wesentlichen "Händchenhalten".
heisenberg hat geschrieben:Ich erwarte grundsätzlich von jemandem, der um Unterstützung bittet, ein gewisses Maß an Eigenengagement.
Mir fehlt hier das Denken der Umkehrung der Beziehung. Tut mir leid, aber ich betrachte die Sache eher in der Gegenrichtung.heisenberg hat geschrieben:Und wenn ich schon Händchen halte, dann gemäß meines Bedürfnisses bitte zeitsparend.
Also ...fischig hat geschrieben:16.01.2024 22:43:55Ich erwarte grundsätzlich von jemandem, der mir Unterstützung anbietet, ein gewisses Maß an Antizipation meiner Schiwerigkeiten.
Wer mein Händchen halten will, bitte möglichst meines Bedürfnisses gemäß zeitsparend.
Das widerspricht sich imho nicht mit meiner Haltung. Es ist meine Haltung. (Und ich bin auch nicht immer mit vollem Einsatz bzw. voller Kapazität hier anwesend). Aber meine anderen Erwartungen habe ich eben auch.fischig hat geschrieben:16.01.2024 22:43:55Ich erwarte grundsätzlich von jemandem, der mir Unterstützung anbietet, ein gewisses Maß an Antizipation meiner Schiwerigkeiten.
Na dann sind wir uns ja einigWer mein Händchen halten will, bitte möglichst meines Bedürfnisses gemäß zeitsparend.
Ich habe den Eindruck, dass ihr beiden aneinander vorbei geschrieben habt.mn77de hat geschrieben:16.01.2024 23:03:34Also ...fischig hat geschrieben:16.01.2024 22:43:55Ich erwarte grundsätzlich von jemandem, der mir Unterstützung anbietet, ein gewisses Maß an Antizipation meiner Schiwerigkeiten.
Wer mein Händchen halten will, bitte möglichst meines Bedürfnisses gemäß zeitsparend.
... wenn ich ein Problem habe ...
... und hier im Forum frage ...
... und sich jemand die Zeit nimmt, um sich mit MEINEM Problem auseinander zu setzen ...
... dann bin ich MEGADANKBAR dass ich hier kompetente Hilfe bekomme ...
... und zwar absolut egal ob das dann 5 Minuten oder 5 Tagen dauert.
Wenn es sofort sein soll, dann gibt es Hotlines und Leute die sich dafür gut bezahlen lassen.
Das habe ich auch nicht behauptet. Ich habe nur darauf hingewiesen, dass das eine (berechtigte) subjektive Erwartung ist, der man eine andere, ebenso (berechtigte) subjektive Erwartung entgegenstellen kann/sollte.Heisenberg hat geschrieben:Das widerspricht sich imho nicht mit meiner Haltung.
Darum geht's halt - auf beiden Seiten des Dialogs!Meillo hat geschrieben:Wenn ich mich selbst reflektiere
Du sagst also, dass Du meiner subjektiven Erwartung eine andere subjektive Erwartung entgegen stellen solltest, obwohl Du gleichzeitig behauptest, dass Du mir damit nicht widersprichst?fischig hat geschrieben:17.01.2024 09:38:45Das habe ich auch nicht behauptet. Ich habe nur darauf hingewiesen, dass das eine (berechtigte) subjektive Erwartung ist, der man eine andere, ebenso (berechtigte) subjektive Erwartung entgegenstellen kann/sollte.Heisenberg hat geschrieben:Das widerspricht sich imho nicht mit meiner Haltung.
Darum hab ich immer wieder ermutigt, an der Diskussion teilzunehmen. Wer sollte denn die Schlüsse ziehen? Ich finde, für eine Entscheidung (welcher Art auch immer) fehlt die Signifikanz einer mehrheitlichen Meinung. Ich habe aus dem Thread eine gewisse Grundstimmung entnommen, mit der ich arbeiten kann, die aber auch keine Anpassung der Verhaltensregeln erfordert.unitra hat geschrieben:19.02.2024 17:56:39Genau so habe ich mir vor ein Paar Wochen vorgestellt, als das Thema hier eröffnet wurde.
Ergebnis: Nichts.
Das wird noch bis zum Jahresende so gehen. Ich schau mal ende 2024 hier mal rein. Eventuell ist da Etwas Wesentliches in diese Richtung hier passiert.
Schön weiter diskutieren. Eventuell kommt Etwas Brauchbares bei rum.
Stimmt, die Diskussion sollte abgetrennt und an den korrekten Thread angehängt werden.heisenberg hat geschrieben:21.02.2024 10:59:34Der Thread ist seit dem Beitrag von prox » 20.02.2024 04:46:37 hier Off-Topic gegangen und jetzt wurde das Ursprungsthema in diesem Thread durch die innoffizielle Fortführung des Threads KI - Chancen oder Risiken, Fluch oder Segen? hier anscheinend komplett verdrängt
Bei mir gerade umgekehrt, Diskussionen über Forumsregularien langweilen mich.heisenberg hat geschrieben:21.02.2024 10:59:34Aus meiner Sicht schade, weil mich das Ursprungsthema interessiert, die philosophische Auseinandersetzung damit aber nicht.
Ok, bin dabei - Beiträge sind gleich nebenan zu finden - DoneHuo hat geschrieben:21.02.2024 12:31:17Stimmt, die Diskussion sollte abgetrennt und an den korrekten Thread angehängt werden.heisenberg hat geschrieben:21.02.2024 10:59:34Der Thread ist seit dem Beitrag von prox » 20.02.2024 04:46:37 hier Off-Topic gegangen und jetzt wurde das Ursprungsthema in diesem Thread durch die innoffizielle Fortführung des Threads KI - Chancen oder Risiken, Fluch oder Segen? hier anscheinend komplett verdrängt