mstdn.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A general-purpose Mastodon server with a 500 character limit. All languages are welcome.

Administered by:

Server stats:

12K
active users

#Halluzinationen

1 post1 participant0 posts today
Tino Eberl<p><a href="https://mastodon.online/tags/SteadyCommunityContent" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>SteadyCommunityContent</span></a></p><p>Wieso geben <a href="https://mastodon.online/tags/Sprachmodelle" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Sprachmodelle</span></a> oft selbstbewusst falsche Antworten?</p><p>Wenn Raten besser bewertet wird als Ehrlichkeit, droht Vertrauensverlust. Wie lässt sich das ändern, und warum ist „Ich weiß es nicht“ bisher ein Problem für KI-Modelle? Eine neue Studie zeigt, woran man arbeiten müsste, damit <a href="https://mastodon.online/tags/Sprachmodelle" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Sprachmodelle</span></a> besser antworten.</p><p><a href="https://mastodon.online/tags/KI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>KI</span></a> <a href="https://mastodon.online/tags/Sprachmodelle" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Sprachmodelle</span></a> <a href="https://mastodon.online/tags/Halluzinationen" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Halluzinationen</span></a> <a href="https://mastodon.online/tags/LLM" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LLM</span></a> <a href="https://mastodon.online/tags/KITransparenz" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>KITransparenz</span></a> <a href="https://mastodon.online/tags/K%C3%BCnstlicheIntelligenz" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>KünstlicheIntelligenz</span></a></p><p><a href="https://tino-eberl.de/ki-news/lassen-sich-halluzinationen-bei-sprachmodellen-vermeiden/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">tino-eberl.de/ki-news/lassen-s</span><span class="invisible">ich-halluzinationen-bei-sprachmodellen-vermeiden/</span></a></p>
Joachim Happel<p>Warum halluzinieren Sprachmodelle? OpenAI (<a href="https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">cdn.openai.com/pdf/d04913be-3f</span><span class="invisible">6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf</span></a>) zeigt: Es ist kein Bug, sondern eine Folge des Trainings! 🤖</p><p>Modelle werden wie Studenten auf Tests getrimmt. Gängige Benchmarks belohnen plausibles Raten und bestrafen ein "Ich weiß nicht". Das Ergebnis: lieber eine falsche Antwort geben als keine.</p><p>Die Lösung liegt also nicht nur im Training, sondern in einer fairen Bewertung, die Unsicherheit nicht bestraft.</p><p><a href="https://reliverse.social/tags/KI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>KI</span></a> <a href="https://reliverse.social/tags/LLM" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LLM</span></a> <a href="https://reliverse.social/tags/AI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>AI</span></a> <a href="https://reliverse.social/tags/Halluzinationen" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Halluzinationen</span></a> <a href="https://reliverse.social/tags/Forschung" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Forschung</span></a> <a href="https://reliverse.social/tags/MachineLearning" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>MachineLearning</span></a></p>
weil es mir gerade in anderen bereichen unterkam, habe ich mal gemini nach informationen gefragt. im kollegenkreis waren wir uns nicht einig darüber, wie ein backup-programm namens Acronis die snapshots erstellt, die es für seine backups benötigt. einige meinten, natürlich wie alle anderen programme auch, als CoW, vglbar mit LVM. andere meinten genau das gegenteil. ich habe dann gemini 2.5 gefragt: wie funktionieren acronis-backups unter linux? KI weiß schließlich alles ...

und ein teil der anwort bzgl der snapshots ist das hier: :-)
Copy-on-Write (CoW): Der Mechanismus ist meist als Copy-on-Write implementiert. Das bedeutet, dass der ursprüngliche Datenblock auf der Festplatte nicht sofort geändert wird, wenn eine Anwendung eine Datei bearbeitet. Stattdessen werden die Änderungen in einen separaten, temporären Speicherbereich geschrieben, den der Snapshot-Treiber verwaltet.

tja. wüsste ich jetzt nicht vorher schon, was das ist, wäre ich jetzt um ein falsches faktum dümmer! die beschreibung klingt überzeugend und beschreibt genau das gegenteil von copy-on-write.  

man sollte sich von KI wirklich keine dinge erklären lassen, über die man nicht schon bescheid weiß. das kann offenbar wirklich gefährlich werden.

ach ja: und anscheinend macht Acronis genau das, was gemini da beschreibt, das ist halt nur kein CoW ...

#computer #internet #backups #halluzinationen #ki #ai
hub.netzgemeinde.euNetzgemeinde/Hubzilla
Continued thread

Breiter Zugang für Nutzer und Entwickler 🌍 Alle #ChatGPT-Nutzer.innen, auch im Gratis-Tarif, erhalten Zugriff auf #GPT5Modelle, während Pro- und Unternehmenskunden erweiterte Funktionen nutzen können.

Starke Performance in Benchmarks 🏆 #GPT5 erreicht Spitzenwerte in Mathematik, Programmierung und komplexem Schreiben, mit bis zu 80% weniger #Halluzinationen im „Thinking Mode“.

👉 eicker.TV#Technik #Medien #Politik #Wirtschafteicker.BE/ratung (2/2)

eicker TV Technews Videos
eicker.BEratung · eicker.TV ▹ Technews Kurzvideos als TikToks, Shorts, Reels
More from Gerrit Eicker 🇪🇺🇺🇦

Apples eigene Siri KI verfügt mittlerweile über 150 Milliarden Parameter.

#Apple testet neue #SiriKI 🧠 Intern arbeitet Apple an #Siri-Modellen mit bis zu 150 Milliarden Parametern, die fast #ChatGPT-Qualität erreichen.

#Halluzinationen als Problem 🤔 Die fortschrittliche Siri-KI liefert zwar beeindruckende Antworten, erzeugt aber häufiger fehlerhafte oder erfundene Inhalte als von Apple gewünscht. (1/2)

Continued thread

Interne Meinungsverschiedenheiten ⚡ Führungskräfte bei #Apple sind sich uneinig, wie viel #Halluzinationen akzeptabel sind und wann das neue System veröffentlicht werden soll.

Zurückhaltung beim Launch 🚦 Wegen dieser Unsicherheiten wird mit weniger großen #AppleIntelligence-Ankündigungen zur #WWDC gerechnet als erwartet.

👉 eicker.TV#Technik #Medien #Politik #Wirtschafteicker.BE/ratung (2/2)

eicker TV Technews Videos
eicker.BEratung · eicker.TV ▹ Technews Kurzvideos als TikToks, Shorts, Reels
More from Gerrit Eicker 🇪🇺🇺🇦
Replied in thread

@evelynefoerster

#KünstlicheIntelligenz und die Zukunft der Menschheit

(1/n)

"dass menschliche Expertise und #KI sich dabei sinnvoll ergänzen, statt sich gegenseitig zu ersetzen."

Ich kann dem, was du da schreibst, uneingeschränkt zustimmen, Eve. 🙏

Allerdings sehe ich das grundsätzlich auf wenigen Gebieten und da nicht nur durch #Halluzinationen und #PayWalls ("Bezahlschranken"), sondern v. a. durch ungeprüften KI Content die #Enshittification wie Gülle, dass durch Traktoren...

Nur 27 Prozent der Internetnutzerinnen und -nutzer in Deutschland überprüfen die Ergebnisse, die ihnen KI-Chatbots liefern. Das zeigt eine internationale Umfrage der Prüfungs- und Beratungsgesellschaft EY. Demnach wird der Großteil der KI-generierten Texte, Bilder oder Übersetzungen ungeprüft übernommen. #absatzwirtschaft #KI #LLM #Halluzinationen
absatzwirtschaft.de/ein-weckru

absatzwirtschaft · "Ein Weckruf": Deutsche Nutzer prüfen KI nur selten – mit Risiken für alleDie meisten Deutschen verlassen sich auf ChatGPT & Co., ohne die Ergebnisse zu prüfen. Doch wer KI ungefiltert nutzt, riskiert teure Fehler.

GPT-4.5: OpenAIs größtes Modell beeindruckt, aber zeigt Schwächen
OpenAI hat mit GPT-4.5 ein neues Sprachmodell vorgestellt, das hinsichtlich Größe und Wissen alle Vorgängerversionen übertrifft. Trotz dieser Ankündigung stößt das Modell auf gemischte
apfeltalk.de/magazin/news/gpt-
#News #Tellerrand #GPT45 #GPT5 #Halluzinationen #Kosten #KnstlicheIntelligenz #OpenAI #ReasoningModelle #Sprachmodell #Verfgbarkeit