this post was submitted on 27 Jan 2025
15 points (85.7% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
4044 readers
415 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
___
Aus gegebenem Anlass werden Posts zum Thema Palästina / Israel hier auf Dach gelöscht. Dasselbe gilt zurzeit für Wahlumfragen al´a Sonntagsumfrage.
___
Einsteigertipps für Neue gibt es hier.
___
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 1 year ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Aus Interesse habe ich deepseek-r1 lokal auf der Grafikkarte mit Ollama ausprobiert und gefragt was eigentlich mit den Uiguren und dem Tianenmen Platz ist und das Modell hat mir eine Antwort schlicht verweigert
Andere Modelle wie Phi4 geben zwar eine political content warning aber erklären das Thema trotzdem
ältere Modelle wie llama3.1 oder Phi1 geben nicht mal eine Warnung aus bevor sie im Grunde Wikipedia zitieren
Immerhin mit Trans-Themen scheint es kein Problem zu haben, anders als bei GitHub Copilot: https://github.com/orgs/community/discussions/72603
Wie üblich der Hinweis, auch wenn Zensur kacke ist: Es handelt sich um ein Sprachmodell und nicht um ein Wissensmodell. Wir sollten LLMs nicht nutzen, um Wissensfragen zu stellen und zu beantworten, denn das können sie vom Grundprinzip nicht leisten.
Und das ist ja dann auch nur die westlich-amerikanische Sicht. Ich meine, frag doch mal nach den Massakern der Kolonialzeit oder sowas, da wird dir nicht die Sichtweise von den Mayas oder Azteken präsentiert.
Nur mal so ein Gedanke, weil sich alle über den China-bias aufregen. Die westlichen Modelle haben einen westlich-liberalen Bias.
Ich finde deepseek gut weil Konkurrenz Forschung antreibt aber zu dem Punkt information verschleierung muss man schon stehen. Es wurde getestet und chatgpt verschweigt (derzeit) keine westlichen Massaker
Ehrlich gesagt suche ich immer noch nach guten Beispielen welche verzerrt von den amerikanischen LLMs dargestellt werden. Mit den Infos das Sklaverei maßgeblich zum Sezessionskrieg beigetragen hat oder während der europäischen Kolonisierung von Amerika massiv Einheimische versklavt und getötet wurden, bleibt keiner hinterm Berg.
Natürlich kann sich das bei neueren LLMs jetzt ändern, einfach weil man es politisch durchdrückt.
ChatGPT hat(te) einen ziemlichen Bias gegen die Palästinenser. Darüber wurde sich viel beschwert und bei neueren Modellen wurde das wohl so gut es geht gepatched, nachdem es viele Beschwerden gab. Auf Deutsch funktioniert das immer noch.
Ist nicht so eindeutig wie Tiananmen Square, aber wenn man sich den neoliberalen Hut aufsetzt, dann kriegt man auch anderweitig erwartbare Ergebnisse.
Fragt man z.B. die Gerechtigkeitsfrage für den Iran, die Ukraine oder die Uyghuren, ist es ein klares Ja. Wenn es dann um den Kongo geht (looking at you Belgien) dann kriegt man die „Blabla es ist kompliziert“ Antwort. Also es ist immer dann kompliziert, wenn neoliberale Interessen mit im Spiel sind und es ist immer dann eindeutig, wenn es um die „Systemgegner“ geht.
Das ganze ist aber nicht so offensichtlich zensiert sondern resultiert mMn eher aus der Sprache, die unsere größtenteils neoliberale Presse benutzt.
Ich habe das grade mal getestet mit ein paar Themen und es ist tatsächlich deutlich besser geworden. Nichts destotrotz wird das alles mit westlichen Gedankengut trainiert, sprich westlichem Internetkrams. Das entspricht natürlich subtil unserer Gedankenwelt. Das nehmen wir vermutlich nicht mal wahr, sondern nur Menschen ausserhalb unseres Kulturkreises.