92 %

Die Untersuchung »Death by a Thousand Prompts: Open Model Vulnerability Analysis« von Cisco zeigt, dass sogenannte Multi-Turn-Jailbreaks bei offenen KI-Modellen (Open-Weight-LLMs) in bis zu 92 % der Fälle erfolgreich sind und damit gravierende Sicherheitslücken in deren Architektur offenlegen.

7. November 2025 · 1 Minute · 38 Wörter

Alte Beiträge in Hugo markieren

Ich habe eine kleine Hinweisfunktion eingebaut, die bei Beiträgen erscheint, die älter als ein Jahr sind. Mir war wichtig, dass dieser Hinweis nicht bei reinen Fotobeiträgen auftaucht – Fotos verlieren schließlich selten an Relevanz. Zuerst habe ich selbst eine funktionierende Version geschrieben, anschließend den Code von einem Sprachmodell noch etwas optimieren lassen. Jetzt läuft bei mir folgende Variante: {{- /* Tags prüfen */ -}} {{- $tags := default (slice) .Params.tags -}} {{- $tagsLower := apply $tags "lower" "." -}} {{- $hasPhoto := in $tagsLower "photo" -}} {{- /* Relevantes Datum bestimmen und Stichtag berechnen */ -}} {{- $pageDate := time.AsTime (or .Lastmod .PublishDate .Date) -}} {{- $oneYearAgo := (now).AddDate -1 0 0 -}} {{- /*Hinweis nur auf echten Seiten, mit gültigem Datum, älter als 1 Jahr und nicht beim Tag "photo" */ -}} {{- if and .IsPage (not $hasPhoto) (gt ($pageDate.Unix) 0) (lt $pageDate $oneYearAgo) -}} <div class="alert alert-warning"> Hinweis: Dieser Artikel ist über ein Jahr alt. Die Informationen könnten veraltet sein. </div> {{- end -}}

21. Oktober 2025 · 1 Minute · 166 Wörter

Freeware blobs

Im Blogbeitrag »Does Open Source AI really exist?« seines Blogs tante.cc erläutert Jürgen Geuter treffend, warum die gängigen Definitionen von Open Source AI den vier Freiheiten von Open Source nicht vollständig gerecht werden. The Open Source models we see today are proprietary freeware blobs. Which is potentially marginally better than OpenAI’s fully closed approach but really only marginally.

28. Oktober 2024 · 1 Minute · 58 Wörter

Nicht einfach reparieren

Ich habe etwas Neues gelernt! Obwohl es beinahe offensichtlich ist, war es mir nicht klar. Aktuell können wir fehlerhafte Large Language Models nicht einfach reparieren, wenn sie Fehler machen oder falsche Informationen verbreiten. Das liegt daran, dass LLMs mithilfe neuronaler Netze kreiert werden. Neuronale Netze lernen eigenständig und erstellen mathematische Wahrscheinlichkeiten, indem sie bestimmte Dinge wiederholt mit kleinen Abweichungen berechnen. Wenn man also etwas im LLM ändern möchte, müsste man unzählige dieser Wahrscheinlichkeiten anpassen. Dieser Prozess ist so aufwendig, dass es einfacher ist, ein neues LLM zu erstellen. Deshalb werden GPTs auch in größeren Versionssprüngen veröffentlicht. ...

2. Mai 2024 · 1 Minute · 120 Wörter

Another year of updates

In Zukunft könnte sich das bisherige Versprechen von UnRaid, “Einmal kaufen, für immer nutzen. Kein Abo. Keine versteckten Gebühren.”, möglicherweise ändern. Unraid schreibt in »Upcoming Changes to Unraid OS Pricing« auf unraid.net These will function similarly to the current Basic, Plus, and Pro licenses, with the main difference being that the Starter and Unleashed licenses will come with one year of software updates. After that, customers will be able to pay an OPTIONAL extension fee, which makes them eligible for another year of updates. If you choose not to renew, no problem. ...

19. Februar 2024 · 1 Minute · 107 Wörter