Turing complete LLMs

vorhergehende Artikel in: Rants
05.10.2024

Ich beschäftige mich mit Cybersecurity auch beruflich - während mein Fokus privat und als Hobby hier eher auf crypto und im Speziellen auf PKI liegt interessiere ich mich beruflich für secure Softwareentwicklung und Minimierung von Angriffsoberflächen.

Außerdem bin icvh so alt, dass ich noch die Ausläufer des ersten KI-Winters mitbekommen habe - Damals wussten wir, was die Protagonisten des ersten KI-Booms falsch gemacht hatten und wo sie Anwendungen und Leistungen der KI und neuronaler Netze gnadenlos übertrieben haben. Leider sehen wir dasselbe auch heute: Es gibt schlicht kein echtes Problem, das die Systeme, die heute mit KI, ML, Deep Learning und all den anderen Buzzwords überschreiben werden, zuverlässig und besser lösen könnten als die bestehenden Ansätze. Das Zusammenfassen von Texten oder das Generieren von Bildern ist kein Problem, das gelöst werden müsste - das sind Möglichkeiten zur Bekämpfung von Langeweile bei Zivilisationsopfern. Aber ich schweife ab - kommen wir zurück zu Cybersecurity:

Ich beschäftige mich wie gesagt mit Angriffsoberflächen und ihrer Minimierung. Heutzutage existieren in nicht extra angepassten Systemen diverse turing-complete Infrastrukturen (vulgo: Programmierspachen), die von Angreifern ausgenutzt werden können - noch schlimmer: manche davon können benutzt werden, ohne dass man dazu einen Kompiler benötigt.

Hier existiert kein Vorteil irgendeines Betriebssystems: Bei Windows ist die normale Batch-Skripot-Laufzeitumgebung ebenso standardmäßig an Bord wie auch die Powershell - Bei Linux ist immer irgendeine Shell verfügbar und bei heutigen Distributionen kommt die Paketverwaltung nicht mehr ohne eine Skriptsprache - zumeist Python - aus. Das sind hochgefährliche Konstrukte, die es einem Angreifer erlauben, beliebigen Code nachzuladen und gleichzeitig durch die eigenen Sicherheitlücken die Angriffsoberfläche massiv erhöhen.

Aber die Welt kann nicht verrückt genug sein (siehe Blockchain, NFT und der horrende Energieverbrauch, den unsere Zivilisation derzeit für Chatbots rausbläst) - Beweis: dieser Artikel hier, der erklärt, dass es durch die Einbindung von WASM in eine Font-Rendering-Engine möglich ist, ein gesamtes LLM im Kontext dieser Font-Rendering-Engine laufen zu lassen.

Nachdem ich das gelesen hatte, bin ich wieder bei dem alten Zitat gelandet: "Die Menschheit hats einfach nicht verdient"...

Alle Artikel rss Wochenübersicht Monatsübersicht Github Repositories Gitlab Repositories Mastodon Über mich home xmpp


Vor 5 Jahren hier im Blog

  • CI/CD mit shellcheck

    13.10.2019

    Ich habe mich entschlossen, in meinen diversen Shell-Projekten shellcheck als Mittel zur Qualitätssicherung einzusetzen.

    Weiterlesen...

Neueste Artikel

  • Linux-System SBOM visualisiert als Graph

    In meinem $dayjob kam neulich die Frage auf, ob es möglich wäre, die aktuelle Softwareinstallation eines Linux-Systems als Software Bill of Materials (SBOM) zu exportieren.

    Weiterlesen...
  • Visualisierung von Datenmodellen als gerichtete Graphen

    Ich habe - motiviert durch meine Experimente zur Visualisierung von Paketabhängigkeiten in Linux-Installationen als interaktive Graphen - versucht, relationale Datenmodelle in ähnlicher Form zu visualisieren und dazu zwei Plugins für die sQLshell geschrieben.

    Weiterlesen...
  • Carl Sagan - Christmas Lectures at the Royal Institution

    Die Royal Institution hat in ihren Schätzen gegraben und die Christmas Lectures von Carl Sagan auf Youtube nochmals veröffentlicht. Meiner Ansicht nach unbedingt lohnenswert für alle, die Englisch verstehen!

    Weiterlesen...

Manche nennen es Blog, manche Web-Seite - ich schreibe hier hin und wieder über meine Erlebnisse, Rückschläge und Erleuchtungen bei meinen Hobbies.

Wer daran teilhaben und eventuell sogar davon profitieren möchte, muß damit leben, daß ich hin und wieder kleine Ausflüge in Bereiche mache, die nichts mit IT, Administration oder Softwareentwicklung zu tun haben.

Ich wünsche allen Lesern viel Spaß und hin und wieder einen kleinen AHA!-Effekt...

PS: Meine öffentlichen GitHub-Repositories findet man hier - meine öffentlichen GitLab-Repositories finden sich dagegen hier.