Arxiv Papers Januar 2021

vorhergehende Artikel in: Rants
27.01.2021

Eigentlich sollte es in dieser lockeren Serie immer nur um maximal drei Artikel pro Veröffentlichung gehen aber gerade ist mir noch ein vierter hereingeschneit, der wie die anderen drei aus der Masse herausragt.

Ich interessiere mich immer für Neuigkeiten - das schließt solche aus der Forschung ein. Durch die wunderbare Idee des Preprint-Servers und der Veröffentlichung ebenda hat man die Möglichkeit, mit wenig Aufwand am Puls der Zeit zu bleiben. Man kann natürlich nicht alle auf Arxiv veröffentlichten Paper lesen, allerdings sind die Artikel dort in Kategorien aufgeteilt, was das Finden von Veröffentlichungen passend zu den eigenen Interessen erleichtert.

ANTS-REVIEW: APROTOCOL FOR INCENTIVIZED OPEN PEER-REVIEWS ON ETHEREUM

Dieser Artikel hat aus meiner Sicht zunächst einmal das Manko, dass er nicht klar benennt, welches Problem er lösen will. Statt dessen wird zu Beginn irgend etwas herumgeschwafelt von "Der Peer-Prozess ist wichtig" und "Der Peer-Prozess wird nicht als wissenschaftlicher Output anerkannt". Es wird nicht erklärt, welches Problem durch die im Artikel dargelegten Maßnahmen gelöst werden soll - vielleicht weil die Autoren selbst gar keins finden konnten?

Statt dessen wird irgendetwas herbeigeschwurbelt von "Incentives" natürlich auf der Blockchain (speziell Ethereum), die dazu führen sollen, dass die besten Reviews sich durchsetzen und viel mehr Leute Reviews schreiben. Abgesehen von dem Problem, dass damit die Arbeit explodiert - es müssen jetzt nicht mehr nur die eigentlichen Arbeiten durch einen Review-Prozess, sondern auch die Reviews - wird die Absurdität noch dadurch gesteigert, dass die Autoren die Existenz massiver Probleme in solchen Bewertungssystemen schlicht ignorieren - es gab in den letzten Jahren genug Skandale, die sich unter Review-Bombing zusammenfassen lassen - daraus resultierten wieder und wieder Einschränkungen dessen, wem erlaubt war, Reviews abzugeben.

Es gibt genug Probleme im akademischen Betrieb, was die fundierte Analyse und Bewertung der Qualität wissenschaftlicher Arbeiten angeht - diese Arbeit löst sie nicht nur nicht sondern hält sich von diesen eigentlichen fassbaren und quantifizierbaren Problemen so weit entfernt wie es nur irgend geht - die Autoren vergessen jedoch nicht, dass es einen Unterhaltungsaspekt gibt und streuen schon im Abstrakt so viel Bullshit ("Community", "Gamification", "ethical", "inclusiveness"), dass das nächste "Bingo" sicher ereicht werden kann.

Wer sich trotzdem einen persönlichen Eindruck verschaffen möchte: bittesehr!

Decision process for blockchain architecturesbased on requirements

Bei diesem Paper gehe ich genau von der anderen Seite heran und schaue mir die Schlussfolgerungen und den Ausblick an. Der Autor will in seiner Arbeit den Weltfrieden erreichen und das Problem des Hungers auf der Welt lösen: Er behauptet nichts weniger als ein Framework schaffen zu können, welches für ein vorgegebenes Set von Regierements für ein Softwareentwicklungsprojekt nicht nur eine optimale Auswahl einzusetzender Technologien vorschlägt (Wobei das hier bedeutet: Welche Blockchain ist die beste?), sondern auch die Gesamtarchitektur!

In seinem Ausblick zerlegt sich der Autor dann selbst mit so wunderbaren Äußerungen wie "A lot of inputs and features had to be taken into account when determining which architectural pattern will be chosen, an impossible task when non-automated." Was er hier sagt ist, dass er ein Problem löst, das auf andere Art und Weise nicht lösbar ist - nur mittels Automatisierung. Eine steile These!

Zumindest an einer Stelle beweist er zumindest den Ansatz von Verbindung zur Realität - nämlich wenn er erklärt, dass die größte Herausforderung sein wird, die Eingaben und Architektur-Pattern in numerische Werte zu übersetzen, auf denen der angedachte automatische Entscheidungsprozess dann arbeiten kann. Dazu möchte er dann Software-Architekten und Experten um Hilfe bitten. Das widerspricht sich jedoch mit der eingangs gemachten Aussage - nämlich dass das Problem als solches unlösbar ist. Trifft das zu, kann es keine Experten geben, die er befragen könnte.

Alles in allem hat diese Arbeit nur eine messbare Auswirkung - sie hat die Entropie des Universums erhöht und damit seinen Hitzetod beschleunigt!

Wer sich einen Einblick verschaffen möchte, wie man dabei vorgeht - bittesehr!

Trusted Data Notifications from Private Blockchains

Ein weiteres dieser unsäglichen Machwerke im Dunstkreis privater Blockchains. Ich kann es nicht oft genug wiederholen: Private Blockchains sind Humbug! Eines der zentralen Versprechen einer Blockchain ist die garantierte Unveränderlichkeit der auf ihr gespeicherten Daten. Diese Unveränderlichkeit basiert auf der Annahme, dass keine interessierte Partei die Kontrolle über mehr als die Hälfte der Knoten erlangen kann, die die Signaturen der Blöcke erstellt. In eine privaten Blockchain hat eine Partei aber die Kontrolle über 100 Prozent der Knoten. Das bedeutet, dass diese Partei jederzeit in der Lage ist, die Inhalte in der Chain beliebig zu manipulieren. Damit ist der Vorteil eine Blockchain dahin: Vertraue ich dem Eigentümer der Blockchain sowieso, muss derjenige nicht extra eine Blockchain einrichten, vertraue ich ihm nicht, kann die Einrichtung einer Blockchain daran nichts ändern.

Aber das ist ein alter Hut - wenn man mit der eigenen Veröffentlichung sichtbar werden will, muss man wenigstens den Eindruck erwecken, etwas neues beizutragen. Die Autoren erklären nun, dass es durchaus legitimes Interesse an den Daten in der privaten Blockchain geben kann und versprechen, ein sicheres Verfahren vorzustellen, mit dem man solchen externen Parteien Zugriff auf definierte Inhalte in der Chain geben kann.

Nach dem in solchen Papers heutzutage leider üblichen Geschwurbel kommen die Autoren auf Seite 4 langsam zur Sache: Die (potentiellen) Empfänger müssen ihren Public Key bei den Eigentümern der privaten Blockchain registrieren! Hmm - das kommt uns bekannt vor? Richtig - die Quintessenz des Papers ist : "Möchtest Du die Vertraulichkeit und Integrität von übertragenen Daten sicherstellen, nutze asymmetrische Crypto!" Wow - eine Erkenntnis, die nicht wirklich neu ist - allerdings schaffen es die Autoren, insgesamt 9 Seiten Blockchain-Brimborium darum herum zu konstruieren!

Wer sich anschauen möchte wie man so etwas angeht - bittesehr!

A ROBUST BLOCKCHAIN READINESS INDEX MODEL

Bei diesem Paper bin ich nun wiederum bereits über die erste Hälfte des Abstract gestolpert - ich zitiere zunächst: "A critical challenge for these actors is to identify the most suitable environment to start or evolve their businesses. In general, the question is to identify which countries are offering the most suitable conditions to host their blockchain-based activities and implement their innovative projects."

Hmm - für mich klingt das erst einmal nach "Lass uns rausfinden, welcher Staat die geringste Regulierung hat und wo die Stromkosten am niedrigsten sind damit wir unsere Mining-Racks aufstellen können!"

Welches Unternehmen - und sei es eine der typischen Startup-Klitschen - sucht sich bitte den Unternehmensstandort danach aus, wo man am besten Bitcoins schürfen kann? Dieses Problem (das das Paper verspricht, zu lösen) dürfte meiner Ansicht nach ein extremes Randgruppenproblem sein.

Aber sehen wir uns an, wie es gelöst wird: Bereits im Abstract wird behauptet, man könne einen numerischen Wert berechnen, der die Eignung eines Staats für die Gründung eines Blockchain-basierten Business ermittelt, dort wird aber auch gleich eingeräumt, dass es unmöglich ist, alle Eingangsparameter zu quantifizieren oder auch nur zu ermitteln!

Ich gehe hier nicht auf die Zweifelhaftigkeit von Indices im Allgemeinen ein - die Tatsache, dass Wirecard im DAX vertreten war, reicht meiner Ansicht nach aus, diese Konstrukte zumindest in Frage zu stellen.

In Abschnitt 4 "Robust Indexing" geht es mit dem ersten Unterabschnitt weiter, der da heißt "Estimation of Missing Indicators". Wie im Abstract angedeutet: Wir berechnen einen Index ohne Daten! Schon in der ersten Fomel geht es los: Ein beliebiger unbekannter Parameter des Index wird berechnet aus dem Mittelwert dieses Parameters als gleichwertig eingestufter anderer Staaten. In diesem Vorgehen liegt absolut keine Information: Die Autoren spannen für ihre Arbeit einen 15-dimensionalen Merkmalsvektorraum auf. Sie rechnen aus diesen 15-dimensionalen Vektoren eine einzelne Zahl und postulieren daraus eine "Ähnlichkeit" zweier Datenpunkte anhand einer daraus ausgerchneten Distanz. Jedem, der sich bereits mit der topologischen Analyse hochdimensionaler Eingangsdaten zum Beispiel bei der selbstorganisierenden Clusterung beschäftigt hat weiß, dass aus der Tatsache, dass die Distanz im Merkmalsraum keine Aussagen über die Distanz in einem Merkmal gefolgert werden kann. Das heißt mit anderen Worten, Lesen im Kaffeesatz ist eine wissenschaftliche Methode verglichen mit dem hier vorgeschlagenen "Schätzverfahren"!

Weiterhin unsauber ist die Auslassung einer Information, wie die Merkmale vorverarbeitet werden - Wird zum Beispiel die Dominanz eines Merkmals adressiert, welches eine deutlich höhere Dynamik hat als andere - wenn ja -wie? Darüber hinaus existiert keine Möglichkeit zur Berechnung des Index eine Wichtung der einzelnen Merkmale vorzunehmen - ein Staat ist entsprechend des hier vorgeschlagenen Modells entweder "gut" oder "schlecht". Es ist aber durchaus denkbar, dass ein Unternehmen, das so unbedarft ist, sich dieses Verfahrens zu bedienen auf ein oder mehrere der benutzten Merkmale keinen Wert legt und dafür andere stärker gewichten möchte. Das Paper sieht dafür keine Mechanismen vor und diskutiert daher auch deren mögliche Auswirkungen nicht.

Interessant ist hier ein Trend, den ich bereits versschiedentlich beobachtet habe: Wir kippen den Leser mit möglichst vielen, möglichst komplex aussehenden Formeln zu - dadurch verdecken wir die inhaltlichen und handwerklichen Unsauberkeiten!

Auf Abschnitt 6 - die Resultate gehe ich hier gar nicht mehr ein. Die Autoren hätten gut daran getan, zumindest eine Clusteranalyse des Merkmalsraums durchzuführen - vielleicht haben sie das auch getan und festgestellt, dass die resultate die Absurdität ihrer Idee illustriert hätte und sie daher nicht veröffentlicht.

Wer sich die schicken Formeln ansehen möchte - bittesehr!

Artikel, die hierher verlinken

Generator für beliebige TeX-Formeln

03.04.2021

Meine Funde neulich auf dem Arxiv-Preprint-Server haben mich auf folgende Idee gebracht: Es gab in der Vergangenheit diverse Papers, die komplett durch eine sogenannte "AI" erstellt wurden und es trotz der Tatsache, dass sie keinen einzigen sinnvolen Gedanken enthielten durch den Peer-review-Prozess geschafft haben und veröffentlich wurden. Das betrifft aber nur Text - was, wenn man in einem solchen generierten Produkt auch einige kompliziert aussehenden Formeln benötigt?

Papers Februar 2021

25.02.2021

Auch wenn der Februar noch nicht ganz um ist haben sich bereits wieder - wie schon im Januar - vier Papers angefunden die ich hier kurz vorstellen möchte.

Alle Artikel rss Wochenübersicht Monatsübersicht Github Repositories Gitlab Repositories Mastodon Über mich home xmpp


Vor 5 Jahren hier im Blog

  • Fährnisse des Buildprozesses unter Windows

    17.07.2019

    Nachdem ich begonnen hatte, mich mit der Beschleunigung der Berechnung des Mandelbrot-Fraktals unter Zuhilfenahme der Shadereinheiten in Graphikkarten zu beschäftigen und erste Erfolge feiern konnte, wollte ich das mal auf einer richtigen Graphikkarte ausprobieren...

    Weiterlesen...

Neueste Artikel

  • Datenvalidierung UTF8 mit BiDi-Steuerzeichen (TrojanSource 2.0)

    Ich bin heute nochmal inspiriert worden, weiter über die Trojan Source Vulnerability nachzudenken. Meiner Meinung nach bestehen hier noch Probleme - speziell bei Nutzereingaben oder Daten, die über externe Schnittstellen ampfangen werden.

    Weiterlesen...
  • OpenStreetMap Navi als Docker-Container

    Ich habe die auf OpenStreetMap basierende OpenSource Navigationslösung Graphhopper in einen Docker-Container gepackt und als neuestes Mitglied in meinem Docker-Zoo willkommen geheißen.

    Weiterlesen...
  • SQL-Aggregatfunktionen in SQLite als BeanShell-Scripts

    Ich habe neulich über eine Möglichkeit berichtet, SQLite mittels der sQLshell und Beanshell-Skripten um SQL-Funktionen zu erweitern. In diesem Artikel versprach ich auch, über eine solche Möglichkeit für Aggregatfunktionen zu berichten.

    Weiterlesen...

Manche nennen es Blog, manche Web-Seite - ich schreibe hier hin und wieder über meine Erlebnisse, Rückschläge und Erleuchtungen bei meinen Hobbies.

Wer daran teilhaben und eventuell sogar davon profitieren möchte, muß damit leben, daß ich hin und wieder kleine Ausflüge in Bereiche mache, die nichts mit IT, Administration oder Softwareentwicklung zu tun haben.

Ich wünsche allen Lesern viel Spaß und hin und wieder einen kleinen AHA!-Effekt...

PS: Meine öffentlichen GitHub-Repositories findet man hier - meine öffentlichen GitLab-Repositories finden sich dagegen hier.