projects_byHanko

Langfristige Projekte

B\ook ist das konzeptionelle Framework für die globale, universelle Datenbank des gesicherten Wissens. Es referenziert auf die jeweiligen Quelldaten und schließt konkurrierende Datenlagen sowie die Zeitachse mit ein. Die Informations-Einheiten sind kleinstmöglich definiert und jeweils direkt und eindeutig adressierbar.

Ziel 1 ist die Reduzierung der Redundanzen von Referenzmaterial, die Transparenz von dessen Auswahl, sowie der jederzeitige Überblick über divergierende/konkurrierende Datenlagen und deren Interpretation bzw. Kontext-Bildung.


Durch die unstrittige Hinterlegung der einzelnen Informations-Einheiten bilden diese eine Art " Landkarte" mit Wegpunkten. Sach-Abhandlungen jeder Art brauchen diese Inhalte nicht mehr zu übernehmen, sondern nur mehr darauf verweisen. Der Großteil von Arbeiten/Büchern kann daher aus der individuellen Wegstrecke bestehen, und sich auf den Mehrwert beschränken. Wobei auch diese Arbeiten als eigene Informations-Einheiten definierbar sind. Das Buch als solches wird damit zur "Route", Rezipienten haben den transparenten Zugriff auf den Pfad und auf die Auswahl-Methode.


Ziel 2 ist die Entkoppelung von Autor und Werk. Der Fehler- resp. strittige Anteil von Werken ist damit isolierbar, ohne die gesicherten/akkordierten Anteile zu diskreditieren. Weiters verschiebt sich der Fokus weg von der Historie/Genese von Erkenntnissen hin zum verwendbaren Letztstand. Damit kann ein Großteil der Personen-gebundenen resp. weltanschaulich motivierten Diskussionen über Sachfragen entfallen. Dieses Prinzip ist sogar für philosophische Abhandlungen und Konzeptionen anwendbar. Der Großteil der Grundlagen für den Streit konkurrierender Denkschulen, Lehrmeinungen und Personenbindungen fällt weg, da die Einzel-Informationen transparent und im Überblick einsehbar sind, sowie Manipulation durch selektive Auswahl jederzeit und von jedermann überprüfbar ist.


B\ook als ultimative methodische Umsetzung des Wissenschaftsgedankens, da Wissenschaft ja nicht für Inhalte steht, sondern eine Methode darstellt.



Z\oom ist das konzeptionelle Framework für die frei regelbare Darstellung von Information nach Kriterien wie Umfang, Komplexität, Sprache und weiteren Optionen. Wobei die Basiseinheit, die Minimaleinheit, ein Absatz Text und Vergleichbares darstellt. Die on the fly und individuell in ihrer Darstellungsform angepasst werden können. Technisch durchgeführt wird dasKI- / AI - gestützt, eine Vorab-Aufbereitung ist nicht erforderlich.


Z\oom als Name leitet sich von der Analogie zur Bildbearbeitung ab: Rezipienten können Ausschnitts-weise sowol die Zoom-Stufe als auch weitere Darstellungs-Optionen wählen, und sind dabei von den Basisdaten entkoppelt. Auf Text-Ebene umgelegt kann für jeden Absatz / Informationsblock "per Schiebe-Regler" ausgewählt werden, wie der Inhalt dargestellt werden soll. 


Illustration: Absatzweise kann die Komplexität der Sprache, die Sprache selbst, sowie der Umfang (von One-Liner über Abstract bis Volltext) eingestellt werden. Weiters Optionen wie interne und externe Querverweise etc.


Ziel ist die massiv erhöhte Reichweiten-Möglichkeit von Werken, und die individuell optimierte Lesbarkeit. Weiters fällt die Mühsamkeit von Fußnoten/Zitaten, und von nur der Verständlichkeit dienenden, redundanten Parallel-Darstellungen/Ausdrucksweisen de facto weg. (Vor allem in Kombination mit B\ook)



W\ord stellt eine neuartige Landkarte des Denkens dar. Ausgangsgröße ist das Wort im Sinne von Begriff resp. Begrifflichkeit. Ohne Wertung per se werden die Fragen der Menschheit und deren Werte-Kataloge auf ihren strukturellen Ursprung zurückgeführt. Ebenfalls als Art geistige Landkarte lassen sich auch tagesaktuelle Fragen, Probleme, und strittige Ansichten strukturiert verorten.


Ziel ist es, den Diskurs auf eine transparente, nachvollziehbare Basis zu stellen. Sowie Nicht-Probleme aus solche zu identifizieren. Ziel ist nicht die Gegenüberstellung divergierender, konkurrierender Denkweisen resp. Weltsichten. Sondern die methodische Ermöglichung eines effizienten Diskurses durch nachvollziehbare Verortung der jeweiligen Aussagen innerhalb der jeweiligen Struktur, und weiters deren Vergleichbarkeit. Sowohl Brüche in der Stringenz, der Logik oder der Genese werden so sichtbar - und ebenfalls die unstrittigen Parallelitäten.


Auch hier liegt ein Schwerpunkt auf der Entkoppelung von einzelnen Aussagen / Informationen / Informationsblöcken  heraus aus den Gesamtwerken - ob Denkschulen, Religionen, Wertekatalogen oder individuellen Proponenten. 


S\ee ist die komplette Neukonzeption des Prinzips Suchmaschine. Sie übernimmt die Erkenntnisse der Hirnforschung, und ergänzt die bisherigen Such-Methoden um den entscheidenden Teil der -> Struktur, der dem menschlichen Denken wesentlich näher kommt. 


Das Ausgangs-Problem:

Es ist eine Binsenweisheit, dass die Gesamtmenge der vorhandenen Daten jeder Art bereits die herkömmlichen Computertechniken, die auf Worten und Zahlen beruhen, bei Weitem überfordern. Selbst KI-Systeme sind nur eingeschränkt anwendbar: sie sind per se auf Einzelanwendungen fokussiert, müssen trainiert werden, und ihre inneren Algorithmen de facto eine Black Box, Fehler darin sind schwer bis gar nicht korrigierbar.


Der prinzipielle Fehler bei herkömmlichen Suchmethoden besteht darin, dass nur Daten indiziert und gefunden werden können - die daraus ableitbaren Zusammenhänge und Strukturen müssen in Folge weiterhin im Gehirn des Bearbeiters/Suchers gebildet oder erkannt werden. Werden viele Daten als Input verwendet, erhöht das zwar die Genauigkeit bei der Strukturerkennung, überfordert aber in der Menge die technische, und vor allem die menschliche Logistik.


Muster-Erkennung diverser Art ( siehe KI ) gibt es zwar, hat aber zu den o.g. Limitierungen den Nachteil der asymmetrischen Resourcenverteilung: zentrale Systeme müssen mit viel Aufwand Erkenntnisse generieren, die bei den vielen Erstellern der Rohdaten längst vorliegen - und die obendrein grundlegende Fehler mit geringstem Aufwand korrigieren könnten. Nur wird deren Wissen bisher gar nicht erfasst. 


Das ist nicht nur wirtschaftlich eine bisher vergebene Chance, sondern auch ein gesellschaftspolitisches Problem: die Generierung von "Herrschaftswissen" liegt bereits in der DNA dieser Systeme.


Basis des Gedankens sind die Erkenntnisse der modernen Hirnforschung, die widerspruchsfrei belegt haben, was inzwischen common sense ist resp. sein sollte: Gehirne arbeiten völlig anders als Computer und ihre Datenspeicher. In der überwiegenden Mehrzahl der Anwendungen spielt das Einzel-Datum bis zu den letzten Verarbeitungsschritten gar keine Rolle, sondern tritt erst im Finale auf. Während der herkömmliche Computeransatz genau umgekehrt ist.


Der Lösungs-Ansatz:

Daten-Erstellern wird die technische Möglichkeit gegeben, die ihnen bekannten Strukturen innerhalb ihrer Daten (einschließlich Texte) parallel mit zu erfassen resp. (nachzu)indexieren. Durch eine standardisierte Form dessen ergibt sich die Möglichkeit der lokalen Suche genauso wie die der zentralen Weiterverarbeitung, einschließlich derer durch herkömmliche Suchmaschinenlogistik.


Zur Unterstützung dieser Erfassung werden FrontEnd-Tools genauso eingesetzt wie lokale KI-Methoden (analog zu zB "Auto-Verschlagwortung"). Die Qualitätssicherung erfolgt damit bereits direkt an der Quelle.


Ziel ist die dramatisch höhere Relevanz der Suchergebnisse, der themenübergreifende Zugriff auf Erkenntnisse, die Reduzierung des Suchaufwandes, die reale Neuverteilung des technischen Aufwands (einschließlich dessen Reduzierung für alle Beteiligten), und nicht zuletzt die volkswirtschaftliche Entlastung: je höher eine Gesellschaft technisiert (im umfassenden Sinne) ist, desto höher der anteilige Aufwand beim Suchen nach Lösungen und Antworten jeder Art, zudem steigt die Bindung an einzelne Wissensträger.