Contact-Page of Verena Hanks & Heinz M. Hanks

Verena Hanko

MA MAEIS ,  EU - Policy Officer 

🇩đŸ‡čđŸ‡ȘđŸ‡ș

Please select, bitte wĂ€hlen Sie aus, veuillez choisir, por favor, seleccione↑↓

Data∙Science∙Investigation∙History∙Media∙Art

Verena Hanko

MA MAEIS 

Policy Officer in European and International Organisations 

🇩đŸ‡čđŸ‡ȘđŸ‡ș

EDUCATION


2019/20 Masterstudium „Advanced European and International Studies (MAEIS) – European Policy and Governance”, Trilingual Studies, CIFE (Centre International de Formation EuropĂ©enne), Nizza, Canterbury, Berlin 


2018 Lehrgang „Medienkompetenz – Inspirationen, Werte und InterkulturalitĂ€t fĂŒr eine zeitgerechte Mediengestaltung“, Wien, Figlhaus 


2017/18 Lehrgang „Neuer Schwung fĂŒr Europa“ des CIFE, Ausbildung zur EU-Expertin, Wien, Figlhaus


2016/19 Masterstudium „Romanistik“ (Hauptfach Französisch), Fokus „Interkulturelle Kommunikation“, UniversitĂ€t Wien


2014/15 Erasmus-Semester an der UniversitĂ© catholique de l’ouest (UCO), Angers, Frankreich


2012/16 Doppelstudium Bachelor „Romanistik“ und „Philosophie“, UniversitĂ€t Wien


2011 Gymnasium GRG 15 Auf der Schmelz, Sprachzweig (Englisch/Französisch), Matura mit ausgezeichnetem Erfolg

WORK


2021/ Fach-Referentin fĂŒr Integration Österr. Bundeskanzleramt 


Sektion II - Integration, Kultusamt und Volksgruppen
Abteilung II/2­ – Integrationskoordination
Referat Wissensmanagement und Integrationsmonitoring


2019 Projekt-Mitarbeiterin â€žTalk-Team Figlhaus“, Organisation von Podiumsdiskussionen in den Bereichen Politik, Kultur und Medien


2017/18 Marketing-Assistentin, Tageszeitung „derStandard“, Kundenberatung


2017 Hilfswissenschaftlerin am Forschungskongress „Vienna’s Role in the Development of the Mind Sciences“ an der UniversitĂ€t Wien, GĂ€steempfang- und Betreuung


2014 Tutorin im Fach „Logik“ (Philosophie) an der UniversitĂ€t Wien


2012/18 Lernquadrat, Nachhilfe in den FĂ€chern „Französisch“ und "Englisch"


2012/13 Tanz-Lehrerin, Tanzschule Stanek, Wien



PAPERS


2020 „Das bedingungslose Grundeinkommen – ein soziales Modell fĂŒr Europa?“, Masterarbeit


2019 „L’intelligence artificielle et la sociĂ©tĂ© de donnĂ©es Ă  l’exemple d’une analyse de discours du scandale‚« Facebook - Cambridge Analytica » dans la presse française“, Masterarbeit


2020 „Spreading human rights and democracy? – The EU as a normative actor in times of change“, Artikel fĂŒr das akademische Journal Kent Political Almanac special edition, University of Kent


2016 "Hast du un stylo ? Analyse syntaxique des alternances codiques à l'exemple du couple de langue français - allemand", Bachelorarbeit


2016 "La conversation française en tant que lieu de mémoire", Bachelorarbeit


2020 "Report on Austria’s economy" macroeconomic, macrosocial, demographic and international indicators, CIFE


2020 "The mediation in the Bosnia war (1992-1995) - An analysis of the U.S. mediation in the Dayton Peace Agreement", University of Kent





 
 
 
 


DATA - SCIENCE - INVESTIGATION - HISTORY - MEDIA - ART


HEINZ M. HANKO


global contact

NOBILEGASSE 40

1150 WIEN

AUSTRIA


regular email

HEINZ@HANKO.CC

confidential/encrypted email 

HANKO@PROTONMAIL.CH


text/signal

+43 680 230 49 30

Threema: BYU7EB46


(not available on any platforms as Instagram, Facebook, LinkedIn, Xing, TikTok, etc - no clouds)





Langfristige Projekte
(Intentionally no navigation provided - deep links on invitation.
Exception: this german abstract about some longterm-projects)

B\ook ist das konzeptionelle Framework fĂŒr die globale, universelle Datenbank des gesicherten Wissens. Es referenziert auf die jeweiligen Quelldaten und schließt konkurrierende Datenlagen sowie die Zeitachse mit ein. Die Informations-Einheiten sind kleinstmöglich definiert und jeweils direkt und eindeutig adressierbar.

Ziel 1 ist die Reduzierung der Redundanzen von Referenzmaterial, die Transparenz von dessen Auswahl, sowie der jederzeitige Überblick ĂŒber divergierende/konkurrierende Datenlagen und deren Interpretation bzw. Kontext-Bildung.


Durch die unstrittige Hinterlegung der einzelnen Informations-Einheiten bilden diese eine Art " Landkarte" mit Wegpunkten. Sach-Abhandlungen jeder Art brauchen diese Inhalte nicht mehr zu ĂŒbernehmen, sondern nur mehr darauf verweisen. Der Großteil von Arbeiten/BĂŒchern kann daher aus der individuellen Wegstrecke bestehen, und sich auf den Mehrwert beschrĂ€nken. Wobei auch diese Arbeiten als eigene Informations-Einheiten definierbar sind. Das Buch als solches wird damit zur "Route", Rezipienten haben den transparenten Zugriff auf den Pfad und auf die Auswahl-Methode.


Ziel 2 ist die Entkoppelung von Autor und Werk. Der Fehler- resp. strittige Anteil von Werken ist damit isolierbar, ohne die gesicherten/akkordierten Anteile zu diskreditieren. Weiters verschiebt sich der Fokus weg von der Historie/Genese von Erkenntnissen hin zum verwendbaren Letztstand. Damit kann ein Großteil der Personen-gebundenen resp. weltanschaulich motivierten Diskussionen ĂŒber Sachfragen entfallen. Dieses Prinzip ist sogar fĂŒr philosophische Abhandlungen und Konzeptionen anwendbar. Der Großteil der Grundlagen fĂŒr den Streit konkurrierender Denkschulen, Lehrmeinungen und Personenbindungen fĂ€llt weg, da die Einzel-Informationen transparent und im Überblick einsehbar sind, sowie Manipulation durch selektive Auswahl jederzeit und von jedermann ĂŒberprĂŒfbar ist.


B\ook als ultimative methodische Umsetzung des Wissenschaftsgedankens, da Wissenschaft ja nicht fĂŒr Inhalte steht, sondern eine Methode darstellt.



Z\oom ist das konzeptionelle Framework fĂŒr die frei regelbare Darstellung von Information nach Kriterien wie Umfang, KomplexitĂ€t, Sprache und weiteren Optionen. Wobei die Basiseinheit, die Minimaleinheit, ein Absatz Text und Vergleichbares darstellt. Die on the fly und individuell in ihrer Darstellungsform angepasst werden können. Technisch durchgefĂŒhrt wird dasKI- / AI - gestĂŒtzt, eine Vorab-Aufbereitung ist nicht erforderlich.


Z\oom als Name leitet sich von der Analogie zur Bildbearbeitung ab: Rezipienten können Ausschnitts-weise sowol die Zoom-Stufe als auch weitere Darstellungs-Optionen wĂ€hlen, und sind dabei von den Basisdaten entkoppelt. Auf Text-Ebene umgelegt kann fĂŒr jeden Absatz / Informationsblock "per Schiebe-Regler" ausgewĂ€hlt werden, wie der Inhalt dargestellt werden soll. 


Illustration: Absatzweise kann die KomplexitĂ€t der Sprache, die Sprache selbst, sowie der Umfang (von One-Liner ĂŒber Abstract bis Volltext) eingestellt werden. Weiters Optionen wie interne und externe Querverweise etc.


Ziel ist die massiv erhöhte Reichweiten-Möglichkeit von Werken, und die individuell optimierte Lesbarkeit. Weiters fĂ€llt die MĂŒhsamkeit von Fußnoten/Zitaten, und von nur der VerstĂ€ndlichkeit dienenden, redundanten Parallel-Darstellungen/Ausdrucksweisen de facto weg. (Vor allem in Kombination mit B\ook)



W\ord stellt eine neuartige Landkarte des Denkens dar. AusgangsgrĂ¶ĂŸe ist das Wort im Sinne von Begriff resp. Begrifflichkeit. Ohne Wertung per se werden die Fragen der Menschheit und deren Werte-Kataloge auf ihren strukturellen Ursprung zurĂŒckgefĂŒhrt. Ebenfalls als Art geistige Landkarte lassen sich auch tagesaktuelle Fragen, Probleme, und strittige Ansichten strukturiert verorten.


Ziel ist es, den Diskurs auf eine transparente, nachvollziehbare Basis zu stellen. Sowie Nicht-Probleme aus solche zu identifizieren. Ziel ist nicht die GegenĂŒberstellung divergierender, konkurrierender Denkweisen resp. Weltsichten. Sondern die methodische Ermöglichung eines effizienten Diskurses durch nachvollziehbare Verortung der jeweiligen Aussagen innerhalb der jeweiligen Struktur, und weiters deren Vergleichbarkeit. Sowohl BrĂŒche in der Stringenz, der Logik oder der Genese werden so sichtbar - und ebenfalls die unstrittigen ParallelitĂ€ten.


Auch hier liegt ein Schwerpunkt auf der Entkoppelung von einzelnen Aussagen / Informationen / Informationsblöcken  heraus aus den Gesamtwerken - ob Denkschulen, Religionen, Wertekatalogen oder individuellen Proponenten. 


S\ee ist die komplette Neukonzeption des Prinzips Suchmaschine. Sie ĂŒbernimmt die Erkenntnisse der Hirnforschung, und ergĂ€nzt die bisherigen Such-Methoden um den entscheidenden Teil der -> Struktur, der dem menschlichen Denken wesentlich nĂ€her kommt. 


Das Ausgangs-Problem:

Es ist eine Binsenweisheit, dass die Gesamtmenge der vorhandenen Daten jeder Art bereits die herkömmlichen Computertechniken, die auf Worten und Zahlen beruhen, bei Weitem ĂŒberfordern. Selbst KI-Systeme sind nur eingeschrĂ€nkt anwendbar: sie sind per se auf Einzelanwendungen fokussiert, mĂŒssen trainiert werden, und ihre inneren Algorithmen de facto eine Black Box, Fehler darin sind schwer bis gar nicht korrigierbar.


Der prinzipielle Fehler bei herkömmlichen Suchmethoden besteht darin, dass nur Daten indiziert und gefunden werden können - die daraus ableitbaren ZusammenhĂ€nge und Strukturen mĂŒssen in Folge weiterhin im Gehirn des Bearbeiters/Suchers gebildet oder erkannt werden. Werden viele Daten als Input verwendet, erhöht das zwar die Genauigkeit bei der Strukturerkennung, ĂŒberfordert aber in der Menge die technische, und vor allem die menschliche Logistik.


Muster-Erkennung diverser Art ( siehe KI ) gibt es zwar, hat aber zu den o.g. Limitierungen den Nachteil der asymmetrischen Resourcenverteilung: zentrale Systeme mĂŒssen mit viel Aufwand Erkenntnisse generieren, die bei den vielen Erstellern der Rohdaten lĂ€ngst vorliegen - und die obendrein grundlegende Fehler mit geringstem Aufwand korrigieren könnten. Nur wird deren Wissen bisher gar nicht erfasst. 


Das ist nicht nur wirtschaftlich eine bisher vergebene Chance, sondern auch ein gesellschaftspolitisches Problem: die Generierung von "Herrschaftswissen" liegt bereits in der DNA dieser Systeme.


Basis des Gedankens sind die Erkenntnisse der modernen Hirnforschung, die widerspruchsfrei belegt haben, was inzwischen common sense ist resp. sein sollte: Gehirne arbeiten völlig anders als Computer und ihre Datenspeicher. In der ĂŒberwiegenden Mehrzahl der Anwendungen spielt das Einzel-Datum bis zu den letzten Verarbeitungsschritten gar keine Rolle, sondern tritt erst im Finale auf. WĂ€hrend der herkömmliche Computeransatz genau umgekehrt ist.


Der Lösungs-Ansatz:

Daten-Erstellern wird die technische Möglichkeit gegeben, die ihnen bekannten Strukturen innerhalb ihrer Daten (einschließlich Texte) parallel mit zu erfassen resp. (nachzu)indexieren. Durch eine standardisierte Form dessen ergibt sich die Möglichkeit der lokalen Suche genauso wie die der zentralen Weiterverarbeitung, einschließlich derer durch herkömmliche Suchmaschinenlogistik.


Zur UnterstĂŒtzung dieser Erfassung werden FrontEnd-Tools genauso eingesetzt wie lokale KI-Methoden (analog zu zB "Auto-Verschlagwortung"). Die QualitĂ€tssicherung erfolgt damit bereits direkt an der Quelle.


Ziel ist die dramatisch höhere Relevanz der Suchergebnisse, der themenĂŒbergreifende Zugriff auf Erkenntnisse, die Reduzierung des Suchaufwandes, die reale Neuverteilung des technischen Aufwands (einschließlich dessen Reduzierung fĂŒr alle Beteiligten), und nicht zuletzt die volkswirtschaftliche Entlastung: je höher eine Gesellschaft technisiert (im umfassenden Sinne) ist, desto höher der anteilige Aufwand beim Suchen nach Lösungen und Antworten jeder Art, zudem steigt die Bindung an einzelne WissenstrĂ€ger.