Rafael Laguna de la Vera ist Direktor der seit 2019 in Leipzig ansässigen Bundesagentur für Sprunginnovation (SPRIND). Laguna ist Jahrgang 1964, in Leipzig geboren und 2019 mit der Berufung zum Gründungsdirektor von SprinD wieder in Leipzig angekommen. Mit ihm sprechen wir über das, was seine Agentur mit dem ungewöhnlichen Namen eigentlich alles anstellt.
Im ersten Teil des Gesprächs mit Rafael Laguna ging es um Science Fiction, Technikoptimismus, Sprunginnovation und das Bendix’sche Höhenwindrad.
Im zweiten Teil des Gesprächs sprach ich mit ihm über Kernfusion, Fehlerkultur und SPRIND-Challenges.
Reden wir über Finanzen, die SPRIND ist ja scheinbar gut aufgestellt. Trotzdem fehlt Ihnen das versprochene Freiheitsgesetz für SPRIND. Was muss man sich darunter vorstellen?
SPRIND ist ja ein Real-Labor, wie man Innovationsfinanzierung anders machen kann. Wir geben ja allein auf Bundesebene, im Bildungsministerium, um die zwanzig Milliarden in ein Forschungssystem rein, was bestimmte Leistungen bringt, bestimmte aber auch nicht. Gerade die Translation der wissenschaftlichen Leistung in volkswirtschaftlichen Nutzen findet viel zu wenig statt. Dafür ist die SPRIND da. Dafür müssen wir Instrumente schaffen, die anders sind als die, die wir jetzt haben. Sonst kann es nicht funktionieren – sonst machen wir genau dasselbe wie die anderen.
Wir lernen jetzt seit drei Jahren, wie diese Instrumente aussehen müssen und wir haben eine sehr verlangsamte Art die umzusetzen, weil wir mit sehr vielen Ministerien abstimmen müssen, wie wir das tun und es dann auch noch genehmigt bekommen müssen.
Diese Prozesse zu verkürzen, dafür ist das SPRIND-Gesetz da. Dass wir das Gelernte sofort in die Tat umsetzen können. Weil Fachkompetenz zum Thema Sprunginnovation und neuer Innovationsförderung sind wir. Und dann muss man uns auch einfach mit der hoheitlichen Aufgabe betrauen, das zu tun.
Sie wollen also raus aus dem traditionell langsamen Fördersystem, wo man jedes Töpfchen beantragen muss, jedes genehmigt werden muss und jeder mitzureden hat?
Ja, welchen Bleistift darfst Du kaufen. So funktioniert Innovation nicht. Zweitens, wir müssen eine Finanzierung haben, die Risiken einprobt und dann auch das Gelernte sofort umsetzt. Jeder, der schon mal ein etwas komplizierteres Projekt gemacht hat, weiß, dass man agil reagieren muss auf Dinge, die man lernt, und das sofort. Du hast vielleicht einen Plan, nach dem Du losgearbeitet hast. Doch nach 5 Metern weißt Du, so geht es nicht – Du musst es anders machen. Das ist in einem so starren System nicht möglich.
Das muss ich dann erst beantragen. Ich habe übrigens früher, in der DDR, an 5-Jahr-Plänen mitarbeiten dürfen.
Ehrlich gesagt, unsere Projekt- und Zuwendungsanträge sind solche Fünfjahrpläne.
Sie sprachen in Ihrem Buch viel über „Einkaufsmacht des Staates“ und den Vergleich mit den USA und der DARPA. Was muss ich mir darunter vorstellen?
Wir haben jetzt gerade ein aktuelles Beispiel. Es gibt ein Sondervermögen von 100 Milliarden für die Bundeswehr und was machen wir damit? Wir kaufen amerikanische F 35, die wir noch nicht einmal selber bedienen können. Das Schöne ist, wir haben dann Flugzeuge und solange genügend Amerikaner da sind, die wissen, wie es geht, können wir die vielleicht auch irgendwo hinfliegen. Das nützt uns volkswirtschaftlich nicht. Stattdessen sollten wir solche Investitionen etwas vorausschauender machen, also Technologien entwickeln, die wir selber kontrollieren, das stiftet dann sehr großen volkswirtschaftlichen Nutzen. Wir produzieren die Geräte hier, wir entwickeln neue Technologien, die auch im zivilen Bereich Anwendung finden können. Das ist nur ein Beispiel aus dem militärischen Bereich; das gilt für ausschließlich zivile Technologien genauso.
Das ist die Einkaufsmacht des Staates. Hier wird wahnsinnig viel Geld ausgegeben. Wir sollten das nicht nur ausgeben, um irgendein Produkt zu kaufen, sondern das auch als Innovationsfinanzierung sehen.
Wir haben gerade über Windräder gesprochen. Warum sagt der Staat nicht: „Ich will die Energiewende. Dazu müssen wir mehrere hundert Terrawatt Strom umweltfreundlich erzeugen. Diesen Strom kaufe ich jetzt mal. Dann kann die Privatwirtschaft ein Angebot machen und die Windräder hinstellen. Egal ob Höhenwindrad oder nicht.“ Mit so einer Investition der öffentlichen Hand erzeuge ich einen hohen Innovationsdruck im Markt. Das machen wir bislang viel zu wenig.
Sie haben das auch im Podcast angesprochen, das gilt auch für das antivirale Breitbandmittel.
Das muss halt da sein, wenn eine Pandemie kommt.
Das kann nicht erst entwickelt werden, wenn sie da ist. Bei Corona hatten wir ja Glück mit Biontech. Aber wenn so ein Mittel da ist, dann muss es produziert werden.
Wir hatten mehr Glück als Verstand. Ja, es muss produziert und in die Schublade gelegt werden. Und nach fünf Jahren muss man es wegschmeißen und neues kaufen.
Das war ja schon mal üblich.
Das konnten wir schon mal, weil wir eigentlich das Risiko einer Pandemie schon lange sehen. Es kam ja wirklich nicht überraschend, aber es ist lange nichts passiert. Die es gab, wie Ebola und so, die waren nicht so relevant. Aber wenn’s dann knallt, gucken alle doof.
Das ist übrigens eine rein finanzielle Geschichte. Die wirtschaftlichen Schäden der Pandemie, da überschlagen sich die Zahlen. Dass es viele Billionen sind, man geht von zwanzig Billionen aus, die die Welt ausgegeben hat. Wenn das Mittel zur Vermeidung 1 % davon kostet, dann ist es das wert.
Wir haben ein Thema bisher ausgelassen, was eigentlich bei ihrer beruflichen Herkunft naheliegt. Die Frage der IT. Nun kommt der Pirat in mir durch, wenn Sie schreiben: „Wir brauchen als Anlage zur Daten-Schutz-Grundverordnung eine Daten-Nutz-Grundverordnung!“ Da gehe ich d’accord.
Die Frage ist, wir haben überall Daten, meist nur dort nicht, wo wir sie brauchen. Wie stellen Sie sich den Zugriff auf vorhandene und benötigte Daten, bei gleichzeitigem Schutz sensibler, vor allem personenbezogener Daten vor? Anonymisierung, soweit möglich, ist ja eine Methode. Ich muss bei einer Blutprobe ja nicht sagen „Blutprobe von Thomas Köhler“, sondern kann sagen „Mann, Europäer, 66 Jahre, übergewichtig“. Ich vertrete per se den Datenschutz, wie bekommen wir das auf die Reihe?
Darauf gibt es leider keine einfache Antwort. Die Anonymisierung von Daten, bei wachsender Komplexität, wird eigentlich immer unmöglicher. Man kann sagen, wenn Daten anfangen interessant zu werden, dann ist eine Anonymisierung fast nicht mehr möglich.
Weil eine De-Anonymisierung wieder möglich ist?
Genau. Die Blutprobe enthält DNA, da haben wir den Thomas Köhler ganz schnell wieder rausgebuddelt. Es gibt Ansätze, die sicherlich sinnvoll sind. Das erste ist, dass man die Daten beim Datenbesitzer erst mal hält. Wenn der Thomas Köhler auf seinem Handy seine ganzen Gesundheitsdaten hätte, dann kann er ja entscheiden, wem er sie gibt. Wenn eine Anfrage kommt: Hier ist der Pharmakonzern X. Wir wollen eine Studie machen und Sie sind in der Zielgruppe. Stellen Sie uns Ihre Daten zur Verfügung? Sie erhalten dafür 100 €. Oder Sie sind in der Risikogruppe: Wenn das Medikament kommt, kriegen Sie es als einer der ersten. Oder Sie tun es nur, weil Sie ein netter Mensch sind.
Dann können Sie sagen: „Was wird übermittelt? Ja/Nein.“ Die Technologie könnte es prinzipiell geben, da gibt es keine Gründe dagegen. Ich kenne einige Projekte, die daran arbeiten. Aber, es gibt keinen, der das mal zu einer Kohärenz bringt. Das müsste der Regulator, also der Gesetzgeber, machen. Er müsste dazu motivieren und sagen: „Wir fördern jetzt Systeme, die so funktionieren, damit wir eine Forschung mit Hilfe dieser Daten überhaupt ermöglichen.“
Ein anderes Beispiel ist, dass man Daten komplett verschlüsselt zu jedem Zeitpunkt ablegen kann und Forschung mit den Daten machen kann, ohne dass die Daten sozusagen den Raum verlassen. Man hat natürlich auch hier ein De-Anonymisierungsrisiko. Aber man kann zumindest einige Sicherheitsstufen einbauen.
Wenn man sich überlegt, wie unsicher wir jetzt schon agieren mit unseren Handys, was wir an Daten die ganze Zeit ausbluten: Dann ist das zusätzliche Risiko für mich überschaubar.
Das noch Banalere ist, Daten, die wir schon haben, überhaupt verfügbar zu machen. Gott sei Dank gibt es in der Bundesregierung jetzt die Initiative des Dateninstituts, wo wir schauen: „Was haben wir denn überhaupt an Daten. Wie können wir diese zur Verfügung stellen. Welche use cases können wir darauf setzen?“ Das wird erforscht werden, da geht man jetzt in die Umsetzung. Das Potenzial, das da liegt, ist Gold.
Für mich steht da immer noch im Hintergrund die generelle IT-Sicherheit. Solange wir mit Systemen arbeiten, wo jeder Daten abgreifen kann, ist alles andere schon fast spekulativ.
Ja, wir haben ja unter anderem auch eine Challenge zu neuen Computing-Architekturen. Da geht es im Kern um Energie und Effizienz. Aber man kann sagen, die Computing-Architektur, die wir jetzt haben, und das Internet, wie es jetzt ist, und die von-Neumann-CPU-Architektur sind halt unsicher. Da müssen wir ganz unten anfangen.
Sie haben jetzt von Neumann angesprochen, die von-Neumann-Architektur ist ja bewährt und alt – lange bevor es den ersten Computer gab. Jetzt wird viel von Quantencomputern geredet, Sie arbeiten aber auch an einem Analogcomputer. Ich kann mir etwas unter Quantencomputer vorstellen, für Großrechner wohl eher. Im Home-Bereich sehe ich das in absehbarer Zeit nicht, vermutlich werden das auch meine Kinder nicht erleben.
Es gibt da zwei Projekte aus Sachsen, sogar aus Leipzig, die vom DLR finanziert werden. Die heißen SaxonQ und XeedQ, die sind beide hier.
Welchen Weg sehen Sie denn?
Der Quantencomputer ist übrigens auch ein Analogcomputer. Gerade die, die mit Kryotechnologien arbeiten, brauchen noch einen Analogcomputer als Nachschaltstelle, bevor das ins Digitale gehen kann. Du kommst ja aus einem Kelvin hoch und den Weg da hoch zu bauen, das ist ein Analogcomputer. Weswegen das DLR auch das Analogcomputer-Projekt der Firma anabrid, das wir inkubiert und anfinanziert haben, nun langfristig fördert. Da sieht man die Artverwandtschaft. In der SPRIND Challenge „New Computing Concepts“ haben wir die Frage gestellt: Welche neuen Architekturen gibt es überhaupt, die wir weiterentwickeln sollten. Wir werden in der ersten Wettbewerbsphase von neun Monaten, 14 oder sogar 15 Teams Geld geben, um die Architektur zu beschreiben. In der zweiten Phase werden wir dann fragen, wer welche Architektur bauen kann. Dann werden wir viel Geld ausgeben, um die neuen Architekturen in die Tat umzusetzen.
Wenn man da reinschaut, was an Technologieansätzen drin ist, wie die Themen angegangen werden – da sieht man, das ist mal was total anderes. Da sind neuromorphe Computer dabei, die auch analog sind und sich mehr nach neuronaler Netzwerkarchitektur richten. Aber es sind auch biologische dabei, die gar kein Silizium mehr verwenden, auch keine Elektronen verwenden, sondern das, was eben die Biologie verwendet, also Ionen und Protonen, je nachdem wie die gebaut sind. Ich will jetzt nicht zu sehr Jargon raushauen, aber da probieren wir mal Dinge aus, die so noch nicht probiert wurden.
Es wird auch höchste Zeit, denn mit dem Energieverbrauch der Rechner kann es nicht so weitergehen. Wir haben ja über die Energie im Überfluss geredet. Aber die werden wir nicht schnell genug haben, um den Energiehunger der Rechenzentren, den wir jetzt haben, zu stillen.
KI- bzw. AI-Forschung, da ist die SPRIND wohl nicht dabei?
Doch schon. Wir haben geschaut, ob es hier Ansätze gibt, die wir mit unseren Instrumenten zu Sprunginnovationen fördern können. Da sind wir noch nicht so richtig fündig geworden. Was wir jetzt mit den Sprachmodellen, wie ChatGPT, sehen ist ja seit zehn Jahren in Arbeit. Da kann man nicht eben mal schnell draufspringen und die links überholen.
ChatGPT, ich habe auch schon damit gespielt, es werden natürlich Bedenken entstehen. Ich denke hier wieder an Asimov, der beschrieb in den Robotergeschichten, dass die Menschen Angst vor Robotern hatten.
Daraufhin wurden dann die Robotergesetze eingeführt.
Werden menschliche Autoren, Programmierer, Callcenter und andere überflüssig? Was wird durch diese ChatBots ersetzt, wo muss der Mensch noch nacharbeiten, auch ChatGPT ist ja nicht fehlerfrei. Bei wissenschaftlichen Texten findet er gern gut klingende, falsche Zitate.
Rechnen kann er auch nicht, obwohl es ein Computer ist. Das sind Werkzeuge für Menschen. Das wird auch so bleiben. Aber natürlich werden die Menschen dadurch effizienter. Die Programmierer zum Beispiel. Vor ChatGPT gab es ja schon den CoPilot von GitHub. Das macht Programmierer schneller. Dann kann man sagen „wir brauchen weniger“. Die Antwort ist nein, das macht es ja auch billiger und der Appetit für Programmierungen ist unstillbar, es ist begrenzt durch die Anzahl ProgrammiererInnen, die es gibt, und eben die Kosten. Wir werden also die Kosten pro Zeile Code senken. Wir werden Tools entwickeln, die uns vielleicht um den Faktor 10 oder sogar 100 effektiver machen. Damit können wir dann komplexere Software machen, die leistungsfähiger ist.
Wir werden dann mehr Code schreiben, mit billigeren Zeilen?
Ob das gut ist, ist eine andere Frage. Vielleicht entstehen auch ganz neue Programmiersysteme, bei denen wir nur noch beschreiben, was wir wollen und das Ding programmiert dann den Code, den wir gar nicht mehr sehen. Der Code interessiert Dich dann nicht mehr. Du schaust nur noch, ob die Maschine macht, was sie soll. Das heißt, die Arbeit, die jetzt noch ein Mensch machen muss, nämlich Problem verstehen und dann in etwas formulieren, was da rauskommen soll und das dann umzusetzen, verändert sich. Der Umsetzungsteil entfällt. Das davor, das bleibt. Das wird auch mit dem Schreiben von Texten so bleiben, auch wenn wir uns von den Maschinen zuarbeiten lassen. Richtig spannend wird das, wie wir es jetzt schon teilweise sehen, wenn die ChatBots im Internet verfügbar sind.
You.com, das ist ja ein Deutscher, der das macht, das wird irre. Oder wenn wir wie bei Stephen Wolfram, symbolische Modelle wie WolframAlpha mit diesen Sprachmodellen kombinieren, dann können die plötzlich rechnen und auch symbolisch rechnen. Dann wird es interessant, dann haben wir vielleicht auch wissenschaftliche Tools, die wir noch nicht gesehen haben.
Eine letzte Frage, die Zeit ist ja um, wir sprachen über antivirale Breitbandmittel, in der Krebstherapie arbeiten Sie an bispezifischen Antikörpern und wir haben ja gesehen, dass mit der Entwicklung der mRNA-Impfstoffe Verschwörungstheorien entstanden und daraus die Querdenkerbewegung. Was kann man tun, um das für die neuen Technologien zu verhindern?
Man kann nur aufklären. Es wird beispielsweise durch die Querdenker ein Wahrnehmungs-Ungleichgewicht hergestellt, weil diese Menschen sehr viel Zeit damit verbringen, lauthals kund zu tun, was sie denken. Sie sind aber keineswegs die Mehrheit.
Es ist eine laute Minderheit?
Wenn man tiefer reinhört und Umfragen macht, dann merkt man, dass es eine laute Minderheit ist. Ich glaube, da müssen wir unsere Medienkompetenz verbessern. Indem man eben diesen lauten Minderheiten nicht überproportional Gehör gibt. Das ist die Verantwortung eines jeden Journalisten.
False balance vermeiden?
False balance ist das richtige Wort und wir müssen auch auf die Kompetenz der Leute schauen, die da etwas sagen.
Herr Laguna, die halbe Stunde ist vorbei, ich bedanke mich für Ihre Zeit und das Gespräch.
Der Beitrag entstand im Rahmen der Workshopreihe „Bürgerjournalismus als Sächsische Beteiligungsoption“ – gefördert durch die FRL Bürgerbeteiligung des Freistaates Sachsen.
Keine Kommentare bisher
Hier die Antworten von ChatGPT auf einige ausgewählte Fragen aus Ihrem Artikel:
LIZ: “Werden menschliche Autoren, Programmierer, Callcenter und andere überflüssig? Was wird durch diese ChatBots ersetzt, wo muss der Mensch noch nacharbeiten, auch ChatGPT ist ja nicht fehlerfrei. Bei wissenschaftlichen Texten findet er gern gut klingende, falsche Zitate.”
ChatGPT: “Es ist unwahrscheinlich, dass menschliche Autoren, Programmierer, Callcenter und andere Mitarbeiter durch die Weiterentwicklung von KI und Chatbots wie ChatGPT völlig überflüssig werden. Diese Technologien können zwar viele Aufgaben automatisieren und die Effizienz steigern, haben aber immer noch ihre Grenzen und sind anfällig für Fehler.
Der Mensch wird weiterhin eine wichtige Rolle bei Aufgaben spielen, die Kreativität, kritisches Denken, Einfühlungsvermögen und komplexe Problemlösungen erfordern, die von KI und Chatbots nicht ohne weiteres übernommen werden können. So können Chatbots zwar einfache Kundendienstanfragen bearbeiten, haben aber möglicherweise Schwierigkeiten bei komplexen oder emotionalen Kundeninteraktionen, die eine menschliche Note erfordern.
Bei wissenschaftlichen Texten werden menschliche Experten weiterhin eine entscheidende Rolle bei der Überprüfung der Genauigkeit von KI-generierten Informationen spielen und sicherstellen, dass die Daten richtig interpretiert werden. Darüber hinaus werden menschliche Autoren und Redakteure weiterhin eine Rolle dabei spielen, fesselnde Erzählungen zu verfassen und Geschichten auf eine Weise zu erzählen, die fesselnd und überzeugend ist.
Zusammenfassend lässt sich sagen, dass KI und Chatbots zwar viele Aufgaben automatisieren können, aber keinen Ersatz für menschliche Arbeitskräfte darstellen. Menschen werden weiterhin eine entscheidende Rolle bei Aufgaben spielen, die Kreativität, kritisches Denken und emotionale Intelligenz erfordern.”
LIZ: “Die Frage ist, wir haben überall Daten, meist nur dort nicht, wo wir sie brauchen. Wie stellen Sie sich den Zugriff auf vorhandene und benötigte Daten, bei gleichzeitigem Schutz sensibler, vor allem personenbezogener Daten vor? Anonymisierung, soweit möglich, ist ja eine Methode. Ich muss bei einer Blutprobe ja nicht sagen „Blutprobe von Thomas Köhler“, sondern kann sagen „Mann, Europäer, 66 Jahre, übergewichtig“. Ich vertrete per se den Datenschutz, wie bekommen wir das auf die Reihe?”
ChatGPT: “Die Sicherstellung des Zugriffs auf benötigte Daten bei gleichzeitigem Schutz sensibler, persönlicher Daten ist eine große Herausforderung im digitalen Zeitalter. Es gibt mehrere Strategien, die dabei helfen können, diese konkurrierenden Prioritäten auszugleichen, darunter
Anonymisierung: Wie Sie bereits erwähnt haben, ist die Anonymisierung eine gängige Methode zum Schutz sensibler Daten, die dennoch für Forschungs- und Analysezwecke verwendet werden können. Durch das Entfernen persönlich identifizierbarer Informationen können die Daten weiterhin analysiert werden, während das Risiko eines unbefugten Zugriffs oder Missbrauchs verringert wird.
Zugangskontrolle: Eine weitere wichtige Strategie ist die Zugriffskontrolle, bei der der Zugang zu sensiblen Daten auf diejenigen beschränkt wird, die sie für einen bestimmten Zweck benötigen. Dies kann durch technische Maßnahmen wie Verschlüsselung, Authentifizierung und Autorisierung geschehen, aber auch durch rechtliche und politische Maßnahmen wie Datenschutzbestimmungen.
Datenverwaltung: Eine wirksame Data Governance ist von entscheidender Bedeutung, um sicherzustellen, dass die Daten verantwortungsvoll verwaltet und genutzt werden. Dazu gehört die Festlegung klarer Richtlinien und Verfahren für die Datenerfassung, -speicherung und -nutzung sowie die Einführung strenger Sicherheitsmaßnahmen zum Schutz sensibler Daten.
Transparenz und Aufklärung: Um das Vertrauen in die Datenverwaltung und -nutzung zu stärken, muss sichergestellt werden, dass der Einzelne versteht, wie, von wem und zu welchem Zweck seine Daten verwendet werden. Dazu gehört die Bereitstellung klarer und transparenter Informationen über Datenpraktiken und die Bereitstellung von Schulungen und Ressourcen, die den Bürgern helfen, fundierte Entscheidungen über ihre Daten zu treffen.
Zusammenarbeit und Koordinierung: Die Bewältigung der Herausforderung, ein Gleichgewicht zwischen Datenzugang und Datenschutz herzustellen, erfordert die Zusammenarbeit und Koordinierung zwischen den Beteiligten, einschließlich Datenwissenschaftlern, Datenschutzbeauftragten, politischen Entscheidungsträgern und Einzelpersonen. Gemeinsam können diese Gruppen wirksame Lösungen entwickeln, die die Notwendigkeit des Datenzugangs mit der Notwendigkeit des Schutzes sensibler Informationen in Einklang bringen.
Zusammenfassend lässt sich sagen, dass die Sicherstellung des Zugangs zu benötigten Daten bei gleichzeitigem Schutz sensibler, personenbezogener Daten einen vielschichtigen Ansatz erfordert, der technische Maßnahmen, rechtliche und politische Maßnahmen, eine wirksame Datenverwaltung, Transparenz und Aufklärung sowie die Zusammenarbeit und Koordinierung zwischen den Beteiligten umfasst.”
LIZ: “Sie haben jetzt von Neumann angesprochen, die von-Neumann-Architektur ist ja bewährt und alt – lange bevor es den ersten Computer gab. Jetzt wird viel von Quantencomputern geredet, Sie arbeiten aber auch an einem Analogcomputer. Ich kann mir etwas unter Quantencomputer vorstellen, für Großrechner wohl eher. Im Home-Bereich sehe ich das in absehbarer Zeit nicht, vermutlich werden das auch meine Kinder nicht erleben. Welchen Weg sehen Sie denn?”
ChatGPT: “Quantencomputer haben das Potenzial, Probleme zu lösen, die die Fähigkeiten klassischer Computer übersteigen, insbesondere in Bereichen wie Kryptographie, Chemie und maschinelles Lernen. Ihre Entwicklung und Kommerzialisierung steckt jedoch noch in den Kinderschuhen, und es könnte einige Zeit dauern, bis sie für den allgemeinen Gebrauch, insbesondere im Heimbereich, verfügbar sind.
In der Zwischenzeit können auch andere Technologien wie das analoge Rechnen und das neuromorphe Rechnen (inspiriert von der Architektur und Funktion biologischer Neuronen) eine Rolle dabei spielen, die Rechenlücke zwischen klassischen und Quantencomputern zu schließen.
Das analoge Rechnen hat insbesondere den Vorteil, dass es energieeffizient ist und sich gut für die Verarbeitung kontinuierlicher Signale und die Lösung von Optimierungsproblemen eignet. Außerdem können damit Algorithmen für maschinelles Lernen in Hardware implementiert werden, was sie im Vergleich zu klassischen Computern schneller und energieeffizienter macht.
Auch wenn die Zukunft der Computertechnik Quantencomputer einschließt, ist es wahrscheinlich, dass andere Technologien wie analoges und neuromorphes Rechnen ebenfalls eine Rolle bei der Weiterentwicklung des Fachgebiets und der Lösung komplexer Probleme spielen werden. Der Weg in die Zukunft wird von der kontinuierlichen Entwicklung dieser Technologien abhängen sowie von ihrer Integration in bestehende Systeme und ihrer Fähigkeit, die Anforderungen verschiedener Anwendungsbereiche zu erfüllen.”