
Becoming CTO Secrets
Becoming CTO Secrets is the ultimate podcast for aspiring CTOs, seasoned tech leaders, and entrepreneurs who want to level up their leadership and technical expertise. Hosted by Philipp Deutscher, a veteran CTO and consultant with over 15 years of experience leading global tech teams, this podcast uncovers the hidden strategies, insights, and hard-earned lessons behind becoming a successful Chief Technology Officer.
In each episode, Philipp dives deep into the essentials of CTO leadership: from operational excellence and building high-performing teams, to driving innovation, fostering culture, and navigating the challenges of scaling tech organizations. Whether you're already a CTO or on the path to becoming one, Becoming CTO Secrets will equip you with the tools, mindset, and inspiration to thrive in today's fast-paced tech landscape.
Join us to hear candid conversations with industry leaders, practical tips you can apply immediately, and thought-provoking discussions that will help you unlock your full potential as a technology leader.
Becoming CTO Secrets
50 Jahre Denkfehler? Was wir über Rechenleistung völlig falsch verstanden haben - mit Sven Köppel
In dieser Episode des Becoming CTO Secrets Podcasts spricht Philipp Deutscher mit Sven Köppel, einem ehemaligen Astrophysiker und jetzt CTO eines Deep-Tech-Startups, das sich auf Analogrechner spezialisiert hat. Sven erzählt von seinem Werdegang, der Gründung seines Unternehmens aus einem Computermuseum heraus und den Herausforderungen, die mit der Finanzierung und der Überzeugungsarbeit für eine Technologie verbunden sind, die in Vergessenheit geraten ist. Er erklärt die Vorteile von Analogrechnern im Vergleich zu digitalen Systemen und die enorme Effizienz, die sie bieten können. In dieser Episode diskutieren wir die Rolle von Analogrechnern im Vergleich zu Quantencomputern, die Herausforderungen bei der Investorensuche und die geopolitischen Implikationen der Technologie. Sven Köppel, CTO von Anabrit, teilt seine Erfahrungen über die Entwicklung von Analogrechnern, die Dynamik innerhalb des Unternehmens und die Herausforderungen im Leadership und in der Kommunikation. In dieser Episode diskutieren wir die Herausforderungen und Chancen, die sich an der Schnittstelle zwischen Forschung und Markt ergeben, insbesondere im Kontext von Start-ups. Sven Köppel teilt seine Erfahrungen mit Open Source und der Bedeutung wissenschaftlicher Veröffentlichungen in der Deep Tech Szene. Wir beleuchten das Analog Thing, ein Produkt, das aus dem Wunsch heraus entstand, die Welt zu verbessern, und die Gründung des Unternehmens während des Lockdowns. Zudem werden Vorurteile über analoge Technik und deren Genauigkeit thematisiert, sowie die Rolle von Rauschen in analogen Systemen. Die Diskussion geht weiter zu den Stärken analoger Rechner in nicht-deterministischen Anwendungen und der Frage, ob die Fixierung auf deterministisches Rechnen ein Denkfehler der letzten 50 Jahre ist. Schließlich wird die Zukunft der Rechenleistung und die Rolle analoger Rechner in der künstlichen Intelligenz erörtert. In diesem Gespräch wird die Zukunft des Analog Computings erörtert, insbesondere die Möglichkeiten, die es für verschiedene Industrien bietet. Sven Köppel spricht über die Vorteile analoger Rechenprozesse, die Energieeffizienz und die Rolle von Co-Prozessoren in der digitalen Transformation. Er betont die Herausforderungen, die es zu überwinden gilt, um Analog Computing in der breiten Masse zu etablieren, und gibt einen Ausblick auf die Zukunft dieser Technologie.
🚀 Becoming CTO Secrets ist ein Podcast von Philipp Deutscher Consulting.
🎯 Interesse am CTO Coaching Programm? Mehr Infos findest du hier.
💬 Vernetze dich mit mir auf LinkedIn!
Philipp Deutscher (00:01)
Hallo und herzlich willkommen zu einer weiteren Folge des Becoming CTO Secrets Podcasts. Dem Podcast für alle, die auf dem Weg zur CTO-Rolle sind oder sich überlegen, den Weg zu machen. Mein Name ist Philipp Deutscher. Ich bin Interim and Fractional CTO, CTO-Coach und Unternehmer. Und ich spreche zweivöchentlich mit Menschen wie unserem heutigen Gast Sven Köppel, ... den ich sehr herzlich im virtuellen Studio begrüßen darf. Sven ist nicht nur CTO, er ist auch Wissenschaftler und Unternehmer, ... hat eine
Promotion in theoretischer Physik. Ich hoffe, ich habe das jetzt richtig wiedergegeben. Er ist Mitbegründer der Anabrit GmbH. Das ist ein Berliner Deep-Tech-Unternehmen, das sich auf die Entwicklung analoger Computerprozessoren für Anwendungen in der künstlichen Intelligenz spezialisiert hat. Und weil er damit auch noch nicht ganz ausgelastet ist, betreibt er auch noch ein Computermuseum in der Nähe von Frankfurt, Frankfurt am Main. Sven, ich freue mich sehr, dass du heute bei mir im Podcast bist. Herzlich willkommen.
Sven Köppel (00:33)
Mhm.
Vielen Dank für die Einladung.
Philipp Deutscher (00:57)
Super. Wir fangen auch gleich direkt an, weil dein Werdegang finde ich super spannend. Du bist ja vom Astrophysiker zum Startup-Gründer geworden. Du hast ursprünglich die theoretische Astrophysik studiert und dann dementsprechend auch promoviert. Wie kam es denn dazu, dass du dann den Sprung von der Grundlagenforschung in die Startup-Welt gewagt hast? Was war denn so deine Motivation nach der Promotion, eigenes Unternehmen zu gründen?
Sven Köppel (01:20)
Also ich habe tatsächlich während dem Studium schon viele Sachen gemacht an Lehrstühlen. Also es war damals so im Bereich E-Learning, da hatten wir riesen Haufen Heavies und wir haben so innovative Produkte entwickelt und das eigentlich nie durch die Startup-Brille betrachtet, aber das wären eigentlich alles sehr gute Startups geworden, inhaltlich. Und dementsprechend hatte ich immer schon so gewisse Affinität dazu und also zu diesen
Arbeitsbereich sagen wir mal und wollte das immer mal ausprobieren und gleichzeitig ist es eben auch so, dass man als die typische Postdoc Situation in Deutschland, gerade in Grundlagenforschung, ist ja meistens so bisschen dürftig. Da handelt man sich dann von befristeten Vertrag zu befristeten Vertrag, wenn man nicht quasi das ganz große Los zieht und irgendwo eine Professur bekommt und in all dieser Kombination war für mich das eigentlich die perfekte
Ausgangslage nach der Promotion zu sagen, jetzt probiere ich es mal mit einem Startup, da mir auch ein Thema über den Weg gelaufen ist, was ich dann wirklich sehr interessant fand und zwar dieses Analog Computing, wo wir heute auch darüber sprechen werden und das quasi genauen Startup in dem Bereich war in Gründung quasi, wo ich als Co-Founder dazukommen konnte.
Philipp Deutscher (02:36)
Ja, sehr gut. Und trotzdem ist der Weg zur Gründung ja nicht ganz klassisch verlaufen. Also es war ja kein klassisches Unispin-Off, sondern aus einem Museum heraus. Das musst du uns noch bisschen genauer erklären, was da genau passiert ist.
Sven Köppel (02:49)
Genau, ein Museums-Spin-Off ist ein bisschen ein ganz exotischer Begriff, der aber natürlich jetzt versucht, genau das Besondere hier zu beleuchten. Also, hat man ja Tech-Start-ups, so dass sie irgendwie, die an einem Lehrstuhl entwickelt wurden, an der Professur, und diese Idee dann kommerzialisiert werden soll. Und sich dann da häufig auch Leute finden, die dann vielleicht in dem Bereich selber dann gearbeitet haben, vor allem irgendwie vom Lehrstuhl quasi heraus, dass Personal zum Teil
dann rangezogen wird. Bei uns war es halt wirklich quasi so eine Parallelgeschichte, dass wir als Gründer zusammengekommen sind, nicht über eine gemeinsame Uni-Affiliation, sondern wir hatten zwei Profs, jeweils quasi bei sich schon in ähnlichen Bereichen gearbeitet haben und
Das Besondere ist aber, dass einer von den beiden, Prof. Bernd Ullmann, ein Museum privat für Analogrechner diese historische Rechnerform, die es mal gab, so mit Blütezeit in 1970er Jahren. ich habe eben in der Zeit, in meiner Promotionszeit, ein Museum geerbt.
ist auch ein bisschen verrückt von meinem Vater, der in der Zeit gestorben ist. da dieses Museum wollte ich gerne, weil es auch privat war, eine Art Trägerschaft von einem Verein bringen. Und so bin ich zu dem Kontakt zu Bernd Ullmann gekommen. Und in meinem Museum gab es eben auch diese Analogrechner. Und im Grunde genommen hat sich dann gezeigt, gut, das ist...
Technologisch hatten wir quasi was gemeinsam, wenn man so will und er war gerade in Kontakt und wollte eben, diese historische Technik ins 21. Jahrhundert bringen. war quasi der zündende Moment und da
bin ich eben hinzugekommen, auch zur richtigen Zeit quasi als jemand, dann einen Aspekt reinbringt, der dann noch nicht da war, vor allem die Anwendung in wissenschaftlichen Domäen, Naturwissenschaften zum Beispiel und eine andere Software-Noho und habe damit quasi das Gründerprofil bei uns ergänzt. Man muss aber dazu sagen, dass weil wir eben aus einem Tech-Startup waren und jetzt nicht
den konventionellen Startup weggegangen sind, sind das auch quasi vier Techies gewesen, die da als Mitgründer mitgegründet haben. damit bin ich quasi, wenn man so will, wenn man es mal negativ ausdrückt, man sagen, ich bin vielleicht der Einarmige unter den Blinden, aber wir sind alle eigentlich sehr technisch affin und das wegen der klassischen amerikanischen Titellei, die ja stattfindet häufig bei Startups mit dem CXO.
Da haben wir auch ein paar mal rotiert, ich mal sagen, wie die Rollenverteilung aussah.
Philipp Deutscher (05:40)
Mit welcher Mission oder welcher Vision seid ihr dann da gestartet, als ihr das Start-up gegründet habt?
Sven Köppel (05:46)
Also unser Ziel war eine historische Technologie, die es eben mal gab, die aber in Vergessenheit geraten ist und das nennt man eben Analogienrechten oder Analog Computing, die mit der heutigen
technischen Basis, also mit den Computern, die wir heute haben, zu verbinden und damit eine Rechnerarchitektur zu bauen, die in der Lage ist, gewisse Probleme extrem effizient zu lösen, also extrem schnell und extrem energiesparend. Und das wollten wir eben auf einen Chip bringen und diesen Chip wollten wir eigentlich in jedes Handy, in jedem Computer auf der Welt bringen, weil wir der Meinung sind, als eine Art Co-Prozessor kann der eigentlich universell verwendet werden. ⁓
ist eigentlich bisschen unsere Mission. Also wir sind halt letztlich diesem Thema, quasi diesen klassischen Analogrechnungen, strenger verpflichtet als wahrscheinlich manch anderes Startup, was sich dann auf einen kleineren Aspekt konzentriert, zum Beispiel Machine Learning oder sowas. Sehen wir es halt eher als eine Plattformtechnologie. Auch das ist eher untypisch für Startups, die ja häufig einen sehr engen technologischen Fokus haben. genau, wir sind halt...
was man vielleicht auch noch dazu sagen kann, was uns auch noch mal unterscheidet ist, dass wir nicht von Null anfangen. Also viele Start-ups, die Tech-Bereich dann von einem Lehrstuhl kommen, die fangen mit einem Patent an, mit einem White Paper, man so will, irgendeinem Papier. Wir hatten mit einem Produkt angefangen. Also bei uns hat eben Bernd Ullmann in den Jahren vorher schon einen modernen klassischen Analogrechner gebaut auf modernen CMOS-Komponenten und das war quasi ein Asset, was wir mit zur Gründung reingebracht haben.
Und das haben wir dann auch weiterentwickelt und auf die Art Weise ziemlich früh eigentlich einen Produktroadmap ausrollen können als Technologieunternehmen, ohne dabei warten zu müssen, bis unsere Chips fertig sind.
Philipp Deutscher (07:30)
Okay, das ist sehr spannend. Und bevor wir jetzt schon zu stark in dem Thema eintauchen, dazu kommen wir nämlich später noch, interessiert mich auch noch, unter welchen Voraussetzungen ihr dann da auch gegründet habt. Habt ihr dann Seed-Investoren gefunden, die euer Produkt und euer Vorhaben gleich mitfinanziert haben? Habt das erstmal aus eigener Tasche bezahlt oder war die Uni sogar da irgendwie mit involviert? Wie war die Grundkonstellation?
Sven Köppel (07:52)
Also tatsächlich, da wir ja quasi keine Uni gemeinsam hatten, hat da auch keine Uni investiert. Wir sind ja auch quasi clean hinsichtlich der Altes IPs.
Wir waren damals in Gesprächen mit der Bundesagentur für Sprung Innovation. war in der Zeit, wurde sie von Merkel gerade, das war nach dem Merkel Jahre, ausgerufen mit einer Förderung von 1 Milliarde über 10 Jahre und Raphael Laguna als Gründungsdirektor war der Sprinter damals, war noch vor Gründungszeiten dieser Sprung Agentur, kurz Sprint, auf Suche nach ersten Leuchtturmprojekten und da waren wir die Ersten, die allerersten, die er eigentlich angesprochen hat und mit denen haben wir auch ⁓
ein, zwei Jahre zusammengearbeitet und Evolutionsprojekte gemacht, die Art und Weise auch eine kleine Finanzierung hinbekommen. Das könnte man eigentlich ein Seed Investment nennen auf eine gewisse Art und Weise. Sind dann tatsächlich mit anderen Finanzierungsinstrumenten weitergegangen, die auch öffentliche Hand waren, muss man dazu sagen, weil die Konditionen dann nicht ganz gepasst haben bei der Sprungagentur. Das sind immer die ganzen Details, rechtliche Details letztlich, wie auch IP-Regelungen und sowas funktionieren.
und sind dann 2022 in ein, quasi auch wieder als allererstes, man so will, das Projekt von der, auch wieder von der Bundesregierung gegangen zur Finanzierung von Quantencomputern in Deutschland. Das wurde auch wieder mit einer Milliarde finanziert, kürzeren Laufzeit, explizite Startupförderung.
Und da haben wir damals mit dem Präsidium gesprochen vom Projektträger, letztlich vom Deutschen Zentrum für Luft- Raumfahrtechnik, kurz DLR, und sind dort dann in eine Finanzierung gekommen, einen großen analogen Supercomputer zu bauen, der jetzt auch tatsächlich vor wenigen Wochen in der ersten Ausbaustufe fertig geworden ist.
Philipp Deutscher (09:35)
Man könnte nämlich jetzt eigentlich, also ketzerisch formulieren, warum investiert die Bundesagentur für Sprunginnovationen etwas, was du am Anfang auch als historische Technologie bezeichnet hat? Also das sind ja erst mal zwei Begrifflichkeiten, die von außen betrachtet im Widerspruch stehen. Wieso hat man denn euch hier das Vertrauen geschenkt mit etwas, was, ich glaube, ich kann das so sagen, komplett unter dem Radar läuft. Und wenn du neun von zehn Techies da draußen fragst, haben die meisten von Analogrechnern keine Ahnung.
Sven Köppel (10:05)
Genau so ist es. Und das ist eigentlich das Spannende daran. Deswegen haben wir ja vorhin den Begriff Museumspin-off gewählt, der noch mal diese Wunde sticht und sagt, Mensch, das klingt irgendwie alles nach Opas alten Röhrenradio. Genau das ist auch ein...
Da musste man immer wieder Überzeugungsarbeit liefern, dass das nicht so ist und dass da eine historische Technologie in Vergessenheit geraten ist oder wenn man so will vielleicht auch in manchen Kreisen eine Ungnade gefallen ist, zu Unrecht. Denn die analoge Elektronik als solche ist irgendwie nie überholt worden oder aus der Mode gekommen. Also wenn man sich ein heutiges iPhone anschaut, Teardown, dann hat man da 75 Prozent aller Komponenten, die die analoge Elektronik funktionieren. Also die digitale Elektronik basiert in ganz vielen Stellen.
eben steht auf der Schulter von Giganten und diese Giganten das sind eben analog-elektronische Komponenten. Und was wir machen ist im Prinzip
Das ist ein Potenzial, was kaum jemand anderes gewillt ist zu heben oder vielleicht auch nicht das Know-how zu heben, dass wir eben diese Chancen, die die analoge Informationsverarbeitung bietet mit Standardbausteinen, mit sicherlich Präzisionselektronikbausteinen, die auch teuer sind, aber ohne dass man dabei Materialforschung machen müsste oder dass man dabei eben sowas wie Quantencomputer entwickeln muss, also was grundsätzlich komplett neu ist. Wie können eben die Chancen, die das konventionelle Analog rechnen,
ausnutzen, ausreizen und die Technologie quasi zu ihrem Limit bringen und damit können wir vergleichsweise günstig und erschwinglich einen technologischen, wie ich sage ich mal, Quantensprung hinkriegen, den sie viele nicht auf dem Radar haben und das sieht man ja auch gerade, wenn wir jetzt in der Zusammenarbeit mit Quantencomputing-Förderung sprechen.
Das ist tatsächlich so bisschen unterm Radar, weil es eine von vielen Technologien ist, die eben helfen, Computertechnik in der Zukunft möglich zu machen.
Es gibt eine ganze Menge von anderen neuartigen Computerarchitekturen. Vieles läuft unter dem Stichwort Neuromorphos Computing, also dem Gehirn inspirierten Computerarchitekturen oder beispielsweise auch konkrete Technologien, wo im Namen steckt, was verwendet wird, zum Beispiel im photonischen Rechnen, wo man auch klassische Informationsverarbeitung hat, die nicht quantenmechanischen Prinzipien folgt, aber die eben versucht...
Licht an den unterschiedlichsten Stellen einzusetzen, entweder für die Informationsverarbeitung selber oder eben natürlich zur Kommunikation, wie es heute auch schon mit Glasfasern passiert. so ist eben das elektronische Analogrechen eigentlich, wenn man will, einer unter vielen, der, glaube ich, unterschätzt wird hinsichtlich der Möglichkeiten, die man hat und was man halt einfach noch erreichen kann an Performance.
Philipp Deutscher (12:47)
Trotzdem ist es irgendwann in Ungnade gefallen. Warum eigentlich?
Sven Köppel (12:50)
Also wir haben uns die Frage auch aufgestellt. Wir haben so paar Hypothesen woran das liegt. Also zum einen gab es eben in den 80ern den unglaublichen Run auf Mikroprozessoren. Also da wurde eben Digitalelektronik dann das erste Mal auf den Chip gebracht. Vorher war ein Prozessor noch so groß wie ein halbes Bücherregal und dann wurden sie eben auf einmal so groß wie ein Laumlage mit entsprechender Geschwindigkeit zuwächst, der dann
natürlicherweise daraus folgt, weil die Strukturen kleiner sind, dann die Frequenzen höher sind, Stromvorklauch kleiner ist und all das, das dann letztlich eben auch so wie Moore's Law das vorher gesagt hat, zu diesem exponentiellen Geschwindigkeitszuwachs über Jahrzehnte geführt hat. Und dadurch wurde eben eigentlich klar, dass ein Digitalrechner als universelle
Plattform eigentlich sich dafür eignet ganz viele Sachen auch weg zu simulieren, die man vorher noch anders gelöst hat. Zum Beispiel so ein Experiment. Das passiert heute auch an umfangreicheren Dingen, wenn man zum Beispiel ein Mäuse-Modell in der Life Science auf einmal quasi digital simuliert. Aber damals passierte es eben auch einfach mit Analogrechnern, wenn man festgestellt hat, diese Kabel, denn das war auch typisch für Analogrechner, dass man
große Patch-Panels hatte, wo man so Kabel gesteckt hat und diese Kabel waren die Programme, das war einfach unglaublich unflexibel, hat Expertenwissen benötigt und war letztlich dann durch die digitalen Programme ziemlich schnell, hat sich das erledigt. Und das ist auch nicht verkehrt, ist völliger richtiger Weg und da muss man auch sagen, wir sind da nicht irgendwie Gegner der Digitalisierung oder so was, das ist irgendwie ein nostalgischer Flair der Meinung sind, da müsste man die Uhren zurückdrehen.
Was es dann auch gab in der Zeit, in den 90ern war ein Generationenwechsel in
Hochschulen und der Lehre und der Forschung, wo junge ProfessorInnen dann sich beweisen wollten und dann auch alte Verfahren über Bord geworfen haben und dann Dinge dann digital gelöst haben. Also wie das häufig so ein bisschen nach Trend getrieben ist. Und das sorgt eben dafür, dass diese Analog-Rechnerarchitekturen dann ausgestorben sind und einfach auch in Vergessenheit geraten sind. Und man trifft heute mit Leuten, spricht die das noch kennen, dann sind das alles Generationen 50, 60 plus.
die dann natürlich selber auch wieder nostalgisch werden, wenn an ihre guten Seiten zurückdenken. Und jetzt wird es halt auf einmal relevant, weil die Digitalarchitekturen an ihre Grenzen stoßen. Also wir kriegen diese Mikroprozessorchips, die digital nicht mehr viel schneller. Die sind limitiert hinsichtlich des Taktes schon seit über zehn Jahren, kratzt man an den 3-4 Gigahertz rum, weil nämlich dieser Takt die Abwärme treibt und die Abwärme kriegt man nicht weg vom Chip. Also die kriegt man quasi kaum noch weggekühlt.
Und auf der anderen Seite, was ein Trend ist seit 10, 15 sogar länger Jahren, ist dann auch die Parallelisierung, dass man viele Computer nebeneinander stellt oder eben auf GPUs, also Grafikkarten für Spezialanwendungen geht. Also es wird schon heute, Krampffa versucht auch an allen Ständen die Rechenleistung zu verbessern und gerade deswegen gibt es ja jetzt in dieser Zeit hier Mitte der 20er
einen großen Run auf neuartige Computerarchitekturen, die es schaffen, Performance-Rechenleistung zu bieten, jenseits von dem, was wir digital erreichen können.
Philipp Deutscher (16:05)
Wieso ist der Analogrechner ich sehe das ja natürlich auch so – dass Digitalrechner an ihre Grenzen stoßen oder auch die Architekturen dazu. Aber wieso ist analog jetzt besser geeignet, ⁓ weitere Schritte nach vorne zu machen? Was prädestiniert das im Vergleich zur Digitalarchitektur?
Sven Köppel (16:23)
Da gibt es ein paar technische Argumente, die sofort die Vorteile aufzeigen. Einer ist zum Beispiel
das in einem Analogiencomputer, da muss man auch sagen, wo kommt das begrifflich eigentlich her, jetzt weniger von dem Analogen im Sinne von das ist irgendwie nicht digital, vor allem begrifflich eigentlich von Analogie im Sinne von der Modellbildung, der Rechner ist eigentlich aufgebaut als Rechenschaltkreis, der ein Modell ist oder ein Analogon sozusagen, äquivalent letztlich für eine mathematische Gleichung und
diese Leichung löst er sehr effizient und da merken wir schon, also wir sind von der Begrifflichkeit jetzt nicht da, dass wir irgendwie, wir reden nicht von Algorithmen, sondern wir reden quasi von Rechenschaltkreisen. Also das sind Rechner, die eben Spezialprobleme lösen. Da wird nicht Microsoft Word drauf laufen oder irgendwie Tetris, sondern auf dem Rechner wird, da werden
Sachen laufen, die quasi rechnerisch harte Probleme sind heutzutage und die sind vielleicht häufig dann auch Teil von Microsoft Word, weil irgendwo vielleicht ein Optimierungsproblem gelöst wird beispielsweise, aber letztlich nicht die Gesamtanwendung. Und das Spannende ist, Analogrechner, so wie wir sie verstehen, die arbeiten mit kontinuierlichen Werten in einer kontinuierlichen Zeit. Also im Prinzip ist das eine Art Datenflussmaschine, durch die Ströme und Spannung durchfließen und
dann ist bisschen tricky, Schaltkreis eben so zu designen, dass dann dadurch auch eine Frage beantwortet wird, die man dem Rechner stellt.
Das kontinuierliche, das macht den Rechner schnell und das macht den Rechner auch energiesparsam. Denn wie ich schon sagte, der Takt ist vor allem das, was uns im Digitalrechner killt, denn bei jedem Zyklus kann man sich vorstellen, in dem Prozessor oder am ganzen Computer überall so kleine Kondensatoren aufgeladen und entladen und immer da entsteht ein kleiner Fehlstrom und das sind diese Fehlströme, die addieren sich quasi auf und die sorgen dafür, die kriegt man nicht weg und diese Eigenschaften haben wir im Analogrechner nicht.
Denn der hat nicht einen Takt, der funktioniert ohne Takt, der funktioniert kontinuierlich. Das heißt, ganzen Fehlströme, das, was Wärme erzeugt beim digitalen Rechner, das gibt es dort nicht. Und wir haben jetzt zum Beispiel einen Schrank gebaut, quasi ein Kleiderschrank, nicht mal ein 19 Zoll Schrank ist das letztlich, voll mit Analog-Elektronik und der ganze Schrank verbraucht ein paar hundert Watt.
Normalerweise hat man auf so einem Schrank eine Leistung von vielen, Kilowatt. Wir sind so eine Megawatt. Wir haben jetzt bereits demonstriert, nicht zum ersten Mal, dass wir ohne weiteres Faktor 1000 energiesparsamer sind.
mit unserem technologischen Ansatz im Vergleich zu konventioneller Digitaltechnik. Und das ist quasi das, was wir schon vor ein paar Jahren vorausgesagt haben für die erste Generation, die wir entwickeln werden. Und gleichzeitig ist der Rechner extrem schnell. Und das kommt auch daher, weil dieser komplette Schrank, also dieser Kubikmeter von Elektronik, die wir da gebaut haben aus dem Nichts,
100 %ig parallel rechnet. Das geht gar nicht anders, weil die Natur arbeitet einfach komplett parallel und überall wartet da nicht irgendwie der Strom an der einen Stelle drauf, bis er an anderen Stelle ankommt, sondern es rechnet einfach alles gleichzeitig. Und das mit einem Digitalrechner hinzubekommen ist extrem schwer. Es ist nicht unmöglich, es passiert in der Praxis de facto in großen Cloud Computing Centern oder wissenschaftlichen Rechnen Centern, aber dafür muss man spezielle Algorithmen schreiben, da muss das Problem auch zu passen und alles.
und bei analog rechnen kriegt man das einfach for free. Also da ist der Rechner einfach von vornherein so, dass er die Ressourcen ideal ausnutzt und dadurch hat er halt eine geringe Latenz, das ist vor allem interessant, wenn es ⁓ Sensorverarbeitung geht und Datenverarbeitung, die von analogen Sensoren zum Beispiel raus reinkommen und über analoge Aktuatoren wieder rausgehen in der Industrie, aber auch in Anwendungen, die Hochleistungsrechnung sind, zum Beispiel so wie Proteinverhalter, die wir einfach
100 % parallel auf unserem Rechner mappen können in einer Geschwindigkeit, der wir da Timestapping durchführen, quasi der wir quasi zugucken, wie in diesem Rechner sich diese Protein verhaltet, was relevant ist für ihr Medikament zum Beispiel, die man entwickeln möchte, wo man das im Digitalrechner algorithmisch abbilden muss und das mal mal bildlicher zu machen, zum Beispiel so eine Multiplikation in einem Digitalrechner. Sagen wir mal eine Addizone im Digitalrechner, das ist wirklich was, was man aus der Schule kennt. Digital steht ja
offizieller ziffernbasiert. dieser Rechner rechnet Ziffer für Ziffer, addiert ja zwei Zahlen. Wenn man da so 32 Bitzahlen hat, dann muss da mindestens 32 mal so eine gewisse Grundoperation stattfinden, wo eben diese 32 Ziffern addiert werden und dann mit carry ahead und sowas, die im Rechenwerk das Ergebnis berechten wird. Im Analogrechner ist es tatsächlich so, dass da zwei Ströme kommen an einen Knotenpunkt und dann wird das nach Grundlagen der Elektrotechnik oder das was man auch in Oberstufe in Physik lernt,
addieren sich diese beiden Ströme so wie sich zwei Wasserleitungen addieren, anzüglich des Wassers, was wenn man so zwei Gartenschröcher zusammenhängt, dann kommt da die doppelte Menge Wasser raus vorne oder die Summe aus dem Wasser, da reingekommen ist. Das pierciert einfach, da kann man hinten sein Messgerät dranhalten und gucken wie viel Wasser oder wie viel Strom kommt denn da nun raus. Also das Rechnen, was wir machen, ist quasi wir lassen die Natur arbeiten und messen einfach was hinten raus. Kommt statt, dass wir ihr vorgeben, was sie zu tun hat und algorithmisch und prozedural.
und seriell vor allem Schritte abfolgen. Und das ist extrem schnell. Also es gibt eigentlich kaum Prozess, der noch schneller in der Natur funktioniert, außer man geht jetzt technologisch voran Richtung Photonik und Quanten in diese Richtung, die ja absolut legitim ist. Aber für den State of Art mit den jetzigen Bauteilen, wir nutzten die gleichen Bauteile, die in so einem Digitalrechner auch drin sind, die gleichen Transistoren, alles identisch. Nur, dass wir die anders verwenden, auf eine viel cleverere Art und Weise und dadurch eben
enorm effizienter sind.
Philipp Deutscher (22:15)
Wahnsinn. Du sagst, rechnerisch werden da viel härter oder können sehr spezielle Probleme damit gelöst werden. Jetzt hast du Proteinfalten zum Beispiel schon mal. welchen Faktor ist das denn tatsächlich dann schneller als in der digitalen Anwendung oder in der digitalen Berechnung?
Sven Köppel (22:34)
Also wir hatten vor ein paar Jahren ein Paper gemacht, dem wir den damaligen Analogrechner, den wir schon hatten, mal gegen den Laptop antreten ließen. Muss man dazu sagen, so ein Laptop, den man jetzt heute irgendwo kauft, eine Stange mit einem Intel Prozessor, da haben Generationen von Ingenieurinnen dran gearbeitet, den entwickelt, das ist quasi wirklich Hightech. Und diesen Analogrechner, den hat Bern Ullmann mit einem Elektroniker zusammen im Keller quasi entwickelt in ein paar Jahren.
Aber gut, letztlich quasi, ist das, wenn man so will, stecken da vielleicht ein, zwei Mannjahre drin und in den Prozessor stecken, man, Personenjahren quasi, da vielleicht der Jahrzehnte an, oder Jahrhunderte wahrscheinlich, wenn man die Menschen, quasi hochrechnet, wie viele Menschen daran gearbeitet haben. Und das Verrückte ist quasi von der Performance zur Lösung von einer einfachen Testgleichung waren die fast schon vergleichbar.
Philipp Deutscher (23:10)
Jahrhunderte oder mehr sogar,
Sven Köppel (23:25)
Und das ist eigentlich das Irre, was zeigt, wo die Technologie hingeht. Und dann haben wir extra poliert und gesagt, okay, das ist für uns jetzt technologisch die Basis, das integrieren wir weiter und wo kommen wir da hin? Und da haben wir festgestellt, dass wir mit der ersten Chip-Generation tausendmal schneller sein werden als jeder Digitalrechner, den wir heute haben und gleichzeitig auch tausendmal energiesparsamer.
Größenordnung. ist 10.000 mal sein, das ist 100 mal, das ist ein gewisser Unschärfe. machen ja Serious Science an der Stelle und wollen da auch nicht zu viel versprechen, aber das war quasi Extrapolation. Das heißt, wir kommen auf eine Effizienz, die einfach millionenmal höher ist, als das, man konventionell mit Digital-Rechern macht. Und das macht es eben sofort extrem interessant, weil wir ja nicht von ein paar Prozent besser sprechen, sondern wirklich von, dass da auf einmal Sachen auch rechenbar werden, die heute nicht errechnerisch erreichbar sind. Was man einfach
⁓ noch gar nicht kann und wo auch neue Märkte entstehen werden.
Philipp Deutscher (24:21)
Und im Vergleich mit Quantencomputern, wo ordnen sich Analogrechner da ein? Werden die in einer höheren Ausbaustufe dann vergleichbar sein mit Quantencomputing oder wo würden die sich einreihen?
Sven Köppel (24:34)
Das ist extrem schwer zu sagen, weil Quantencomputer ...
so ähnlich wie Analogrechnung natürlich auch erstmal eine gewisse Skalierung benötigen, dass man wirklich den Vorteil ausspielen kann. beim Analogrechnung ist es auch so, wie größer der wird, dass du mehr tritt, dieser Unterschied in der Performance halt in Kontrast im Vergleich zu bestehenden Techniken. Beim Quantencomputer kennen wir das eben mit der Kennziffer Qubits, also wie viele Qubits hat der Rechner und da wird ja auch gesagt, wir brauchen irgendwie 1000, 10.000, 100.000 oder so was, damit man dann relevante Probleme lösen kann und die auch so schnell, dass man sie klassisch nicht mehr lösen kann.
Der Vergleich von klassischen Analogrechnern und Quadrancomputern ist extrem spannend. Wir scheuen vor dem auch nicht zurück. Im Gegenteil, wir glauben eigentlich, dass die Technik, die wir entwickeln, irgendwo die komplette
Lücke schließen wird zwischen konventionellem Digitalrechnen und dem Quantencomputing, wenn es dann mal funktioniert. In der Hoffnung, dass es funktioniert. Und ich würde mich auch freuen, wenn es funktioniert, weil ich auch glaube, dass die Menschheit weiterbringen wird. Aber noch sind die Erfolge, die in der Branche vorzuweisen, relativ überschaubar. Also da werden so ein paar Qubits simuliert, physisch gerechnet. Aber da unterscheidet man ja auch bei Quantencomputing zwischen physikalischen Qubits und logischen Qubits, die dann wirklich quasi auch sauber benutzbar sind, mit denen man dann wirklich arbeiten kann.
Und dementsprechend ist es wirklich schwer zu sagen, wo sich das einordnet. Und das kommt auch ganz stark darauf an, wie man einen Analogrechner dann programmiert. Wir sagen immer gerne konfiguriert, weil es ja nicht algorithmisch ist, also wie man diesen analogen Schaltkreis zusammensteckt. Es gibt Ansätze, Analogrechner zu benutzen.
bei denen man quasi einen großen, ich sag mal virtuellen Speicher in diesem Rechner aufbaut. diesen Ansatz nennt man Reservoir Computing, also dass man so Art Speicherreservoir im Rechner hat. Und im Prinzip kann man den Quantenquitter so ähnlich verstehen, was man häufig von exponentiellem Speedup oder exponentiellem Vorteil spricht bei Quantencomputing, dann meint man zuweilen die Tatsache, dass man mit
eine Anzahl von qubits, quasi 2 hoch n, also n qubits, 2 hoch n, klassische Informationen darstellen kann und das ist, man so will, sehr große
ein großer Speicherbereich oder ein großes Informationsreservoir, auf was man dann anzapfen kann und das dann sehr spannend ist, wenn man Anwendungen hat, die diesen Informationsreservoir brauchen und auch gescheit füllen können. Und es gibt dabei eben Ansätze, das auch mit klassischer Analog-Elektronik zu machen und auch dort eben sehr große Reservoirs zur Verfügung zu haben, in dem Moment, wo man zum Beispiel komplexe Oszillatoren miteinander koppelt. Also ganz günstige Bausteine eigentlich, aber eben auf eine cleverer Art und Weise
⁓ zusammengeschaltet. Und das ist das Verrückte. Wir sind da eigentlich in all diesen Bereichen in der Grundlagenforschung, wenn man ehrlich ist, die zwar sehr stark industriell getrieben ist, weil da ein hohes wirtschaftliches Versprechen dahinter ist, dass die Technologie mal die Welt revolutionieren wird, aber was genau eigentlich sich durchsetzen wird und was genau auch quasi vom Kosten-Nutzen-Faktor am Ende irgendwo was bringen wird, das ist völlig offen.
Also es ist überhaupt nicht gesagt, dass wir da einen Quantenquantum, wenn man so will, ich sag's mal ketzerisch, dass wir einen Quantenquantum brauchen. Es könnte sich auch herausstellen, dass man mit konventionellen Analogrechnern beispielsweise da viele von den Performance Benefits auch abgreifen kann.
Philipp Deutscher (27:58)
Aber das klingt jetzt trotzdem so. Also deine Erklärung, ich lausche die ganze Zeit fasziniert und ich habe den Eindruck, da müssten ja die Investoren bei euch Schlange stehen, genau dieses Thema halt voranzutreiben. Ist das so oder ist das immer noch, ist das dann weiterhin ein Nischenthema auch bei Investoren, weil sie einfach die Möglichkeit noch nicht verstanden haben?
Sven Köppel (28:18)
So und so. Also wir haben mit sehr vielen Investoren gesprochen in letzten fünf Jahren. Es gibt alles. Es gibt die, die sich ganz stark zum Beispiel in die Quantenzene
verstiegen haben und dann unbedingt in gewisse Technologien investieren wollen, so ähnlich wie in Photonics zum Beispiel, die auch stückweit ihre Technologie wetten, setzen und dann irgendwann durch sind sozusagen. Es gibt solche, die da komplett offen sind, aber die Technologien auch nicht verstehen, also die grundsätzlich sehr stark in der Oberfläche kratzen und sich da irgendwie von Blockchain, AI, Bubbles einlullen lassen und irgendwie die eben tiefer nicht erblicken. Es ist interessant, dass zum Beispiel in Amerika
vor ein paar Jahren ein großer Call von der DARPA, das ist eigentlich das gedankliche Vorbild von der Bundesagentur für Spannend Innovationen, die ja auch militärische Forschung mit öffentlicher sehr umfangreich finanziell unterstützt. Die haben einen großen Call im Bereich Quantum Inspired Analog Computing gemacht, genau diesen Bereich analog Rechnen eben versucht wirtschaftlich zu erschließen und zu verstehen. Und es gibt zum Beispiel auch in Amerika so ein Vorzeiges-Startup, heißt Mythic AI.
die mit analogen Beschleunigern einen machen wollten und die dafür eine Milliardenförderung bekommen haben, aber tatsächlich auch irgendwie es geschafft haben diese Milliarden komplett zu versenken und einmal durch den Bonkott zu gehen. Jetzt gibt es die aber immer noch mit anderen Geldern. Ich spreche jetzt viel über andere und nicht über uns.
Philipp Deutscher (29:39)
Herzlichen Glückwunsch!
Sven Köppel (29:42)
Man muss sagen, Gründerteams sind so wie sie sind und wir sind gestartet als ein Haufen Technologienerds letztlich. Hat ich sagen auch ein Stück weit die Businessperspektive gefehlt in den letzten Jahren, was ich glaube viele Investoren gemerkt haben und deswegen nicht in uns investiert haben, weil denen vielleicht die technologische Reife noch nicht genug da war, weil sie die Business Cases nicht identifizieren konnten auf die Art Weise, wie sie versucht haben zu verklickern.
Und deswegen sind wir tatsächlich gebootstrapped als Firma. Also wir haben mit den Möglichkeiten des Produktverkaufs diese einzigartige Stellung, dass wir jetzt schon Geräte verkaufen, die aber noch nicht Chip-Level hoch integriert sind, sondern quasi, wenn man so will, bisschen größer sind. Aber da schon interessierte, wie sagt man immer so gerne, ich erinnere mich gerade an den Begriff, also Leute, die unbedingt eure Reihen schnuppern wollen in die Technologie.
die sich das einkaufen und die Art und sind wir umsatzfinanziert. Das ist für einen Technologie-Startup absolut ungewöhnlich, weil normalerweise, gerade im Chip-Business, braucht man unglaublich viel Geld, um loslegen zu können. Sehr kapitalintensiv, wie man so gerne sagen kann. Und dementsprechend sind wir auch nicht so schnell, wie wir sein könnten, wenn wir mit VC-Money arbeiten würden. Aber das hat uns zumindest erlaubt, jetzt fünf Jahre große Fortschritte zu machen in der Reifegrad der Technologie.
Philipp Deutscher (30:43)
Hm.
Könnte das Thema Analogrechner auch geopolitisch interessant werden? Also sich auch weniger abhängig zu machen von den sogenannten Chip Wars und den Ressourcen und den Technologien, dafür notwendig sind, die Welt mit Chips zu versorgen? Oder ist es dann am Ende des Tages aufgrund der ganzen Komponenten, da drin sind, dann doch wieder im Endeffekt von der gleichen Abhängigkeit getrieben?
Sven Köppel (31:24)
Also für uns ein extrem spannender Diskussionspunkt, weil wir das immer gerne claimen, dass wir die geopolitische Umwandlermängigkeit und unsere Technologie unterstützen können.
Der Grund ist, dass wir momentan auf 65 Nanometer CMOS außen, also ist unser Technologie-Knoten, dem wir gerade arbeiten. Wenn man überlegt, die momentanen Digitalprozessortechnologien werden typischerweise so im Bereich von zwei Nanometern Größenordnung oder sowas vorangetrieben, das trennt fast eine Welt, wenn man so will. Das hat aber einen sehr großen Vorteil, die 65 Nanometer CMOS, die kann man
in Deutschland an vielen FAPs fertigen, die kann man in Europa an vielen FAPs fertigen, da sind wir eben nicht abhängig von Asien. Und gleichzeitig, wir sehen das manchmal gerne Resetting Moore's Law, können wir eben auch trotzdem die Technologie weiter betreiben und können auch in diese kleineren Note Sizes gehen. Und wir haben hier in Europa eigentlich das komplette Know-How, komplette Technologie, das zu bauen. deswegen sehe ich das auch einen großen Vorteil. Zum Beispiel
Wieder im Vergleich zu vielen Quantencomputing Technologien, die dann auch Rohstoffabhängig sind zum Beispiel. Das sind eben Betriebsmittel brauchen, die dann importiert werden und all das und kleine Strukturen und das ist eben extrem spannend, dass wir das bei uns nicht haben.
Philipp Deutscher (32:46)
Ja, sehr gut. Lassen Sie uns auch noch mal kurz, also wir kommen zu dem Thema noch später noch mal zurück und werden da noch mal ein bisschen mehr in die Tiefe gehen. Aber du hast doch gerade eben noch mal euer Unternehmen Anabrit angesprochen und ich möchte auch ein bisschen über deine Rolle darin sprechen, denn du bist ja nicht als CTO dort gestartet, sondern du warst zunächst der Chief Scientist Officer oder der Chief Scientist, wie auch immer man das nennen möchte.
Bist du dann aber gewechselt und ja, du hast ja auch Anfangs schon gesagt, ihr habt da etwas hin und her gewechselt mit den ganzen C-Level Rollen in eurem Führungskreis. So wie kam es denn zu den Rollenwechseln? Was hat sich verändert und was ist die CTO-Rolle in dem Moment für dich? Was unterscheidet sich von der Chief Scientist-Rolle?
Sven Köppel (33:28)
Also wir waren da eine ganze Weile in der Auffindungsphase und man muss auch sagen, dass wir eben nicht von Tag eins mit Venturecapita gearbeitet haben, hat uns da auch eine gewisse Flexibilität ermöglicht. Häufig werden ja Startups Capetable nach dann auch so strukturiert, dass man die Professoren irgendwie als Board mit unter 10 % oder 15 % pro Person so was irgendwie beteiligt und davon ausgehen, dass sie ja halt nur Ideengeber sind und dann nicht langfristig involviert.
und dann irgendwie ein C-Level überwiegend draufsetzt. Und wie das wir gemacht haben, halt einfach, wir sind vier Leute, jeder kriegt ein Viertel und los geht's. Und dann von den Rollen war klar, uns einer der Gründer als verbeamteter Professor hat halt nur so ein Stundenkontingent, was er nebenbei arbeiten darf und kann, der ist halt sowieso nicht an C-Level interessiert, sodass wir dann zu dritt eigentlich gestartet sind, quasi konventionell, es gehen wir mit drei Geschäftsführern, also auch im Handelsregister.
Und dann hat er aber eigentlich gezeigt im Daily Business, wie man so schön sagt, dass zum Beispiel einer unserer Profs eigentlich
den wir dann hatten, Bernd Ullmann diese Geschäftsführerposition so gar nicht machen will und auch nicht tut, de facto, und dann ist er zum Beispiel einfach zurückgetreten von der Position und hat sich spezialisiert darauf, weiter viel auf Vorträgen zu sein, die Außenarbeit zu machen und so was. Da haben wir den Titel Chief Analog Evangelist. Also quasi einen fingierten C-Level, den hatten wir uns mal irgendwo abgeguckt bei der anderen Firma.
De facto sind wir dann die letzten Jahre eigentlich so gefahren, dass wir eine sehr klassische Rollenverteilung in Geschäftsführung hatten und zwar mit einem kaufmännischen Geschäftsführung, einem akademischen Geschäftsführung, wie man so will und der kaufmännische quasi als CIO, das ist bei uns Lars, der dann mehr die Businessseite und auch unter seinem Bereich hat und mir quasi als CTO der
mehr auch die technologische Kommunikation, die Organisationen intern von den Teams und der Arbeit unter sich hat. Anfangs hatte ich den Titel CSO, es schief Science Officer, einfach weil ich halt mehr den wissenschaftlichen Fokus hatte, bin dann letztlich zu CTO gewechselt im Rahmen von diesen Restrukturierungen, an denen ich gerade sprach, weil es halt auch der typischere Titel ist im Start-up, CTO ist halt auch was, was man kennt.
CSO weniger, da denken viele auch in den Chief Sales Officer und so ist es letztlich gekommen, dass ich jetzt hier als CTO auftrete.
Philipp Deutscher (36:03)
Wie viele Leute seid ihr bei Anabrit mittlerweile? Wie groß ist das Unternehmen? Nur 20 Leute. Und du bewegst dich ja dann als CTO zwischen technischen Entscheidungen, der wissenschaftlichen Vision, Managementaufgaben, öffentliche Kommunikation, Podcasts, wie man heute sieht. Wie balancierst du genau diese verschiedenen Aspekte und wie interpretierst du die Rolle des CTOs? Ist es für dich einfach nur
Sven Köppel (36:05)
Wir sind so die 20 Leute, ein paar mehr dem Fulltime-Äquivalent sozusagen.
Philipp Deutscher (36:30)
Ja, jetzt habe ich halt die Rolle des CTO. Im Endeffekt mache ich das Gleiche wie vorher auch. Oder ist da noch ein bisschen mehr für dich dahinter?
Sven Köppel (36:37)
Also, ähm...
CTO kann ganz viel sein und es war bei uns auch unterschiedliche Rollen über all die Jahre. die komplette Bandbreite von es gab im März letzten Jahres erste Zeit zum Beispiel da hatte ich ganz intensiv Software geschrieben, weil da hatten wir einen Engpass in unserem Software Team, da musste ein Paket entwickelt werden, das habe ich dann gemacht. Da war ich dann ein, zwei Monate tatsächlich beschäftigt. Das war ein großer Luxus, dass das machen konnte, dabei viel Zeit investiert habe von meinem Tag, was glaube ich noch im normalen CTO Leben gar
reinpasst. Mittlerweile sind wir da viel besser aufgestellt, haben wir unser Team so strukturiert, dass wir quasi für die einzelnen Bereiche auch immer so Abteilungsleiter oder Gruppenleiter haben, die da auch die Hand drauf haben und so. Also heute würde ich das so gar nicht mehr machen wie damals. Also es ist eben Start-up, da kann sich innerhalb von einem Jahr auch ganz fundamental so was verändern. Und was als CTO ich natürlich auch mache, ist so an allen Enden und
dran zu sein. ich versuche eigentlich bei allen Teams zu wissen, was die genau machen und zu verstehen, wo die Probleme sind und wo auch die Chancen sind und wo man quasi reinlenken sollte. So bisschen so die Innovatorrolle, die man hat, man als Gründer, gerade so ein Tech-Unternehmen, wo ja letztlich auch immer wieder ein Austausch stattfinden muss mit den Mitarbeitern. In der Regel hat man ja auch irgendwie so eine Durchmischung, da gibt es dann irgendwie mal mehr Leute mit Seniorität und vielleicht jüngere. Anfangs hatten wir sehr stark mit Berufsanfängern gearbeitet.
auch tatsächlich ein großer Fehler, hatten es bestimmt ein, zwei Jahre irgendwie aufgehalten. Die Tatsache, dass wir uns viel zu sehr darauf verlassen haben, dass die Leute das einfach mal machen und das aber eigentlich eine sehr enge Führung gebraucht hätten, also mehr Mikromanagement. Aber das sind eben so...
Philipp Deutscher (38:27)
Bist
du dann derjenige, wenn du sagst, du willst wissen, was die alle machen und versuchst, die Fäden in Hand zu halten, bist du dann derjenige, der auch reingrätscht und dann die Kohlen aus dem Feuer holt, wenn es denn sein muss, oder bist du dann eh derjenige, versucht, die anderen zu enablen, damit sie das dann selber schaffen?
Sven Köppel (38:45)
Ich würde sagen, mittlerweile versuche ich mich tatsächlich mehr zurückzuhalten. Das ist immer so der Drang, den man auch als irgendwie als Techie hat, selber da Hand anzulegen. da habe ich zum Beispiel immer, das ist im Prinzip klassisches Company Building, dass man auch sagt, sobald du mehr als zwei Softwareentwickler zum Beispiel hast, dann entwickelst du selber nicht mehr Software. Dann bist du automatisch in der Projektmanagementsituation, Projektleitungssituation und versuchst das eher zu koordinieren. Das ist ein anderes Rollenverständnis, dazu gehört ein anderes Tätigkeitsprofil. Das ist viel mehr
eigentlich ein People-Business, wenn man wieder so ein Stichwort droppen möchte, als eines, es technologische Fragestellung geht. am Ende ist es halt immer die Mischung, weil wir sind letztlich mit allem, was wir entwickeln, immer so bleeding edge. Wir versuchen das Maximum rauszukitzeln von den Technologien, wir da haben.
Und da stellen sich natürlich immer wieder Fragestellungen wie Designentscheidungen zum Beispiel, die gefällt werden müssen. Und bei sowas bin ich immer noch stark involviert. Dann die Frage, in welche Richtung entwickeln wir jetzt zum Beispiel ein Produkt oder eine Technologie weiter.
Philipp Deutscher (39:46)
Wie entwickelt man denn für Analogrechner? Also ich meine, ich hätte vorhin was von dir aufgeschnappt und du gesagt hast, es wird ja nicht programmiert, sondern konfiguriert. Wie stelle ich mir den Arbeitsalltag als eines Entwickler vor, der für einen Analogrechner entwickelt?
Sven Köppel (40:02)
Also wir als Firma, die letztlich die Geritte herstellt, eigentlich von der Struktur so, dass wir drei, vier Säulen haben.
Und zwar haben wir einmal Leute bei uns, die angefangen hat es auch mit den diskreten Elektronikern, also das sind klassischerweise Ausbildungsberufe, aber auch Electronical Engineers, die also mit Uniabschluss Leiterplatten herstellen und mit fertigen Bausteinen quasi daraus Produkte bauen oder Prototypenplatinen und derartiges. Das sind Hardwareleute, die arbeiten einen guten Teil ihres Tages an einem ERD-Programm, also für Electronic
Design Automation, sowas wie Keycut zum Beispiel, ein CAD Programm und da gibt es auch ganz viele andere Programme, die man da verwenden kann und dann werden solche PCBs in Auftrag gegeben und gedruckt oder in-house hergestellt und bestückt und vermessen und da typischerweise ein Aufgabenspektrum von Elektronika. Aber da geht es auch viel Schaltungsdesign, Schaltungsentwurf.
Also auch ein recht universeller Tätigkeit. Und eng verzahnt mit dem Bereich von Firmware-Entwicklung, das heißt irgendwie in zweiten Säule, den Softwarebereich. sind ein Start-up, Deep Tag, also Hardware macht, aber wir bauen eben auch die Software für unsere Hardware, weil wir eben Software-defined Electronics machen wollen. Also wir wollen letztlich
der Elektronik ein Softwareinterface geben. Das unterscheidet uns heute von den Rechnern, es vor 50, 60 Jahren gegeben hat. das ist auch die Schnittschule zu der modernen Welt, wenn man so will. Grunde genommen bieten wir da so etwas Ähnliches an wie in der Quantencomputingwelt, wo man so eine Art Quantenprogrammiersprache hat, mit der man dann die Rechner programmiert. Und war es bei uns nicht anders. Wir entwickeln auch eine domainespezifische Sprache, diese Schaltkreise zu konfigurieren.
Und da gibt es auch ein großer Abstraktionslevel mit Compilern und sowas, die dann die Abbildung erzeugen von einem Wunsch-Rechenschaltkreis und Wunschgleichung auf das, was der Rechner in Wirklichkeit machen kann. Und das geht dann down the rabbit hole bis hin zur Firmware, wo dann eingebettete Controller die Elektronik ansprechen. Und das ist relativ unabhängig davon, ob die Elektronik am Ende dann diskretes hoch integriert oder andere Technologien wie FPGAs dahinter stecken.
Die dritte Säule sind dann tatsächlich die hochdiskreten Elektroniker. habe ich jetzt mal separiert, weil es noch mal ein anderes Skillset erfordert. Das sind häufig auch Elektrogeingenieure mit Ausrichtung oder Fokussierung auf Mikroelektronik, die also auch mit dem Schaltkreis anfangen, dann quasi die Realisierung machen auf viel kleineren Strukturen, eben ein paar Nanometer und dann auch ein Tapeout machen müssen, was viel aufwendiger ist als wenn man diskrete Elektronik herstellt.
⁓ viel teurer ist, viel länger dauert, längerer Interationszyklus und dann auch viel aufwendiger von der Testung ist, aber das ist das, das ist sozusagen der Hot Shit, weil die hochintegrierte Elektronik ist auch schwerer zu reverse-ingenieren, da ist dann das wirkliche intellectual property versteckt und das macht am Ende auch den Unterschied, weil das ist schnell, das ist hochkompatibel so wie das Design zu bestehenden Technologien und kann dann auch ganz groß skalieren.
Die letzte Arbeitsgruppe, die wir haben, vom Tätigkeitsprofil, sind Anwendungsentwickler und Leute, die Theorie machen. das ist quasi, man könnte es auch sagen, Ingenieursvertrieb, da ist auch ein ähnliches Begriff, manchmal verwendet wird, oder Vertriebsingenieur heißt es, glaube ich.
Also letztlich, kriegt man denn nun selbst mit der Software und der ganzen Hardware, die man hat, da wirklich eine relevante Anwendung drauf? Und was muss man dafür tun? Und das ist eben zu Beginn, wenn die Software noch nicht so gut ist, auch ein Knochenjob da, dann die Schaltkreise zu entwickeln und zu überlegen, wie man Demonstratoren bauen kann und wie man Kundengespräche führen kann und wie man zeigen kann, was die Technologie kann. Und zum Teil muss da auch die TMWEL auf Ebene von angematteter Mathematik theoretisch überlegt über Stabilität von
von Systemen beispielsweise oder aus Grundlagenforschung heraus, wie wir vorhin über Proteinverhaltung gesprochen haben. würde gerne jemanden hiren, der sowas kann, der wirklich weiß, wie Proteinverhaltung geht, weil das machen wir zum Beispiel noch nicht, das würden wir gerne machen, aber dafür brauchen wir auch wirklich Domain-Experten in den Bereichen.
Und das alles zusammen gibt uns am Ende dann also ein Produkt. denken da immer sehr stark auch nicht so als Produkte, sondern wirklich in Produkten. Und unsere Zielgruppe zu Anfang, das sind zum Beispiel Ingenieure.
oder Wissenschaftler, die selber halt auch in der Lage sind zu programmieren und das Zeug einzubauen bei sich irgendwo und mit denen die quasi selber auch ein gewisses Skillset haben und in die Tiefe gehen können, weil wir halt noch nicht ganz so da sind, dass wir direkt einen Photoshop Plugin anbieten können, das dann hinten aber den Analogrechner-Offloader verwendet.
Philipp Deutscher (44:55)
Welche besonderen Herausforderungen gibt es denn gerade so im Bereich Leadership, Kommunikation oder Kultur, wenn dann fast alle Mitarbeiter im Unternehmen ja selbst super Experten auf ihrem Gebiet sind? Stelle ich mir anspruchsvoll vor, natürlich sind Softwareentwickler auch Experten auf ihrem Gebiet, aber ich glaube noch mal das Level an Deep-Tech-Expertise ist noch mal ein anderes und damit ist natürlich auch der Schlag Menschen oder die Persönlichkeiten sind vielleicht noch mal ein bisschen andere.
Sven Köppel (45:23)
Ja, auf jeden Fall. habe es gerade schon mal bisschen angedeutet. hast du einerseits jemanden, der hat einen Ausbildungsberuf. Auf der anderen Seite hast du Softwareentwicklende, die gewohnt sind, gewissen Tooling zu arbeiten, mit gewissen Methoden, die sehr etabliert sind, so Ticket-basiertes Arbeiten zum Beispiel oder irgendwie in Stand-ups und mit Sprints. Auf der anderen Seite hast du Designer oder Layouter, die absolute Spezialisten auf ihrem Gebiet sind und auch ganz, also...
Sagt man, an die ranzukommen, braucht man, muss man noch mal eine andere Sprache sprechen. Ich mittlerweile haben wir es geschafft, die Teams so groß zu machen, dass wir da jeweils Leute davor gesetzt haben, die dann auch an der Schnittstelle arbeiten und dann auch eine gewisse Erfahrung haben, sodass wir die Arbeit strukturieren können. Aber es ist auf jeden Fall schwer, weil ich bin ja nicht in allen diesen Bereichen erfahren. habe zum Beispiel überhaupt
gar keine Ahnung, wie man jetzt so ein Mikrochip designt. Also da würde ich meine Leute nur aufhalten, wenn ich da versuche, denen irgendwie einen gut gemeinen Ratschlag zu geben. Und dementsprechend da kann man in gewissen Größen auch nur irgendwie Highlevel drauf gucken und sagen, okay, die Spezifikation müssen wir erfüllen. Was können wir machen, dahin zu kommen? Oder ich muss mir erklären lassen, wo vielleicht die Limits sind, denen, ein Mitarbeiter eine Technologie hin entwickeln kann.
Philipp Deutscher (46:42)
Was hast du denn auf deinem Weg über Leadership gelernt? meine, du bist vom Wissenschaftler zur Führungskraft geworden. Du bist natürlich immer noch Wissenschaftler, aber jetzt auch noch zusätzlich bist du verantwortlich für ein größeres Team. Gab es typische Anfängerfehler, die dir heute nicht mehr passieren würden oder bestimmte Prinzipien, die dir besonders wichtig geworden sind?
Sven Köppel (47:03)
Also ich meine, wir haben während Corona gegründet, das war eigentlich die Lockdown Phase und entsprechend sind wir von vornherein sehr stark
remote only company geworden, die die Fehler auf Eigenverantwortung setzt. Also wir nehmen unsere Mitarbeiter da nicht jeden Tag irgendwie an die Hand und sagen denen was sie heute machen sollen. Dafür braucht man einen gewissen Menschenschlag, da hatten wir anfangs auch Fehler gemacht, weil wir Leute geheiratet haben, die das gar nicht wollten de facto und die auch anders gearbeitet haben. So ähnlich wie wenn man an Bord holt, die vielleicht irgendwie eigentlich gar nicht in einem Startup arbeiten wollen und den typischen, die hohe Geschwindigkeit und die Flexibilität, die man da irgendwie mitbringen muss.
Start-up eigentlich auch nicht bereit sind zu leisten. da haben wir auch viel Lehrgeld bezahlt zum Teil. Oder was man auch ein häufiges wirklich wiederkehrendes Schema bei uns ist, dass wir durch dieses unglaubliche Spezialthema eine gewisse Art von Nerds an uns herangebunden haben, die wir zuweilen beschäftigt haben, die die faschen Insel begabt waren, könnte man sagen. Die konnten dann irgendwie vielleicht gut gewisse Fähigkeiten, die wir brauchten, aber dafür waren sie unglaublich schlecht im Kommunizieren. Und das ist ja auch ein Klassiker.
dass man in einem Team besser mit guten Teamplayern arbeitet als mit Spezialisten, die halt aber ein großes Problem mit der Kommunikation haben.
Philipp Deutscher (48:20)
Ja, Kommunikation ist auch eine Superpower.
Sven Köppel (48:22)
Ja, genau.
Philipp Deutscher (48:24)
Ja, ihr arbeitet hier auch an der Schnittstelle zwischen, was würde ich denn sagen, Forschung, Produktentwicklung. Ihr habt natürlich wirtschaftliche Anforderungen, die ihr berücksichtigen müsst als Start-up. Wie, oder was macht so ein Spannungsfeld mit dir? Wie gehst du damit ⁓ Also vor allen Dingen auch, wenn ich überlege, du hast ja deine wissenschaftliche Neugier. Es gibt bestimmt technische Möglichkeiten, die man ausloten will. Es gibt vielleicht auch Dinge, die der Markt jetzt gerade verlangt oder braucht.
die vielleicht nicht ganz dementsprechend, was man selber gerne machen würde, so stelle ich mir unter Umständen schwierig vor. Also nicht nur in eurem Kontext, auch in anderen, aber bei euch vielleicht noch mehr.
Sven Köppel (49:01)
Ja, auf jeden Fall. ich meine, von meinem Profil her bin ich ja eigentlich Wissenschaftler. Also ich finde super, mich in irgendwas so einzuarbeiten und da irgendwie Paper drüber zu lesen, selber auch zu schreiben. Und das ist ja eine andere Art Tätigkeit, als wenn man in einem Start-up ist, wo man mehr gucken muss, irgendwie ein Geschäftsmodell zum Laufen zu bekommen. Und gerade wenn es halt auch ein langer Weg ist bis zu einem...
bisschen ein Geschäft. Was ich halt total spannend finde an der ganzen Deep Tech Szene rund Quanten Computing und AI ist, dass sie ja zum Teil auch sehr offen ist. Also gerade im Bereich AI wird viel Open Source gemacht. Im Bereich Quanten Computing gibt es sehr viele Firmen, die publizieren, also wo es zu einem guten Ton gehört, dass da die Mitarbeitenden eben auch herangezogen werden und ihre Arbeiten wissenschaftlich veröffentlichen. Und das macht für mich auch ganz stark diesen Stil aus. Also da bin ich auch das
spreche dann auch mit verschiedenen Stimmen, wenn ich einmal sage, ich versuche vielleicht meine eigene Technologie zu bewerben oder unsere Produkte zu bewerben oder ich versuche quasi für das Beste der Menschheit in Einfungstrichen über einen technologischen Ansatz zu sprechen und sozusagen im Sinne eines gemeinsamen Vorankommens, also wenn man das vielleicht in einer Universität hat, technologische Lösung auch zu bewerben.
Das haben wir zum Beispiel auch gemacht, konnten wir uns, wenn man so will, leisten. Das so Art PR-Gag, dass wir in 2022 einen Rechner an den Markt gebracht haben, der Open Source, Open Hardware war. Da heißt die Analog Thing, das ist ungefähr so groß wie ein iPad. Und den haben wir, wenn man so will, Selbstkostenpreis verkauft. Also nicht mehr als den Einkaufspreis. Und wir haben von dem Gerät mittlerweile über 2000 Stück in ganzen Welt verkauft. An die Tinkering-Szene, an die Uino-Hobbyisten, Raspberry Pi, diesen Bereich.
Philipp Deutscher (50:46)
Was kostet der?
Sven Köppel (50:48)
Der hat einen Preis von 300 bis 400 Euro ungefähr. Das heißt im Vergleich zu Raspberry Pi ist er schon natürlich bisschen teurer. Ich hätte ihn ja gerne runter gebraucht auf 100 Euro, dafür muss man ihn ja komplett in China produzieren lassen und auch dort vertreiben dann würde man das schaffen. Das ist aus Deutschland heraus leider utopisch, aber das Produkt war für uns, also das haben wir quasi wirklich aus Weltverbesserung.
wenn man so eine naiva Weltverbesserung heraus in den Markt gebracht hat, natürlich war auch ein bisschen der Gedanke uns selbst zu bewerben damit, aber auch eben die Technologie zu bewerben, sagen, schaut mal, da gab es mal dieses Analogrechnen, da weiß kein Mensch mehr von, aber ihr als Schülerinnen, Studentinnen, Leute, die irgendwie interessiert daran sind, habt die Chance euch damit hier zu beschäftigen und das auch in andere Sachen einzubauen. Also wir haben extra auch eine Schnittstelle hinten dran gehabt, die dann kompatibel ist zu so einem Arduino.
dass man eben wirklich damit was experimentieren kann und das weiterentwickeln kann und es gibt zum Beispiel eine ganze Szene der Audio-Enthusiasten, das sind Leute die elektronische Musik machen oder sich noch eine Schaltplatte für 500 Euro kaufen, weil sie glauben, die klingt irgendwie besser und die hat das auch mit Kussern aufgegriffen, dieses Produkt, weil die eben auch gerne irgendwie klassisch analog-elektronik patchen.
für uns eigentlich, wenn wir ehrlich sind, relativ uninteressante Szene, weil wir uns in ganz anderen Bereich bewegen, es gehören zum guten Teil auch zu unseren Followern. Und auf die Art Weise haben wir auch einen richtigen Fanclub bekommen, diese Technologie-Jünger, so ähnlich wie die bei Elon Musk, die die Autos toll finden, einfach aus Prinzip toll finden, gibt es viele Menschen, die unsere Technologie aus Prinzip gut finden.
Du musst mich dann manchmal auch bisschen davon distanzieren, weil ich dann aus mir wieder der ernsthafte Wissenschaftler oder der German Engineer herauskommt, der sagt, lass uns mal zurück zu den Fakten gehen und das ist jetzt nicht besser, nur weil es grüne und gelbe Kabel hat. das gibt es eben auch. Also das ist dann auch das Level, auf dem wir manchmal kommunizieren.
Philipp Deutscher (52:52)
Ja, spannend. Vor allen Dingen, hast eben noch was gesagt, da würde ich gerne kurz drauf eingehen. hast gesagt, während der Lockdown-Zeit habt ihr gegründet. War das Zufall? hättet ihr sowieso zu dem Zeitpunkt gegründet oder war der Lockdown ein Katalysator dafür, dass es euch nochmal eine Dringlichkeit geschaffen hat? euch war es dann langweilig und habt ihr gesagt, na ja, jetzt machen wir es mal? Oder war es einfach nur sowieso Teil des Prozesses und es viel zufällig in die Lockdown-Phase?
Sven Köppel (53:17)
Es war tatsächlich Zufall. Wir haben uns vorher gefunden und dann kam der Lockdown im März 2020. Ende 2019 bin ich dazugekommen, langer Vorgründung. Richtig, GmbH haben wir dann erst Ende 2020 gegründet. Aber natürlich hat der Lockdown damals ja auch allen gezeigt, wie modernes Remote-Arbeiten funktionieren kann. Ich finde es eigentlich erstaunlich, dass wir das im Hardware-Bereich geschafft haben. Gerade Hardware erfordert häufig, dass man
den direkten Zugriff hat zu der Hardware und mit der Hardware dann auf dem Tisch auch was machen kann, am Rädchen drehen oder das Kabel wackeln und wir hatten eben damals schon von der genau der Ausgangstechnologie die Möglichkeiten das aber über das Internet auch anzusteuern und so gab es Seiten im Lockdown, da habe ich eben mit Bern über 300 Kilometer Distanz an dem Reconfigurier war ein ersten Analogrechner Prototyp gearbeitet über das Internet.
und inklusive Datenerquise und entfernte Programmierung. Und das ist was, wahrscheinlich, wäre man auf die Idee nicht gekommen, wenn es keinen Lockdown gegeben hätte, dann wäre man halt einfach hingefahren und hätte da direkt dran getüftelt. Aber das ist eben dieser Mindshift, Corona ja durch quer durch alle Industrien auch gemacht hat, letztlich zu zeigen, was geht. Aber natürlich gibt es auch die Grenzen. Heute rufen ja auch die Leute wieder den umgekehrten Weg, dass Präsenzarbeit natürlich auch seine Vorteile hat.
Philipp Deutscher (54:39)
Das ist richtig. Du hast gerade eben noch gesagt, du musst dich ja selber manchmal auch zusammenreißen und sagen, nochmal die ernste wissenschaftliche Seite. Es gibt nämlich auch gängige Vorurteile zum Thema Analogrechner. Eines davon ist, analoge Technik sei ungenau und es rauscht. Du hast jetzt eben auch die analogen Schallplatten erwähnt, die rauschen dann teilweise auch. Trotzdem gibt es Leute, die sagen, die klingen besser.
Sven Köppel (54:54)
Ja, genau.
Philipp Deutscher (55:03)
Jetzt nicht auf Schallplatten bezogen, aber wie reagierst du allgemein auf diese Aussage, dass analoge Technik ungenau ist und rauscht? Und wie geht der mit genau diesem Thema Genauigkeit ⁓
Sven Köppel (55:13)
Also nochmal an der Stelle kurz aufzugreifen, die Leute mit den Schallplatten, das sind eben auch die, wenn die analog hören und dann glauben die, dass der Rechner organischer ist. Also dass das ja quasi natürlicheren Ursprungs ist, weil er nicht mit diesen künstlichen Ziffern arbeitet. Und das ist zum Beispiel genau diese Art von Pseudoscience, die mich eigentlich wahnsinnig macht, weil ich denke meine Güte, ob mein Handy ja jetzt irgendwie in Einsen oder Nullen rechnet oder nicht, ist erstmal völlig Wumpe für ein gegebenes Problem und zum anderen ist die Abtastrate und alles derart hoch.
von wenn ich nicht gerade so ein super schlecht komprimiertes MP3-Pfeil abspiele, wie man ja damals 2000 auch hatte, weil die Internetverbindungen halt schlechter waren, dass es wirklich gefühlte Wahrheiten geht, wenn man über so was spricht. Und das zeigt aber auch schon genau die Qualität des Diskurses, der stand manchmal stattfinde, der eben sich einfach entkoppelt von wissenschaftlichen Fakten.
Und da will ich dann eben zurück zu den wissenschaftlichen Fakten. Und wenn es jetzt zum Beispiel Genauigkeit geht von analogen Rechnern, dann ist das für uns einfach eine Kenngröße, die wir steuern können. Also wir können Analog-Rechner mit einer ungenauen Analog-Rechner bauen, wir können genaue Analog-Rechner bauen, die sind dann halt aufwendiger, sind auch teurer von den Komponenten oder wir können da zum Beispiel unser Wissen einfließen lassen, indem wir Fehlerkorrekturverfahren integrieren in die Art und Weise, wie die Schaltung funktioniert. Das ist ein bisschen inspiriert von einem Quantencomputer bauen und betreiben.
Und auf die Art Weise haben wir da eine Möglichkeit, die die die Genauigkeit quasi zu engineern und zu gucken, was wollen wir da eigentlich bauen. Und auf der anderen Seite gibt es aber auch der Natur Gesetze, die uns einfach zeigen, wo die Reise hingeht. Und zwar gibt es ein berühmtes Diagramm.
Man sieht, wie eigentlich die Genauigkeit von einem Computer abhängt von einem Energieverbrauch. Und da sieht man auf der x-Achse quasi die Bits als eine Möglichkeit, die Genauigkeit zu bezeichnen. Also wenn man so will, wie viele Bits pro Signal kann man sich das eigentlich vorstellen. Zum Beispiel unser Audiosignal hier, das hat ja auch eine gewisse Bits pro Sekunde, die da durchgehen. Und mit einem Bit wäre das halt immer nur so ein Piepen.
und mit hunderten von Kilobits ist es eben was kontinuierliches. Und tatsächlich ist aber die Spannbreite viel kleiner im Bereich von Signalauflösungen. Guckt man sich normalerweise so was wie zwischen 0 und 32 Bits an. Und dann guckt man sich zum Beispiel, ⁓ das zu motivieren, das menschliche Gehirn an, wo Neuronen elektrische Signale zu anderen Neuronen schicken. Und da wird mit einer Genauigkeit gerechnet im menschlichen Gehirn von ungefähr 4 Bit, also Äquivalenten letztlich von 4 Bit. Also es definiert auch das Signal.
zu Rausch verhält, ist letztlich. das interessante ist, dieses Diagramm zeigt im Clip und klar, dass es ungefähr bei 10, 16 Bit irgendwo einen Crossover gibt. Wenn man ungenauer rechnet, ist es sehr viel besser und sehr viel energiesparender, also viele Größenordnungen energiesparender analog zu rechnen. Wenn man hingegen sehr viel genauer rechnen möchte mit einer sehr hohen Genauigkeit, dann ist es energiesparender digital zu rechnen, kostet dann halt auch das entsprechende an Energie.
Das heißt, eines unserer Mantras ist eben, dass wir ganz bewusst in diesen Bereich gehen wollen, in dem man ungenau rechnen kann. Also wenn die Anwendung das hergibt, weil es zum Beispiel Machine Learning ist, in dem man auch de facto nicht mehr als 4-Bit oder so was auflösen kann, dann kann das sehr interessant sein, so was im analogen Bereich zu lösen, man diesen Energiegewinn dann ausspielen kann. Wenn man hingegen eine Anwendung macht, wo man unbedingt irgendwie die zwanzigste Nachkummerstelle braucht, dann wird man das mit Analogrecheln
wahrscheinlich nur mit großem Aufwand hinbekommen, was dann wiederum zu einem hohen Energieverbrauch führt. Es kann sein, dass es Vorteile ausspielt, wenn es dann im Bereich Parallelisierung geht, das sind dann wieder andere Aspekte, aber das ist jetzt quasi wirklich ein datengetriebener oder wissenschaftlich versucht zu argumentierende Herangehensweise zu sagen, ich verstehe das Problemgenauigkeit, ich arbeite mit dem Problemgenauigkeit und ich lasse mich da nicht von einem Vorurteil oder sowas irgendwie...
abhalten. Aber das ist häufig was, was man hört, wenn man Leuten spricht, die so ein bisschen technischen Hintergrund haben und irgendwie schon mal was davon gehört haben. Und ich meine, ist natürlich so, wenn man so ein ungeschirmtes Kabel irgendwo hat, so ein alten Kopfhörer, dann rauscht man, dann wackelt man dran, dann rauscht es. Das ist natürlich so.
mit einem billigen digitalen Kabel, wo dann digitale Informationen durchfließen, da wird das genauso rauschen, aber da hat man zum Teil digitale Korrekturverfahren oder die Verbindung bricht halt, wenn man Glück hat, noch nicht ganz ab. Das sind Dinge, die man ja dann letztlich auf einer Anwendungsebene in den Griff bekommt, weil man da das Signal post-processed auch solche Dinge kann man analog machen. Also die Analog-Elektronik ist also nicht fundamental schlechter, im Gegenteil, das digitale Signal ist ja auch
irgendwo analog, dann aber digitalisiert. Wir können einfach mehr Informationen, da ich ein einzelnes Kabel durchschicken und das ist einfach eine sehr mächtige Waffe, wenn in dem Moment, es darum geht, Ressourcen auszunutzen, die einem gegeben sind, natürlicherweise.
Philipp Deutscher (1:00:06)
Ist das
dann die Antwort auf die Frage, ich jetzt stellen möchte, nämlich wann kann das Rauschen sogar nützlich sein? Wäre das dann die Antwort dazu? Oder ist das überhaupt... Ist Rauschen in analogen Systemen überhaupt ein Problem? Oder ist es vielleicht ein Feature, was man neu denken muss? Keine Ahnung, also ich...
Sven Köppel (1:00:17)
Also...
Das kommt wirklich auf die Anwendung an. Grundsätzlich in der Regel, Rauschen selber würde ich jetzt einfach erst mal übersetzen als es geht ein Verhältnis von einem Signal, was ich in meinem Kabel habe zu einem Signalanteil, zu einem Rauschanteil, irgendwie einen natürlichen Ursprung hat und den ich vielleicht nicht kontrollieren kann, der auch keine Information trägt. Jetzt ist es so, es ganz viele Quellen geben kann, wo Fehler herkommen in meiner Rechnung. Zum Beispiel
Die Tatsache, dass irgendein Bauelement kaputt ist oder die Tatsache, dass mein Modell irgendwie nicht hinreichend genau ist.
Und Fehler kann ich vielleicht bemerken, wenn ich schlau bin und dann dagegen arbeiten oder kann sie analysieren und kann sie vielleicht auch noch irgendeiner Stelle kompensieren, je nachdem wie so ein Fehler gestrickt ist. Das eigentliche Rauschen gibt mir immer nur eine Grenze bis wohin ich Rechnerressourcen verwenden kann und ab wann sie dann einfach nicht mehr zu gebrauchen sind. Das ist ein Begriff, der im Digitalen nicht vorkommt, weil man da halt auf einem Level spricht, wo man sagt, okay, meine Bits sind halt bis wohin perfekt, aber das Rauschen habe ich auf einem Digitalrechner immer so
gewisserweise auch nur halt versteckt. Man denke da zum Beispiel an eine moderne SSD, also eine Festplatte. Heute sind ja eigentlich alle Festplatten SSDs. Diese Flash-Speicher, die seit einigen Jahren auch die mehrere Bits in einer Speicherzelle halten und das tun die, weil die analoge Werte speichern. Die können es schaffen, das in einer Speicherzelle quasi verschiedene Quantisierungswerte zwischen 0 und 1 zu speichern, auf die Art Weise mehrere Bits pro Speicherzelle zu halten. Das ist ein absolut analoger Speicher, was dort passiert.
Wenn man da versucht noch mehr Bits zu speichern, versucht man, das versuchen Leute, kriegt man das nicht hin, weil man da das Rauschen einem, den Tag versaut. auch dort in der digitalen Welt ist es dass man so weit gegen das Rauschen kämpft und auch wenn man den Takt höher treiben will vom Digitalrechner, kommt man irgendwann das Rauschen quer. Also das Rauschen ist da auch nicht komplett unbekannt. Rauschen als solches, neues Quellen der Natur in der Elektronik.
können auch genutzt werden, selbstverständlich wenn es zum Beispiel ⁓ Random Number Generation geht, Zufallszahlen die man irgendwo braucht, gibt viele Anwendungen, es Bereiche die getrieben sind davon, dass sie mit Zufall arbeiten. Zufall in der Analogwelt ist im Allgemeinen recht günstig, weil man es viele Art Weise gibt, den zu erzeugen und den dann auch einzuspeisen, wo man dann digitalen dann in der Regel auch analogen Zufallquellen nimmt, die dann digitalisiert und zum Teil dann noch durch den Algorithmusjagd, der da
daraus noch mehr Zufall macht, Pseudo-Zufall ist das in der Regel. Und das ist interessant, weil man kann natürlich auch mit Anwendungen arbeiten, die dann bewusst einen Rauschteil, der in der Rechnung ist, nehmen und mit dem arbeiten. Also von daher kann es tatsächlich gerade im Bereich AI auch interessant sein, wenn man es mal versucht so ganz pauschal zu sagen, dann fällt auf einem Level von einer gewissen Ungenauigkeit, die mein Neuron beispielsweise hat, was ich elektronisch simuliere.
die dann eben dem entspricht, was vielleicht ein echtes Neuron auch an Zufälligkeit
Philipp Deutscher (1:03:17)
Lässt sich denn ganz vereinfacht sagen, dass analoge Rechner oder analoges Rechnen immer dann seine Stärken ausspielen kann, wenn nicht-deterministisches Arbeiten verlangt wird oder nicht-deterministisches Rechnen verlangt wird? Oder ist das dann zu einfach?
Sven Köppel (1:03:34)
Also Analogrechner können auf jeden Fall technisch rechnen, das ist auch wichtig für uns. Wir wollen das auch reproduzierbar haben und alles was ein Rechner tut, im Allgemeinen zumindest. das heißt also jedes Mal, man ihnen gleich mit den Startbedingungen startet, soll auch das gleiche hinten rauskommen, bis auf die erforderliche Genauigkeit eben. Aber es gibt natürlich auch stochastische Probleme, die auf einen gewissen Chaosbeitrag setzen.
den man analog gleichermaßen auch haben kann. Und da sind wir genau wie im Thema Rauschen und so was. Also es gibt auch Ansätze, analog Rechner zu benutzen, speziellen Anwendungen, ⁓ Probleme eben auf eine noch statistische, statistische Art Weise zu lösen. Und das ist tatsächlich auch ein Bereich, in dem wir arbeiten, in dem man z.B. Optimierungsprobleme dann eben annähernd löst oder eben halt erst nach langer Zeit löst, wenn dann zufälligerweise die richtige Lösung rausdroppt, die man dann vielleicht prüfen kann auf Richtigkeit.
Aber trotzdem, die Aussage, dass Analogrechner sich nur dafür eignen, würde ich nicht unterschreiben.
Philipp Deutscher (1:04:36)
Nicht nur dafür, sondern besonders dafür, besonders für Anwendungsbereiche, denen das nicht-deterministische Arbeiten dann maßgeblich ist. Also z.B. Machine Learning AI usw.
Sven Köppel (1:04:46)
Also
würde ich aber tatsächlich nicht unterschreiben. Zum Beispiel wollen wir auf unseren Rechner auch so was wie Wettersimulationen Die hat natürlich auch immer diesen Teil, man weiß nicht genau, was das Wetter macht. Das ist die Wettersimulation, eben immer nur zum gewissen Teil genau und irgendwo bricht die Genauigkeit zusammen und dann rechnet der Rechner Quatsch aus. Deswegen hält die halt auch nur so ein, zwei Tage weiter, kommt man halt in die Zukunft sozusagen nicht rein.
Philipp Deutscher (1:04:49)
Okay.
Sven Köppel (1:05:10)
Aber genau so auf dem Level werden wir das auf dem Analogrechner auch machen können. habe ich keinen Zweifel, bloß dass wir sehr viel paralleler machen können und effizienter und schneller. Deswegen wird man mehr von diesen Wettersimulationen machen können, damit man wahrscheinlich am Ende eine bessere Wettervorhersage bekommt. Aber die Tatsache, dass der Rechner das grundsätzlich macht, die ist die gleiche. Und die ist auch absolut deterministisch. Oder ein Windkanal zum Beispiel werden mit Autoherstellern, Flugzeugherstellern, analoge Twins bauen, so einen Digital Twin, Analog Twin.
von einem Windkanal werden in Echtzeit diesen Windkanal berechnen können und das wird genau das gleiche sein, was da passiert wie im Digitalrechner und wie im echten Windkanal, bloß dass es im Analogrechner halt sehr viel schneller und energiekostengünstiger simuliert werden kann, aber eben mit der gleichen Deterministik, dahintersteckt.
Philipp Deutscher (1:05:57)
Okay, jetzt könnte man ja völlig ketzerisch oder pro analogen Rechner postulieren können, dass die Fixierung auf deterministischen Rechnen ein Denkfehler der letzten 50 Jahre ist, was ja auch dann dazu beigetragen hat, dass wir an der Stelle sind, an der wir sind und dass Analogrechner noch so stark unterrepräsentiert sind. Würdest du da mitgehen oder ist das zu überspitzt, zu vereinfacht, zu provokant?
Sven Köppel (1:06:21)
Also ist...
Also aus wissenschaftlicher Sicht würde ich nicht mitgehen, weil da würde ich sagen, es gibt seit Jahrzehnten schon Ansätze, Probleme zu lösen, die inherent stochastisch sind, zum Beispiel Monte Carlo Verfahren, wo man quasi einen großen Lösungsraum erprobt und auf die Art und Weise versucht, schneller an eine Lösung zu kommen. Witzigerweise, bei dir im Hintergrund steht diese Saturn V Rakete, die die Menschheit zum Mond gebracht hat. Diese Rakete, die da steht, die wurde mit einem Analogrechner gesteuert.
und die wurde ja auch nicht jedes zehnte Mal dahinten geflogen, die ist genau einmal dorthin geflogen und das ging, weil die Genauigkeit in so einer Rakete eben endlich ist. meine, ob man die zwei Meter links oder rechts starten lässt, macht wahrscheinlich schon einen Unterschied, aber ob das zwei Nanometer nach links oder rechts geht, nicht mehr. Das heißt, irgendwo gibt es dann eine nötige Genauigkeit, die erreicht wurde mit den Analog-Rechnern dieser Zeit damals, aber die Geschwindigkeit wurde eben nicht erreicht mit Digital-Rechnern und wir sind jetzt dabei mit
Boeing, mit Airbus zu sprechen, haben da auch schon erste Projekte laufen, die Flugsteuerung der zukünftigen Flugzeuge analog zu machen, weil man die natürlich im Zuge der Digitalisierung auch digital gemacht hat, dann stellt man aber fest, dass das alles nur mit einer Geschwindigkeit machbar, die der Digitalrechner liefert. In Zukunft werden wir in Flugzeugen fliegen, die weniger Kerosin benötigen, weil die Flügel anders designed sind, sehr viel länger, mit viel mehr Klappen und diese Klappen werden in Echtzeit gesteuert von Analogrechnern.
die vorne am Flügel einen Sensor haben und hinten den Aktuator und dazwischen wird analog gerechnet und damit werden auf Böen und Windlast reagiert in Echtzeit. Das schafft kein Digitalrechner. Wenn das ein Digitalrechner machen sollte, müsste der Sensor ein Kilometer vor dem Flugzeug fliegen. Beim Analogrechner kann der ein Ort und Stelle sein, weil er eben die Digitalisierung zwischendurch nicht braucht. Und das ist einfach ein Emerging Market. Das würde man auch mit einem Quantcomputer nicht machen. Da ist man klassisch in der Sensorik drin.
Die Messwerte sind quasi elektronisch, so will, weil wenn so was Elektronisches rausspuckt, dann ist es natürlich so der Welt, die auch mit Elektronik weiter zu verarbeiten und so werden in Zukunft auch die Raketen wahrscheinlich mit analogem Antrieb funktionieren, sie, falls sie auch mit solchen klappen, da, ich bin kein Flugzeugbauer, aber ich habe zumindest verstanden, wo der Selling Point an der Stelle ist, zu sagen, gut, das geht nicht mit anderer Technologie, wir brauchen hier eine neue Technologie.
Die Neue ist zufälligerweise die Alte. Das ist Ironische daran.
Philipp Deutscher (1:08:54)
Viele sprechen ja auch davon, dass unser Gehirn analog arbeitet. Dann ist natürlich die naheliegende Schlussfolgerung, dass ja natürlich Analog Computing deshalb ein vielleicht fehlender Baustein für künstliche Intelligenz sein kann, die dann wirklich auch irgendwann menschenähnlich funktioniert. Siehst du das auch so oder ist das, weiß nicht, ist das eine valide Aussage?
Sven Köppel (1:09:16)
Also das ist total interessant, weil das menschliche Gehirn komplett anders aufgebaut ist als ein konventioneller Digitalkomputer. Die Art und Weise wie wir momentan AI machen mit ChatchyPT und ChessyDiffusion und so weiter und so fort ist halt eigentlich mit der Brichstange. Also was wir da machen auf GPUs und Spezialprozessoren sind eigentlich große lineare Algebraoperationen, Matrix mal Vektor, sowas in einer Art und Weise, viel Grundrechnung, die aber im Wesentlichen
dann versucht auf so einer Schichtenartenweise das zu simulieren, wie so ein neuronales Netz funktioniert. das Gehirn ist nicht aus Schichten aufgebaut, die miteinander kommunizieren, sondern das Gehirn ist aus ungefähr 10 hoch 12 Neuronen aufgebaut, die dazwischen eben unglaublich dicht vernetzt sind. Das heißt also, die Art und Weise, wo da gespeichert und gerechnet wird, ist anders als im Digitalrechner, und zwar an der gleichen Stelle. Sehr hoher Vernetzungsgrad.
Und da ist die Wissenschaft sich nicht ganz einig, ob das Gehirn analog oder digital, arbeitet aber auf fundamentalen Prozessen, also wie da vielleicht Ionenkanäle sich öffnen und biologische Rezeptoren wird es vermutlich analog sein. Möglicherweise ist dazwischen was digital, wenn es Spiking-Modelle geht, wo quasi das Neuron dann aktiviert und schießt und dadurch eben digitale Informationen von sich gibt. Aber...
Das irre ist, die analogen Neuronenmodelle, mit denen wir arbeiten, die funktionieren sehr viel besser als die digitalen. Also man schafft es, haben eine Kollaboration mit dem Max-Planck-Institut, haben ein analoges Neuronenmodell mit fünf Neuronen und das kann Bilderkennung, das kann Ziffern erkennen in einem 20x20 Pixel großen Bild und dafür braucht man mit diesen Feedforward Netzen, die wir auf GPUs heute rechnen, braucht man dafür viele tausend Neuronen. Also es ist einfach Größenordnung
Mächtiger und deswegen gibt es momentan eben auch einen großen Run darauf, analoge AI-Beschleuniger zu bauen, die eben eher funktionieren wie das menschliche Gehirn, auf die Art Weise vielleicht tatsächlich dann den General AI, wie man ja so schön sagt, den großen Durchbruch hinzukriegen, eine analoge Intelligenz zu schaffen, der Menschlichen nichts mehr nachsteht.
Philipp Deutscher (1:11:30)
Die Entwicklung und Ausführung neuronaler Netze verbraucht viel Rechenleistung und Energie. Und dann wird die Analogrechner bei der Optimierung dieser Prozesse eine sehr wichtige Rolle spielen in der Zukunft. Also komplementär wahrscheinlich zu den bisherigen Prozessen. Sie werden sie nicht ersetzen.
Sven Köppel (1:11:46)
Genau, ist, was man vielleicht noch sagen muss, eben das Skalierungsverhalten ist halt wirklich auch komplementär anders. Also wenn ich jetzt mit dem analogen Neuron bauen will, dann brauche ich natürlich, da müssen die irgendwo sein. meinem Chip oder auf meiner Karte, meinem Computer, wie auch immer, irgendwo muss man wirklich dieses analoge Neuron sein und für jedes Neuron muss auch ein elektronisches Äquivalent da stehen und die Kabel müssen auch irgendwie dazwischen sein und die Verbindung. Das heißt, dieser Rechner, wächst halt wirklich mit der Größe der Neuron.
Und das ist eben auch der Grund, warum wir sowas noch nicht haben, als Mensch jetzt wieder gesprochen, weil man da natürlich eine Menge investieren muss, um mal zu sagen, jetzt bauen wir doch mal einen Rechner, der irgendwie 10 hoch 9 Euro oder sowas hat. Das passiert, diese Investitionen passieren bei, in der konventionellen AI-Welt. Ich meine, es werden Rechenzentren ausgestattet mit GPUs, da werden zwei, drei Atomkraftwerke daneben gestellt.
weil halt einfach ein Rieseninteresse da ist mit diesen Large Language Models zu arbeiten, weil die quasi funktionieren. Aber das ist eben der Vertrauensbonus, klassisches Deep Tech Problem, den eben eine andere Architektur noch braucht und wo es halt noch nicht da ist. Und wo es sicherlich auch noch Engineering Probleme sind, weil ich meine 10 hoch 12 Elemente miteinander zu füllen, die Verbindung muss man halt auch erst irgendwie bauen. Wird man wahrscheinlich drei dimensionale Strukturen benötigen.
die man vielleicht so heute noch gar nicht bauen kann auf Metsilizium oder in Chips. Und das ist ja eigentlich das Spannende daran, dass da noch sehr viel kommen kann, aber dass da eben die technologischen Winds auch riesengroß sind. Und natürlich wollen wir auch die Atomkraftwerke loswerden, um Rechenzentren zu betreiben, das ist völlig klar. Wobei ich auch da sagen muss, aus einer wirtschaftlichen Perspektive ist es ja leider auch so ein bisschen, es gibt dieses, ich glaube es heißt Juice Products,
wenn man ein Rechenzentrum ausstattet mit Analogrechnen, das Rechenschlossung hatte vorher eine Anschlussleistung von 30 Megawatt, dann wird wahrscheinlich die ausführende Kraft da wieder gucken diese 30 Megawatt zu erreichen, falls das überhaupt in Räumlichkeiten geht, aber die werden diese Anschlussleistung nicht ungenutzt darliegen lassen, das heißt am Ende wird man genauso viel verbrauchen wie vorher, aber immerhin werden wir dann Millionen mal effizienter sein, das heißt die Energie ist nicht ganz so verschwendet.
Philipp Deutscher (1:14:04)
Ja, das wäre auch
die Anschlussfrage gewesen. Wie sieht denn eine Welt aus, in der wir die Rechenleistung nicht mehr zentral in Rechenzentren bündeln, sondern in dem das Ganze halt zentraler, mehr analog verarbeitet wird und was für Auswirkungen hätte das im Endeffekt darauf. Aber du sagst es ja richtigerweise. Wahrscheinlich wird die ungenutzte Rechenkraft, die wird nicht eingespart und es wird nicht zurückgebaut, sondern es wird anderweitig verwendet. es befeuert dann mehr nur Wachstum wieder.
Sven Köppel (1:14:24)
Wobei,
genau, ich meine das ist jetzt bisschen dystopisch so zu denken, aber auf anderen Seite ist es natürlich, also ich sag manchmal auch die Analogrechnerei, die wir sie betreiben, ist quasi der Nachbrenner der Digitalisierung. Also da wo jetzt momentan das Obikides Computing, das allgegenwärtige Rechnen mit Digitalprozessoren in den Kleidungen und ähnlichen an Grenzen stößt, weil die Energieversorgung nicht da ist und ähnliches, da wird einem Analogrechnern auch eine Lücke schließen können.
Herzimplantate oder andere auch medizinische Geräte bauen können, die durch Analog Computing so wenig Strom verbrauchen, dass sie Energy Half-Resting betreiben können. Das heißt, sie können die Energie aus ihrer Umgebung verwenden, Rechenprozesse zu machen in situ, ohne dass man damit an die Cloud gehen muss. Das sind wir die politischen Stichworte, weil es ja auch bei Souveränität geht, wenn man von Clouds nicht mehr abhängig ist.
Das ist eben sehr spannend, weil man dann natürlich auch mit geringer Latenz an Ort und Stelle Rechnungen machen kann und damit vielleicht auch gewisse Datencenter-Operationen los wird, die man heute noch in Datencentern
Philipp Deutscher (1:15:34)
Wie schnell könnte man jetzt überhaupt einen Teil des digitalen Rechnens überhaupt auf analoge Rechner umswitchen? Also das sind ja zwei komplett unterschiedliche Welten. Und wenn wir uns jetzt eine Welt vorstellen, in der analoges Rechnen immer, immer wichtiger wird und vielleicht sogar mehr gefördert wird und auch das möglich macht, dass so ein Land wie Deutschland auch autarker damit arbeiten kann.
wird das ja trotzdem nicht von heute auf morgen möglich sein. Was braucht es denn dafür?
Sven Köppel (1:16:08)
meine Internetverbindung gerade ein bisschen schlecht. Ich hoffe die erhöht sich wieder, weil ich gerade das Kabel angesteckt habe. So, nochmal zurück zur Frage.
Philipp Deutscher (1:16:15)
Also hier bist du gut durchgekommen.
Sven Köppel (1:16:24)
Genau, wir haben ja von der Technologie den Ansatz, dass wir sagen, wir wollen CMOS-kompatibel sein. Das bedeutet, wir wollen unsere Technologie als Co-Prozessor auf jeden normalen Digitalprozessor packen können, ohne dass man dabei einen Technologiebruch hat oder dass man dann andere Fertigungstechniken hat und quasi neuartige oder zweite Chips dazu packen muss. nehmen wir wieder das Beispiel von einem iPhone.
Da wird niemand einen separaten Chip dazu packen. geht das Stichwort in die Richtung, werden noch weitere Chips gespart. Und in dem Moment, in dem wir quasi sagen können, okay, wir sind ein IP-Block für bestehende CMOS-Komponenten, die werden dann zum Teil eingekauft von den großen Chip-Erstellern als fertige Bauteile, kann man eben mit auf einen Chip drauf kommen. Und das macht es eben dann unseren Case, wenn man so will, zum Hyperscaler. Erst dann kann man sagen, okay, das öffnet die Tür dafür.
dass ein analoger Co-Prozessor wirklich auf jedes Endgerät drauf kommt, weil er zum Beispiel sowohl in der Mikroelektronikwelt, also bei Mikroprozessoren, eingebetteten Systemen, als auch bei Supercomputer-Prozessoren oder mobilen Prozessoren überall einen Win macht. Und das ist eigentlich unsere Vision, wie ich es dir Anfang erwähnt habe, dass wir dahin kommen, ein universaler Co-Prozessor zu werden. Und dann, noch mal quasi jetzt von der User-Perspektive her zu sehen,
sehen wir es eben als Aufgabe der Programmierenden, so wie man heute schon Kernel schreibt für GPGPUs, als Beschleuniger dann aber auch Kernel zu schreiben, die dann auf unseren Prozessoren laufen können, sodass man eben Offloading von Compute Intensive Task auf diesen spezialisierten Co-Prozessor hat und auf die Art und Weise eben gewisser Rechenoperation schneller gehen. Das klingt immer so ein bisschen esoterisch, wenn man das sagt, aber das darf man auch eben wieder nicht vergessen, mal wieder einen geschichtlichen Blick zu haben.
in den 90ern, als dann die Mikroprozessoren kamen, PC's kamen und die Industrie revolutioniert haben, gab es eben auch die Zeit, der die Floating Point Units als Co-Prozessoren da waren. Also es gab eben auch die Zeit, wo es noch kommerziell, ich glaube sogar bei Aldi, Computer gab, der hatte einen separaten Chip, der konnte dann Floating Point Numbers, also Fließkommazahlen, sind letztlich wissenschaftliche Zahlentastellungen, sehr effizient rechnen, viel schneller als was ein CPU zu der Zeit simulieren konnte.
Und das ist dann aber völlig selbstverständlich in den CPU reingekommen als ein Co-Prozessor-Teil, den man heute in jedem Prozessor-Design drin hat. So ähnlich ist es später mit GPUs auch passiert. Die sind heute auch in der Regel in den Prozessoren mit integriert als Grafikkörnel. Und man hat ja in letzten Jahren auch häufig dann die Werbung darüber, zum Beispiel die Tensor-Processing-Units gehört, die dann auch in den Apple-Prozessoren, beispielsweise drin sind, in MacBooks gleichermaßen.
⁓ eben AI-Beschleunigungen schneller zu machen.
Philipp Deutscher (1:19:15)
Was müsste denn
passieren, damit das Co-Prozessoren wären? Also, welche Anwendung oder welcher Use-Case müsste denn entstehen, sodass das tatsächlich passiert, dass tatsächlich in den ganzen Rechnern, in den Laptops, in den Handys überall Co-Prozessoren drin sind?
Sven Köppel (1:19:32)
Also zum einen, für uns, da wird es dann technisch. Ich meine, unsere Rechner werden eigentlich programmiert oder konfiguriert oder beschrieben über Differenz-Zweigleichungssysteme.
Philipp Deutscher (1:19:40)
Ich meine
nicht auf der technischen Ebene, sondern eher, müsste denn sich von Seiten, welches Killer-Feature müsste denn existieren oder müsste denn Durchsetzung erlangen, damit überhaupt ein Drang danach oder da besteht, eine solche Veränderung herbeizuführen, so auf der breiten Masse. Ist das das AI-Thema oder wird es was anderes sein?
Sven Köppel (1:20:03)
AI Thema ist auf jeden Fall das, was man sich am besten vorstellen kann, weil da ist ganz klar, wir wollen AI zum Beispiel auf dem Handy haben oder in der Smartwatch oder im Anorak und in dem Moment, wo ich das Local Processing machen kann, ist das auf jeden Fall ein Killerfeature und das ist eine absolut rechintensive Aufgabe und genauso gibt es eben auch andere Aufgaben. Ich nenne es immer so in Blurry zum Beispiel, Optimierungsprobleme, also das kann sowas sein wie in dem
Rechenalgorithmus, in dem ich quasi irgendwo lokal eine Kleinigkeit lösen muss, die dann über eine Library automatisch offgeloadet bis hin eben zu einer komplexeren Anwendung im wissenschaftlichen und im industriellen Bereich.
Philipp Deutscher (1:20:44)
Okay. Ihr arbeitet, glaube ich, auch mit Universitäten und Forschungseinrichtungen zusammen. Was sind denn die wichtigsten Ziele dieser Kooperation? Geht es dann eher Grundlagenforschung, konkrete Anwendungen? Und welche Wichtigkeit hat das, haben diese Kooperationen jetzt gerade im Vergleich? hast vorhin irgendwie Beispiel mit einem Luftfahrtbetreiber genannt, wo das Thema in die Flugsteuerung mit eingebaut werden soll. Also was hat denn auch so in diesem Vergleich die höhere Wichtigkeit, die Kooperation oder dann eher der
Also die Kooperation mit der Forschung oder die Kooperation mit der Wirtschaft.
Sven Köppel (1:21:18)
Also das ist eine gute Frage. Wir sind ja so unkonventionell gestartet, also nicht als Uni-Ausgründung, sondern letztlich unabhängig von Universitäten, sodass häufig Uni-Kollaborationen, Forschungs-Kollaborationen, wir haben,
ein bisschen auf dem Kopf stehen, weil häufig sind die so gedacht, dass die Universitäten Forschungsarbeit liefern und die Firmen dann daraus irgendwas bauen. bei uns, das ist Expertise in der Regel bei uns in der Firma und die Unis interessieren sich daran mit uns zu kollaborieren oder wollen mit uns was entwickeln und dann haben wir eigentlich das Know-how und die Uni will dann eher lernen und dementsprechend ist es für uns eigentlich eher so ein Technologiefluss oder ein Wissensfluss Richtung Unis, ⁓ da Know-how aufzubauen.
und klingt jetzt vielleicht ein bisschen boniert, es mag auch anders sein, also das ist jetzt eher mit großen Schwamm drüber gegangen, weil wir es zuweilen wahrnehmen, wie die Zusammenarbeit läuft. Für uns sind industrielle Collaborations natürlich deutlich attraktiver, weil da halt auch das, ganz platt gesprochen, das Big Money ist. Genau, also in dem Moment, wo ich jetzt mit einem Luftfahrt zusammen arbeite oder anderen Industriekonzernen, kann ich halt auch hoffen, da eine ganz große Finanzierung hinzubekommen.
Philipp Deutscher (1:22:19)
und doch Geld zurück.
Sven Köppel (1:22:29)
kriegen, natürlich bei den Unis nicht da ist.
Philipp Deutscher (1:22:32)
Könnte es denn sein, also du hast die Flugindustrie eben genannt, gibt es noch andere Bereiche, wo du denkst, dass Analog Computing die digitalen Computer nicht nur ergänzen kann, sondern vielleicht sogar langfristig ablösen kann?
Sven Köppel (1:22:44)
Also, das ist, wie soll ich sagen, also wir haben eine ganze Fülle von Industrien, denen wir sprechen. Das ist auch wieder ein Problem insofern, weil ja ein typischer goldener Satz in der Start-up-Welt heißt, sprichst du mit allen, sprichst du mit keinem, ist auch was dran. Ich meine, die Frage sind wir, wie tief sind denn die Gespräche? Letztlich sind ja viele am evaluieren, ob wir technologischen dort einen Unterschied machen können oder nicht.
Inwiefern es dann in der Umsetzung aussieht, also was man genau auf eine analogen Domäne macht und was in der digitalen kommt natürlich ganz stark auf die Anwendung ran. Also wir hatten mit Leuten gesprochen, die wollen ihre Motorkontrolle analog machen. Da würde man wahrscheinlich wenn man so will einen 5-Stichen-Rein-Analogenschip reinsetzen, wo wir anders als bei dem ASIC, Application Specific IC,
halt einen günstigeren Bausatz liefern können, der weniger Entwicklungszeit kostet und damit eben eine schnellere Time-to-Market ermöglicht. Und das ist in programmierbarer Logik, programmierbarer Elektronik der Vorteil, der sich dann auch ausspielt. Ich hatte viel erwähnt, big Challenges, eigentlich das, was konventionelles Supercomputing, klassisches Supercomputing im wissenschaftlichen Bereich und im industriellen Bereich ist. Das sind
Anwendung, wo wir auch denken, dass wir einen sehr hohen Anteil haben werden an Analogrechnern. quasi diese Rechnung wird überwiegend dann getrieben durch den analogen Teil. Da steht dann quasi ein Gebäude voll mit Analogrechnern daneben, ist ein kleiner digitaler Kontrollrechner. Aber es gibt eben auch die Anwendung, die wir im Blick haben, wo der analoge Teil relativ gering ist. Das ist eine Sensorik beispielsweise wie vorhin mit dem Flügel oder auch sowas wie eine Insulinpumpe zum Beispiel, wo wir ein mathematisches Modell simulieren,
eben zu wissen, wie der Insulinstand sein muss in ein paar Minuten, damit die Pumpe dann richtig pumpt. Das macht man momentan digital, würden wir dann analog machen, aber natürlich ist viel auch an Steuerungslogik drum herum, die dann digital sein wird. da ist es quasi eher das Modell, wir haben einen eingebetteten Digitarechner und stellen dem einen eingebetteten Analogrechner zur Verfügung.
Philipp Deutscher (1:24:49)
Was denkst du, was fehlt allgemein zum Durchbruch? Ist es dann eher Technik, was du eben schon angesprochen hattest? Ist es das Thema Finanzierung? Ist es das Thema Mindset? Es geht ja darum, das Thema Analogrechner in größerem Umfang in Industrie und Gesellschaft einzubetten oder dass es dort viel mehr ankommt. Was fehlt dazu, damit sich das langfristig durchsetzen wird?
Sven Köppel (1:25:13)
Für uns konkret als Startup ist es tatsächlich Finanzierung momentan. Das ist ein klassisches Startup-Thema, muss halt immer irgendwo halt das Geld dann herkommen. Ich denke,
Es ist natürlich auch für die Anwendenden ein Paradigmen-Shift, in dem Moment, man von seinem algorithmischen Denken auch weggehen muss, wenn man die Killer-Anwendung entwickeln möchte in analogen Domäne. Das ist, wie vorhin schon andeutet, überwiegend bei uns noch der Firma. Das müssen wir auch unter die Leute tragen. Deswegen haben wir da auch diese Mission, diesen Denkantrag näher zu bringen. ist schlicht und ergreifend die Quantenzene weiter.
wahrscheinlich auch am Ende des Tages wegen den Investments, dort sind. Aber wenn man sich anschaut, was zum Teil diskutiert wird in Quantencomputing-Ökosystemen, wo sich reine Software-Companies bilden und wo auch viel spezialisierte Jobs geschaffen werden und so was, da ist man genau diesen Schritt schon weiter zu sagen, okay, wir müssen jetzt quasi das Denken unter die Leute bringen, quasi außerhalb dieser algorithmischen Welt zu denken.
Aber das schaffen wir auch mit dem Analogrechnen und von der Tätigkeit, was wir als Firma machen müssen, sage ich immer gerne von R &D, Research & Development, haben wir eigentlich den Research Teil schon gemacht, jetzt muss es nur noch entwickelt werden. Also das technologische Risiko ist ziemlich gering, deswegen weil wir ja auch auf Standardkomponenten aufbauen.
Philipp Deutscher (1:26:35)
Wenn man ganz visionär betrachtet, siehst du irgendwelche radikalen neuen Produkte, die nur mit analoge Rechentechnik möglich wären?
Sven Köppel (1:26:43)
Das ist genau das, was ja das Interessanteste ist in den Emerging Markets. Also alles, was halt noch gar nicht jetzt geht. ich meine, hatte heute gesprochen von allem, was quasi Energie-Arvesting betreiben kann, wo man auf einmal in der Lage ist, wirklich nur smarte Klamotten zu tragen, die irgendwie was können, was man vorher nicht konnte. Wir werden da Durchbrüche auch in Industrie haben. Wir haben zum Beispiel einen Use-Case, wo wir sagen, gut, wir Turbinenblatt, wir können Predictive Maintenance an Orten machen, wo das bislang nicht ging, weil die Analog-Chips zu klein sind, weil die Information Processing machen können, eine große Last-Incensoren.
⁓ Daten reduzieren können auf geht kaputt, geht nicht kaputt und das ist halt total spannend, weil wenn es kaputt geht, dann tauscht man es vorher aus bei Projective Maintenance und spart auf die Art Weise sehr viel Geld, wenn man dann wirklich in den Schadensfall läuft und ich da werden viele Cases und Anwängungsfälle kommen, die man wahrscheinlich bis dahin gar nicht mehr realisiert als Analog Enabled, wenn man es jetzt nicht vom Marketing so aufzieht.
weil es halt einfach in der grauen Masse der IT sozusagen verschwindet. Für uns wäre das eigentlich sogar ein idealer Case, wenn es verschwindet. ist einfach Teil der Infrastruktur, die wir aufgebaut haben. Ich meine, wir haben auch den Punkt Mission Critical, oder wo es
Hochsicherheitsanwendung geht, gerade ein schönes Beispiel ist ja auch dafür Aviation, wo es ⁓ Zertifizierung geht. Analogische Rechenschaltkreise sind sehr viel weniger komplex als digitale Prozessoren und Algorithmen. Das heißt also, ich hoffe auch, dass EIT insgesamt sicherer wird, wenn man gewisse Prozesse analog rechnet und da kein nicht noch digital mit rumworxt. Also von daher, ich glaube schon, dass es
revolutionäres Potenzial hat oder wie die Sprung Agentur mal gerne sagt, dass es quasi eine Sprung Innovation ist, die der Digitalisierung den nötigen Schub verleihen kann, vor allem in Deutschland noch einen Unterschied zu machen.
Philipp Deutscher (1:28:34)
Heutzutage denkt man ja, alles ist Software. Und die Rückkehr zum Analogen wäre ja auch quasi eine Gegenbewegung dazu, oder? Also auch vielleicht eine kulturelle Gegenbewegung oder nicht?
Sven Köppel (1:28:44)
eigentlich
für uns tatsächlich nicht. Wir wollen ja gerade das Analoge Software Defined machen. Wir wollen ja, dass man aus der Software heraus das Analoge bauen kann. In einer idealen Welt würden wir jetzt unser Chip Tape out machen, da wäre dann der analog konfigurierbare Chip und danach würden wir von einer Hardware Company zu einer Software Company werden. Wird es magisch über Nacht, gibt es keine Menschen mehr die Hardware bauen, weil die Hardware ist ja auf einmal programmierbar.
Und im Prinzip öffnen wir eigentlich hier mit eher Welten, dass wir mit der Software weiterkommen. Ich meine, wir haben heutzutage im Cloud-Comptitium völlig selbstverständlich Software-defined-Nettwerke und Infrastruktur und diese Dinge. Und wir werden in Zukunft Software-defined-Elektronik...
Dinge verschalten, die man programmieren kann und auf die Art Weise auch eine erhebliche höhere Flexibilität bekommen. Also ich glaube auch Davidas ist nicht eine Gegenansage, sondern es ist eher das Komplementär, es ergänzt diese Bewegung, die es sowieso schon gibt, nochmal einen sinnvollen und nötigen Schritt.
Philipp Deutscher (1:29:45)
Traust du dich, zehn Jahre in die Zukunft zu blicken? In eine Welt, vielleicht Analog Computing erfolgreich sein Also nicht, dass es jetzt nicht erfolgreich sein kann, aber wo sich das durchgesetzt hat? Wo werden die Rechner dann eingesetzt? Wie hat sich der Umgang mit Technik dann verändert? Oder ist das zu unpredictable wegen all den Dingen, die gerade passieren?
Sven Köppel (1:30:01)
Also...
passiert schon wahnsinnig viel. Vor ein paar Jahren hätte ich auch nicht gedacht, dass KI so stark in unseren Alltag reinkommen wird, wie es dann passiert ist. Da sind momentan riesige Hoffnungen mit verbunden. Ich würde mich natürlich freuen über eine Welt, der das Analog Computing, man nennt es manchmal der Next NVIDIA, ich meine der Erfolg von NVIDIA in den letzten Monaten und Jahren ist ja...
ganz offensichtlich darauf zurückzuführen, dass sie zur richtigen Zeit erkannt haben. Grafik ist nicht alles. haben auch eine Protester-Technologie hier, die viel mehr kann als nur Grafikberechnung, die eben auch zum Beispiel sich sehr gut eignet hier für diesen Compute-Intensive Task in Machine Learning. Und natürlich würden wir uns so einen Erfolg auch wünschen für analog rechnen, auf die Art und Weise eben diesen Coprozessor-Gedanken dann bis zum Ende führen zu können, so wie visionär bezeichnet als ein Coprozessor in jedem Computer. Und dann
Ich wünsche mir eine Welt, der wir nicht in zehn Jahren den globalen Energieverbrauch verdoppeln durch IT, denn genau darauf steuern wir geradezu, dass die IT immer größeren CO2-Fußabdruck hinterlässt.
Wir müssen nicht Energie sparen, sondern wir müssen Bits sparen, also müssen die Informationen, die wir verarbeiten, sparen, weil wir nicht mit an so ein fundamentales Limit kommen. Es gibt so eine theoretische Vorhersage, dass man einen winzigen Bruchteil eines Joules braucht, ein Bit zu verarbeiten und in Analogen verarbeiten wir halt deutlich weniger Bits, machen aber damit mehr. Und das würde ich mir wünschen für das Computing, dass wir es schaffen mit
weniger Informationen mehr hinzukriegen. Denn das ist auch das, was der AI momentan zeigt. Ich finde, die haben die AI riesen leer gesaugt, die Trainingsdaten gibt quasi keine mehr, wenn man so will. Und trotzdem haben wir General AI noch nicht erreicht. Das heißt, also wir müssen es ja schaffen, mit weniger Informationen trotzdem irgendwie schlauer und besser zu werden. Und ich glaube, dass Analog-Informationsverwaltung ein ganz wesentlicher Schritt sein kann, genau das zu erreichen.
Philipp Deutscher (1:32:14)
Ja, wir leben in interessanten Zeiten. Also vor unserem Gespräch war mir nicht bewusst, das jetzt schon eine Sprung Innovation ist, wenn man von analogen Systemen spricht, was ja eine historische Technologie ist. Auf der anderen Seite erleben wir ja auch gerade die Entwicklung der LLMs, die ja auch mehr Entdeckung sind als Erfindung, würde ich behaupten, zumindest mal so wie ich das verstehe.
Ja, es ist eine sehr interessante Welt, die sich da gerade vor uns entwickelt. Und ich glaube, es fällt uns allen schwer auszurechnen, wo wir wann damit da landen werden. Die einen postulieren, die AGI ist da 2030, 2029. Also in absehbarer Zukunft gehst du da mit oder siehst du das noch in weiterer Ferne?
Sven Köppel (1:33:06)
Das ist eine sehr gute Frage.
Ich meine, ich sehe ja, wo die Grenzen auch sind von analog rechnen, als jemand, daran arbeitet. Natürlich sind für uns zum Beispiel auch Interkonektivität zwischen Rechen-Elementen einfach auch schwer zu realisieren. Also wo wir uns eine All-to-all-Konektivität zwischen Rechen-Elementen wünschen, weil erst dann wird es richtig mächtig quasi, zeigt uns die Technik, die wir zur Verfügung haben, dass es halt schlicht und greifend noch nicht geht. Das Gleiche, was auch Quanten-Menschen bremst, dabei richtig Vorteile von Quanten-Computing auszuspielen, ist auch in AI,
die
Möglichkeiten bremst. vor der Tatsache, wo was technologisch noch nötig ist, da quasi wirklich voranzukommen, glaube ich, dass es wahrscheinlich noch eine Weile dauern wird, bis wir General AI haben. Und letztendlich es natürlich auch sehr großes philosophisches Problem, weil ja General AI auch bordert, dass wir als Menschen nicht mehr quasi überholt wurden von der Technologie und niemand weiß, was jenseits der Singularität passieren wird.
und ich meine das ist so bisschen das riding the atom weapon, so wie in... war das von Stanley Kubrick? Ich weiß gar nicht genau, dieser eine Film mit dem verrückten Wissenschaftler auf der Atombombe. Also man will ja vielleicht auch nicht die Person sein, die... Dr. Selsam, genau. Wir wollen ja auch nicht die Person sein, die die Welt in den Abgrund führt, aber auf der anderen Seite, ich meine wir machen Hardware, also wir sind wahrscheinlich weit davon entfernt jetzt hier das Komplettsystem, also sowas zur Verfügung zu stellen. Aber es ist aus so einer
Philipp Deutscher (1:34:20)
Doktor Seltsam war es im Deutschen.
Sven Köppel (1:34:34)
aus so einer wissenschaftlichen und Ingenieursperspektive natürlich extrem spannend die Zeit und ich finde es manchmal schade wie angstgetrieben die ist. ich meine die ja im öffentlichen Wahrnehmung häufig dann mit den Ängsten gearbeitet oder Leute fühlen sich verloren in der Welt und ich sehe eigentlich da viele Chancen. Das ist wahrscheinlich der Tatsache geschuldet, dass in der Start-Up-Welt ist man immer sehr, so sieht man halt auch keine Gefahrensonderchancen.
und vor allem aber auch Chancen für Deutschland, weil das verrückte an diesem Analog Computing ist eben, es ist einfach so unglaublich niederschwellig. Also es ist so, wir können mit diesen Analog Things, die wir da quasi den Leuten verschenken, nicht ganz, aber damit kann man die interessantesten Anwendungen machen und das gehört halt nicht so viel. Also da braucht man jetzt nicht den tragbaren Quantencomputer und ich würde mir halt einfach wünschen, dass
dass da mehr Menschen daran partizipieren können, auch an diesen Entwicklungen und die auch da in den Bereichen arbeiten können und die auch vorantreiben können und hoffe, dass wir damit auch unseren Teil liefern können im Bereich des Analog Computings.
Philipp Deutscher (1:35:39)
Sehr spannend. Sven, ich habe eine ganze Menge heute gelernt. Es hat mich auch wirklich sehr gefreut, dir so etwas tiefer in das Thema einzusteigen und dass du dir die Zeit genommen hast, das alles auch für all diejenigen wie mich oder auch die anderen da draußen das Thema noch mal näher zu bringen. Ich habe eine Frage noch zum Schluss, die ich gerne meinen Gästen im Podcast stelle. Hast du einen Leitspruch, ein Motto, das dich antreibt im Beruflichen, im Privaten, dass du gerne mit uns teilen möchtest?
Sven Köppel (1:36:11)
Tatsächlich anknüpfen an das letzte was ich sagte, hör nie auf zu lernen. es ist, ich glaube man kann immer und in jedem Alter irgendwie noch neue Sachen verstehen und man sollte seinen Interessen folgen. Wenn es eines gibt was quasi ein Leitbild sein muss, nicht irgendwie zu sickern in seinem Leben, dann neugierig zu bleiben und zu versuchen was die Welt ausmacht. Und häufig ist es
Am Anfang hat immer das Gefühl, man steht vor einem Berg und da sind dann die promovierten Leute und weiß der Kuckuck, aber viele Sachen sind gar nicht so kompliziert, wie sie auf den ersten Blick scheinen und gerade man merkt es auch im Quantencomputing, es gibt unglaublich viel Lernmaterial mittlerweile, das versucht diese Themen zu erklären und wenn man sich da mal bisschen eingelesen hat nach einer Stunde, wird man auch schon super viel verstehen und so ist es in der AI auch, also das am Ende des Tages ist das gar nicht so kompliziert. Natürlich gibt es viele Technicalities irgendwo, aber die Grundprinzipien kann jeder verstehen, der
braucht da kein abgeschlossenes Informatikstudium. das ist sowas, also diese Neugierder, die würde ich mir wünschen, dass sich Leute da einfach mal ausprobieren und über sich hinaus wachsen.
Philipp Deutscher (1:37:27)
Sehr schön. Gefällt mir sehr gut, kann ich mich auch sehr gut damit identifizieren. Sven, es hat mir wirklich sehr viel Spaß gemacht, heute mit dir dieses längere Gespräch zu führen. Vielen Dank für deine Insights und hoffentlich auch bald weiterhin viel Erfolg mit Anabrit und für dich selber.
Sven Köppel (1:37:42)
Alles klar, vielen Dank.
Philipp Deutscher (1:37:44)
Danke, ciao ciao!
Sven Köppel (1:37:46)
Ciao!