Miniaturisierung hat nur Vorteile

Mikroelektronik

Interview mit Prof. Dr. Christoph Kutter, Direktor des Fraunhofer-Instituts für Mikrosysteme und Festkörper-Technologien EMFT in München

Technik in Bayern: Herr Prof. Kutter, Sensoren für physikalische Messgrößen waren früher klobig und robust. Wieso geht der Trend zu immer weiterer Miniaturisierung?

Prof. Christoph Kutter: Das „Warum“ ist einfach zu beantworten, schwieriger ist das „Wie“. Die Miniaturisierung macht man, weil sie nur Vorteile hat, kostenmäßig und technisch. Wenn Bauelemente kleiner werden, brauchen sie weniger Energie und werden schneller, also effizienter. Es gibt überhaupt keinen Parameter, der durch Miniaturisierung in der Mikroelektronik schlechter wird. Insofern ist dieses „kleiner werden“ der natürliche Weg und der wichtigste Punkt. Und wenn man hoch integriert, sinken die Kosten. Und dieser Weg geht weiter in der Mikroelektronik. Auch wenn das CMOS Scaling an seine Grenzen läuft, redet man jetzt in der in der Forschung und Entwicklung über die drei Nanometer Technologie und hinunter bis zur 0,3 Nanometer Technologie. 0,3 Nanometer ist die Größe eines Atoms. Der Transistor selber wird fünf Nanometer lang bleiben, denn kürzere Transistoren können aufgrund des Tunneleffekts nicht mehr sperren. Der Technologieknoten mit der Dimension Nanometer ist eine reine Rechengröße und gibt die Dichte der Transistoren wieder. Um sie zu erhöhen, integriert man diese Elemente erstmal näher zusammen. Der nächste Schritt ist dann die dritte Dimension zu nutzen und mehrere Gates übereinander zu stapeln.

TiB: Aber für viele Anwendungen müssen Sensoren ja eine gewisse Größe haben. Verursacht die Miniaturisierung nicht extra Kosten, weil ein empfindliches Miniaturteil robust eingehäust werden muss?

Kutter: Da spielt noch der Gesichtspunkt der Linearisierung eine große Rolle, denn viele Messfühler sind nur in einem kleinen Bereich linear. Heute spielt das fast keine Rolle mehr, weil immer eine Ausleseschaltung dabei ist, mit der man Kennlinien linearisieren kann, oder die Daten in einer Tabelle ablegen kann. Robustheit ist ein wichtiges Thema, das viele Jahre im Fokus in der Mikroelektronik stand. Zu Ausfällen führen heute oft nicht mehr die Chips, sondern die Software und die Stecker. Bei der Software kämpft man noch, um sie robuster zu machen, aber da man hat den Vorteil, dass man Updates einspielen kann. Die Stecker sind ein Thema, das in den nächsten Jahren noch sehr viele Herausforderungen bieten wird.

TiB: Kann man nicht von den Erfahrungen in der Luftfahrt profitieren?

Kutter: In der Luftfahrt wird vieles redundant aufgebaut. Bei Massenprodukten wie dem Automobil ist das aus Kostengründen nicht möglich.

TiB: Wie funktionieren Sensoren für chemische und biologische Messgrößen?

Kutter: Ich fange mal mit biologischen Systemen an, weil das in der hinter uns liegenden Pandemie sehr wichtig war. Es ist gelungen, innerhalb sehr kurzer Zeit Sensoren zu entwickeln, die das Virus nachweisen. Im Prinzip macht man Schlüssel-Schloss-Systeme. Das Virus muss an einem Substrat andocken, und wird dann daran gebunden, was man sichtbar machen kann. Dazu ist zunächst gar keine Elektronik notwendig. Um die Veränderung elektrisch zu messen, nützt man die veränderte Dielektrizitätskonstante über eine Messung der Kapazität aus. Adsorption von Gasen auf Sensorflächen kann man auch über die Frequenz von Schwingungen messen. Das ist ein sehr empfindliches Verfahren, denn Frequenzen kann man sehr exakt messen. Darüber hinaus sind optische und Impedanz-basierte Messungen möglich. Unsere Fraunhofer EMFT Kolleginnen und Kollegen in Regensburg forschen an zellbasierter Sensorik. Dazu werden Zellen auf Elektroden gesetzt. Wenn man die Zellen dann z.B. mit Chemikalien reizt, verändern die sich in ihrer Form und man kann relativ große Änderungen im Impedanzsignal messen.

In der Chemie geht es sehr oft um den Nachweis von Gasen. Das ist sehr kniffelig, weil in einer Probe meist sehr viele verschiedene Gase sind, die Querwirkungen verursachen. Zusätzlich gibt es noch das Problem mit Wasser. Durch seine hohe Dielektrizitätskonstante von 80 stört Wasser sehr oft die Sensorergebnisse.

Sehr verbreitet sind sog. Hotplate Sensoren. Deren Sensorelement ist eine aufgeheizte Metalloxid Platte, in die das Analysegas eindringt und damit reagiert. Dadurch wird der elektrische Widerstand der Platte geändert, was man messtechnisch auswerten kann. Diese Technik ist heute weitgehend miniaturisiert und wird zum Teil auch direkt mit CMOS-Technologie verknüpft.

Eine noch ältere Technologie ist der ionenselektive Feldeffekttransistor, ISFET. Auf dem Gate liegt eine ionenempfindliche Oxidschicht, die direkt mit einer zu untersuchenden Lösung in Kontakt gebracht wird. Dadurch entstehen Ladungen auf der Oxidschicht, die wie bei einem „normalen“ FET den Strom im Kanal zwischen Source und Drain steuern. Damit kann man beispielsweise hochsensible Wasserstoffsensoren bauen, oder pH-Wert Sensoren. Hinter diesem Prinzip steckt ein bekannter Kopf, Prof. Eisele, der solche Elemente schon vor 50 Jahren aufgebaut hat. Aber es besteht immer noch großer Forschungsbedarf. Die kritischen Punkte sind die Oberflächen und die Oberflächenbehandlungen, mit denen man die Sensibilität auf bestimmte Stoffe einstellen kann.

Die Klassiker unter den Sensoren sind die elektrochemischen Sensoren, die eine chemische Reaktion ausnützen. Diese Reaktion erzeugt dann einen Strom, den man messen kann. Das Prinzip erlaubt Sensoren mit einer hohen Sensitivität und Selektivität. Solche Sensoren sind beispielsweise in Umwelt Messstationen verbaut, kosten aber in gut kalibrierter Form zwischen 50 und 100 €. Sie haben auch eine begrenzte Lebensdauer, denn sie enthalten Reagenzien, die bei der Messung verbraucht werden.

TiB: Für welche Aufgaben ist die Quantensensorik vorteilhaft?

Kutter: Die Quantensensoren werden sicher eine Rolle spielen, bei der Messung von Magnetfeldern werden sie bereits verwendet. Aber es gibt auch andere interessante Anwendungen. Das Walter-Schottky Institut hat einen Photonensensor herausgebracht, der so empfindlich ist, dass er ein einzelnes Photon messen kann. Dazu wird ein Substrat knapp an der Schwelle der Supraleitfähigkeit gehalten. Wenn dann ein Photon eingefangen wird, hebt es die Temperatur leicht an, was zum Zusammenbruch der Supraleitung führt. Dadurch kann man einzelne Photonen nachweisen.

TiB: Wie kann in der Welt von IoT mit ihren millionenfachen Sensoren Datensicherheit gewährleistet werden?

Kutter: Datensicherheit ist das Hauptanliegen unseres Schwesterinstituts Fraunhofer AISEC (Fraunhofer Institute for Applied and Integrated Security), da gibt es die Experten für dieses Thema. Aber wir forschen in unserem Institut natürlich ebenfalls an Sicherheitsthemen im Zusammenhang mit Sensorik und arbeiten eng mit Fraunhofer AISEC zusammen. Dazu werde ich gleich noch ein paar Worte sagen, aber zunächst zum Generellen: In dieser Vision des Internet der Dinge, wo überall Sensoren eingebettet sind, ergeben sich natürlich potenzielle Angriffsmöglichkeiten, die schwerwiegende Folgen haben können, insbesondere an bestimmten Knotenpunkten. Es gibt zahlreiche potenzielle Schadensszenarien, angefangen bei der Überwachung, ob jemand zu Hause ist, bis hin zu Manipulationen an den Entscheidungspunkten. Wenn Entscheidungen auf Basis von Sensordaten getroffen werden und diese Daten manipuliert wurden, kann der Schaden enorm sein. Das Problematische dabei ist, dass der Mensch diese Manipulationen in der IoT-Welt oft nicht so schnell erkennt, da Sensoren und Maschinen gemeinsam agieren und die Menschen nicht mehr direkt involviert sind. Daher ist es entscheidend, die IoT-Architektur von Anfang an sicher aufzubauen, und einer der wichtigsten Aspekte dabei ist die Authentifizierung. Sensoren und Maschinen müssen eindeutig identifizierbar sein. Das bedeutet, dass wir jedem Sensor und jeder Maschine eindeutige Schlüssel zuweisen müssen, die nicht einfach veränderbar sind und nicht über Softwareupdates manipuliert werden können. Ein Ansatz, den wir diskutieren und an dem wir arbeiten, sind sogenannte Physical Unclonable Functions, PUF, die als Fingerabdruck für jedes Gerät dienen können. Dadurch können wir sicherstellen, dass der Sensor, den wir im Netzwerk haben, auch derjenige ist, den wir erwarten. Wird der Sensor manipuliert, kann entsprechend ein Alarm ausgelöst werden. Für die Realisierung dieses Fingerabdrucks können kleine Schwankungen in den Eigenschaften der Hardware herangezogen werden, die beim Fertigungsprozess entstehen.

TiB: Wenn aber ein Sensor kaputt geht und ersetzt werden muss, wie bekommt man dann genau diesen Schlüssel in den Ersatz?

Kutter: Das geht nicht, ein neuer Sensor hat einen anderen Fingerabdruck. Man braucht eine sichere Methodik im Gesamtsystem, wie man einen neuen Sensor mit neuer PUF anmelden kann. Dazu ist die richtige Architektur notwendig, und dazu gehört auch, dass die Übertragungsstrecken verschlüsselt sind. Es gibt sehr viele Details, die man richtig planen und umsetzen muss. Wichtig ist eine klare Hierarchie in diesem System. Man muss sicherstellen, dass die kleinen Einheiten zunächst intern sicher sind, bevor man sie miteinander verbindet. Niemand würde zentral überwachen können, ob in jeder kleinen Einheit alles in Ordnung ist. Nehmen wir zum Beispiel einen Laptop: Hier wurden sogenannte TPMs (Trusted Platform Modules) eingebaut. Diese speziellen Schlüssel können beim Hochfahren die Integrität der Hardware überprüfen. Wenn am Laptop etwas verändert wird, kann das TPM sagen: Stopp, ich funktioniere nicht.

TiB: Seit einigen Jahren gibt es politische Bestrebungen, Teile der Chipfertigung wieder nach Europa zurück zu holen. Welche sind Ihnen bekannt und in welchem zeitlichen Rahmen werden diese realisiert?

Kutter: In dieser Thematik bin ich gut involviert. Ich habe in meiner Funktion beim VDE insgesamt drei vom VDE initiierte Positionspapiere ko-verfasst, angefangen im Jahr 2014 mit dem ersten zu „Hidden Electronics“. Darin haben wir gezeigt, dass Elektronik überall präsent ist, auch wenn sie nicht sichtbar ist. Das ist beabsichtigt. Selbst eine Zahnbürste enthält Elektronik und rund 2000 Zeilen Code, die ein Nutzer nicht unbedingt kennen soll. Sie muss einfach funktionieren. Genau das ist der Zweck von Elektronik. In diesem Positionspapier haben wir darauf hingewiesen, wie wichtig Elektronik ist. Es hat jedoch einige Jahre gedauert, bis die Bedeutung der Mikroelektronik verstanden wurde. Dann haben wir 2020 das zweite Positionspapier und schließlich im Jahr 2021 ein weiteres Papier veröffentlicht, um den Handlungsbedarf zu verdeutlichen. Wir glauben, dass diese Publikationen dazu beigetragen haben, die Wichtigkeit der Versorgung von Chips und der Mikroelektronik zu verstehen. Dies wurde auch durch die Chipkrise und die Coronakrise unterstützt, durch die Politiker erkannt haben, wie wichtig Chips für die Energiewende, die Sicherheit und die technologische Souveränität vor dem Hintergrund von veränderten globalen Machtverhältnissen sind. Die EU hat daraufhin den EU Chip Act verabschiedet. Auf europäischer Ebene haben sowohl Unternehmen als auch Politiker reagiert. Die Bekanntgabe von Intel, in Deutschland eine Chipfabrik zu bauen, war ein bedeutender Meilenstein und wichtig für Europa. Ähnliche Bestrebungen gibt es in den USA, die nicht länger alle Chips aus Taiwan beziehen wollen, sondern neue Chipfertigungen im eigenen Land einfordern.

Warum ist das wichtig? Im Jahr 2000 hatte Europa einen 20-prozentigen Anteil an der weltweiten Chipproduktion, der seitdem gesunken ist. Warum? Es ist relativ einfach: Asien hat mit massiven Subventionen eine starke Chipproduktion etabliert. Sowohl europäische als auch amerikanische Unternehmenslenker können nicht einfach sagen, dass sie ihre Werke lieber in ihren Heimatländern bauen, wenn sie anderswo mit 40% der Kosten subventioniert werden. Dieser Mechanismus wurde lange Zeit von der Politik nicht verstanden, die „den freien Markt nicht stören wollte“. Das Verständnis, dass der Markt nicht frei ist, sondern durch staatliche Programme massiv gesteuert wird, kam erst während der letzten Chip-Krise, als klar wurde, dass man genauer hinsehen muss. Maßnahmen in den 2000er Jahren, um Marktverzerrungen über die WTO zu vermeiden, waren zu langsam und leicht zu umgehen. Intel hat letztendlich geholfen zu verstehen, wie Investitionsentscheidungen getroffen werden. Sie haben deutlich gemacht, dass sie investieren wollen, aber auch Unterstützung erwarten. Dies mag aggressiv wirken, aber hat geholfen, das Problem offensichtlich zu machen. Der EU Chip Act 2 soll Teile der Produktion wieder nach Europa holen, und jetzt selbstverständlich fordern auch europäische Unternehmen Unterstützung, um von diesem Wandel zu profitieren. Eine starke Mikroelektronik ist notwendig für die technologische Souveränität und die Wettbewerbsfähigkeit Europas. Zum Beispiel macht Mikroelektronik mehr als 80% der Innovationen in Autos aus.

Es gibt Wirtschaftswissenschaftler, die Subventionen für falsch halten, da sie Technologien fördern, die ohne Subventionen nicht existieren könnten. Dieses Argument greift bei der Mikroelektronik nicht, denn der freie und ungestörte Markt existiert nicht. Wir können als Europa entscheiden, nicht zu subventionieren, mit der Folge, dass neue Chipfertigungen in Asien und Amerika gebaut werden. Oder wir spielen das Spiel mit und siedeln ganz bewusst wieder Halbleiterfertigungen in Europa an.

Die Fragen stellten Fritz Münzel und Silvia Stettmayer

Erstmals erschienen in: TiB Ausgabe 2024 MAI/JUN