Die Mikroelektronik ist ein Teilgebiet der Elektrotechnik bzw. der Elektronik, das sich mit der Miniaturisierung von elektronischen Schaltungen befasst.
Die Mikroelektronik hat zwei Hauptmerkmale:
Inhaltsverzeichnis |
Bauelemente der Mikroelektronik wurden ursprünglich für die Anforderungen der Raumfahrt nach kleinen und leichten Bauteilen entwickelt. Sie sind heute in einer Vielzahl technischer Geräte und Einrichtungen zu finden:
An dieser Stelle kann nur eine exemplarische Auswahl genannt werden – es gibt sowohl in den genannten Gebieten eine Vielzahl weiterer Anwendungen als auch eine Reihe hier nicht genannter Anwendungsgebiete, wie Medizintechnik, Gebäudetechnik und vieles mehr.
Die mikroelektronischen Bauelemente lassen sich zunächst in zwei große Gruppen einteilen: Standardbausteine und Anwendungsspezifische:
Neben dieser Systematik wird eine Gruppe von Bauelementen meist extra aufgeführt:
Man unterscheidet die Festkörpertechnik (auch: monolithische Fertigung) von den Filmtechniken.
Das Grundmaterial (Substrat) der überwiegenden Mehrzahl (mehr als 99 %) der integrierten Schaltkreise ist einkristallines Silicium, das gleichzeitig als aktives Material für die Transistoren dient. Für sehr hochfrequente oder optische Anwendungen kommen auch andere Materialien wie Gallium-Arsenid zum Einsatz. Für spezielle Anwendungen wird auch Silicium auf dem isolierenden Substrat Saphir verwendet (SOS für Silicon on Saphire).
Zunächst wird aus einer hochreinen Siliciumschmelze ein einkristalliner Zylinder (Ingot) gezogen und durch Zonenschmelzen weiter gereinigt. Dieser wird in 0,5–1,5 mm dünne Scheiben, die sog. Wafer, zersägt. Die heute in der Massenproduktion verwendeten Siliciumwafer haben Durchmesser von 6, 8 oder 12 Zoll (entsprechend 150, 200 oder 300 mm). Sie erhalten durch verschiedene Ätz-, Schleif- und Polierprozesse eine nahezu perfekte ebene Oberfläche mit Unebenheiten in der Größenordnung von wenigen nm. Die Dickenschwankungen (TTV-Werte, Total Thickness Variation) liegen im Bereich von wenigen Mikrometern.
Auf einem Wafer werden hunderte und bei einfachen Strukturen (z. B. Einzeltransistoren) hunderttausende identische integrierte Schaltkreise (engl. IC oder chip) parallel hergestellt.
Die Fertigung erfolgt in extrem sauberer Umgebung, so genannten Reinräumen, mit einer sehr geringen Dichte von Staubpartikeln. Dies ist nötig, weil selbst kleinste Partikel (< 0,1 µm]]) bereits den Ausfall eines kompletten Schaltkreises verursachen können.
Der Herstellungsprozess umfasst chemische und physikalische Prozessschritte des Wafers und muss stetig an die neuesten Minaturisierungsanforderungen angepasst werden. Für jeden Prozessschritt müssen durch Fotolithografie die Bereiche auf dem Wafer festgelegt werden, die im nachfolgenden Prozessschritt die jeweilige chemische oder physikalische Bearbeitung erhalten sollen. Hieraus entwickelte sich eine eigene Halbleitertechnologie, die sich sowohl mit den Anforderungen einer Einzelstruktur auseinandersetzt, als auch das Zusammenspiel aller Einzelstrukturen zu einer funktionsfähigen elektrischen Schaltung sicherstellen muss. Hochintegrierte Schaltungen wie Prozessoren oder Mikrocontroller durchlaufen dazu über 30 Strukturierungsdurchläufe.
Üblicherweise wird der gesamte Fertigungsdurchlauf in zwei Bereiche unterteilt:
Bei einigen Front-End-Technologien, wie beispielsweise IGBT, werden zusätzlich die der Schaltung entgegengesetzte Seite metallisiert, um einen leitenden Kontakt herzustellen.
Den Abschluss bildet der PCM-Test (process control monitoring, dt. Prozessüberwachung). Damit werden Teststrukturen gemessen, die sich i. A. zwischen den ICs im sogenannten „Ritzrahmen“ befinden. Diese Teststrukturen lassen Rückschlüsse über die Qualität der Einzel- bzw. des Gesamtprozesses zu.
Die ICs müssen vor der Weiterverarbeitung auf ihre Funktion getestet werden. Teilweise sind bestimmte Funktionen (HF-Schaltungen oder später nicht auf PINs herausgeführte Anschlüsse des Chips) nur auf dem Die testbar. Vor allem muss aus Kostengründen verhindert werden, dass nicht funktionsfähige ICs im nachfolgenden Herstellungsprozess weiterbearbeitet werden. Dabei werden die wichtigsten elektrischen Parameter der verwendeten Bauelemente an speziellen Teststrukturen ermittelt. Diese müssen bestimmte Spezifikationen einhalten, um sicherzustellen, dass die Chips im gesamten zulässigen Temperaturbereich und über die volle spezifizierte Lebensdauer zuverlässig arbeiten.
Obwohl diese Messungen auf speziellen Testsystemen (Automatic Test Equipment) vollautomatisch ablaufen, haben die damit verbundenen Kosten bei hochintegrierten Prozessorchips bereits nahezu die Herstellungskosten erreicht. Dies liegt vor allem daran, dass nur bedingt Skaleneffekte beim Testen greifen (eine Parallelisierung ist beispielsweise nur bei reinen Digitalschaltungen möglich) und neuere ICs immer mehr Funktionen beinhalten, die nacheinander getestet werden müssen.
Bei allen neuen FE-Technologien wird eine Lernkurve durchlaufen, die sich u. a. an der Ausbeute funktionierender Bausteine messen lässt (Yield). Da eine neue FE Technologie erhebliche Entwicklungskosten (z. T. 3-stellige Millionenbeträge) beinhaltet, haben die Firmen ökonomische Vorteile, die möglichst schnell hohe Yield Werte erzielen.
Zur Verwendung auf einer Leiterplatte muss der empfindliche Chip in ein Gehäuse eingebaut werden. Dazu werden die kompletten Wafer auf die richtige Dicke geschliffen („backlapping“), dann in die einzelnen Dies zersägt (vereinzelt). Da die Säge ein Stück aus dem Wafer entfernt, sind die Chips nicht nahtlos nebeneinander angeordnet, sondern haben einen gewissen Abstand. In diesen Bahnen (dem sog. „Ritzrahmen“) sind zudem Teststrukturen aufgebracht die zur PCM Messung unmittelbar nach der Front-End-Fertigung genutzt werden. Diese Teststrukturen werden beim Sägen zerstört. Damit beim Sägen die einzelnen Dies nicht auseinanderfallen, wird vor dem Sägen der Wafer auf eine Sägefolie aus Kunststoff aufgeklebt.
Der Chip wird nach dem Sägen in das Gehäuse eingesetzt. Dazu wird der Chip von der Sägefolie aufgenommen und auf das Leadframe geklebt (Chipbonden). Schließlich werden die Anschlüsse auf dem Chip mit dünnen Golddrähten mit den Anschlüssen (Pins) des Gehäuses verbunden (Drahtbonden). Die Back-End-Fertigung wird im Gegensatz zur Front-End-Fertigung von Mikromechanik und Verfahren der Kunststoffbearbeitung (Spritzguss) dominiert.
Schließlich wird auch der gehäuste Chip vor der Ablieferung einem endgültigen Test unterzogen, um Fehler in der Back-End-Fertigung festzustellen. Auch werden einige Eigenschaften getestet, die sich durch das Packaging verändern bzw. deren Messung ohne Gehäuse nicht möglich ist, wie z. B. das Bonding oder bestimmte Hochfrequenzeigenschaften. Der gehäuste Chip kann dann zur Leiterplattenbestückung gehen.
Um die feinen Strukturen der Mikroelektronik auflösen zu können, werden heutzutage Starrnadeladapter eingesetzt, mit welchen ein Messpunktabstand von 150 µm aufgelöst werden können. Durch das präzise Führen der Starrnadeln können mit solchen Adaptern Kontaktstellen mit einem Durchmesser von 70 µm abgegriffen und geprüft werden. Als weiteres ermöglicht der Starrnadeladapter auch das Kontaktieren von feinpoligen Mikrosteckern, welche heutzutage in der Mikroelektronik immer mehr ihre Anwendung finden. Somit müssen solche Stecker nicht mehr mit dem schnell verschlissenen Gegenstecker kontaktiert werden.
Beim Chipentwurf geht es darum, die Grundelemente der mikroelektronischen Schaltungen – Dioden, Transistoren, passive Bauteile, Leiterbahnen – logisch zu der gewünschten Funktion zu verknüpfen, geometrisch auf der Siliciumfläche anzuordnen und physikalisch ihr Verhalten zu modellieren. Die spezifischen Charakteristika der Mikroelektronik haben dazu geführt, dass sich ein spezieller Entwurfsprozess ausgebildet hat.
Der Produktion eines Chips gehen sehr hohe Einmalkosten (NRE – engl. non recurring engineering costs) voraus (z. B. Maskenkosten, siehe Fotolithografie). Auch ist eine Reparatur eines integrierten Schaltkreises nur sehr eingeschränkt möglich und produktiv nicht praktikabel. Daher ist es von großer Bedeutung, dass der Entwurf nur mit wenigen Überarbeitungen (sog. Redesigns) zum gewünschten Produkt führt. Das hat zur Folge, dass zu einem erheblichen Anteil Simulations- und Verifikationsschritte den Entwicklungsverlauf bestimmen – im Jahre 2004 machen sie etwa die Hälfte des Entwicklungsaufwandes für den Schaltkreis aus – mit steigender Tendenz.
Die Verkleinerung und steigende Integration führen zu einer immensen Anzahl von realisierbaren Funktionselementen (= meist Transistoren; mehrere Millionen im Jahre 2004) in einer integrierten Schaltung. In diesem Umfang können die Transistoren nicht mehr mit vertretbarem Aufwand „von Hand“ in eine Schaltung umgesetzt werden. Daher gewinnt die Entwurfsautomatisierung immer weiter an Bedeutung. In vielen Fällen beschreibt der Chipentwickler die gewünschte Schaltung nur noch in einer „Hochsprache“ (vergleichbar der höheren Programmiersprache in der Informatik, übliche Ausprägungen: VHDL, Verilog), der Computer errechnet daraus die Schaltnetze (sog. Synthesis) und platziert die Transistoren (unter menschlicher Mitwirkung und Kontrolle).
Die fortschreitende Miniaturisierung treibt sowohl die Strukturierungsprozesse als auch die realisierten Funktionsbausteine, wie Transistoren und Leiterbahnen, an ihre physikalischen Grenzen. Um Ersterem zu begegnen, wird im Entwurfsprozess in steigendem Umfang Software eingesetzt, die die physikalischen Grenzeffekte, wie z. B. die optische Beugung bei der Fotolithografie simuliert und den Schaltungsentwurf so modifiziert, dass diese Effekte ausgeglichen werden (sog. OPC, engl. optical proximity correction). Um den Miniaturisierungseffekten bei den Bauelementen entgegenzuwirken, kommen fortlaufend neue Simulations- und Modellierungsverfahren zum Chipentwurfsprozess hinzu: zum Beispiel Simulationen des Spannungsabfalls in langen Versorgungsnetzen (IR drop), Simulation der parasitären kapazitativen Kopplung benachbarter Leiterbahnen, Werkzeuge zur statischen Analyse der Zeitverhältnisse in einer Digitalschaltung (sog. STA, engl. static timing analysis ) usf.
Um Prototypen eines neuen Chips einigermaßen kostengünstig zu fertigen, fügt man die Layouts mehrerer Chips auf einem Wafer zusammen (sog. MPW - Multi-Projekt-Wafer), da sich so die Film- und Fertigungskosten für die Vergleichsweise kleinen Prototypenstückzahlen auf mehrere Projekte umlegen lassen.
Seit Gordon Moore 1965 das nach ihm benannte 'Gesetz' formulierte, dass sich die Anzahl der Transistoren auf einem Chip alle zwölf Monate (später achtzehn Monate) verdopple, hat die Mikroelektronik tatsächlich sowohl in Hinblick auf Integrationsdichte als auch bei der Verkleinerung der Strukturen kontinuierliche Fortschritte gemacht.
Der Treiber für die Verkleinerung der Strukturen ist die Senkung der Fertigungskosten. Die Fertigung von Mikrochips erfolgt auf Halbleiterscheiben (Wafer) konstanter Größe (tatsächlich gibt es eine Evolution der Scheibengröße über die Zeit, aber die ist für diese Betrachtung hinreichend langsam). Daher lassen sich die Fertigungskosten zunächst als Summe der Prozesskosten pro Wafer beschreiben (mit einer gewissen Abstraktion und unter Vernachlässigung der Kosten für Tests und Gehäuse der ICs). Insofern gibt es auf die Fertigungskosten pro Chip zwei Hebel:
Ersteres nimmt durch die Minimierung der Strukturbreite überproportional zu (Flächenreduktion ist gleich Längenmaßreduktion zum Quadrat plus bessere Randausnutzung minus nichtlineare Effekte).
Zweitens (die Prozesskosten der Strukturierungsprozesse und die Anzahl notwendiger Prozessschritte) nehmen jedoch mit steigender Miniaturisierung meist ebenfalls zu. Bis heute (2004) hat die Halbleiterindustrie damit eine durchschnittliche Fertigungskostenreduktion von 30 % pro Jahr erreicht. Ein mögliches Szenario kann sein, dass die Zunahme der Prozesskosten bei Annäherung an physikalische Grenzen nicht mehr hinreichend durch die Einsparung der Chipfläche kompensiert werden kann und der Fortschritt in der Miniaturisierung sich dadurch verlangsamt bzw. endet. Außerdem lassen sich einige Sonderschaltungstechniken (z. B. solche zur Erzielung höherer Spannungen als die Versorgungsspannung(en) des Chips) heute (2006) schon nicht mehr herunterskalieren.
Die hohe konstante Fertigungskostenreduktion in der Mikroelektronik war ein wesentlicher Innovationsmotor der letzten dreißig Jahre in einer Vielzahl von Branchen - nicht allein in der Elektronik und Computertechnik (siehe Anwendungen).
Neben der Kostensenkung gibt es aber auch andere Effekte der Miniaturisierung:
Der Industriezweig, der sich mit der Herstellung von mikroelektronischen Bauteilen beschäftigt – die Halbleiterindustrie – zeigt zwei Eigenschaften, die ihn von anderen unterscheidet.
Große Skaleneffekte: Halbleiterfabriken für die Massenfertigung von Bausteinen der jeweils kleinstmöglichen Strukturgrößen sind erst ab einer gewissen Größe rentabel. Weiterhin sind diese Fabriken um Größenordnungen teurer als vergleichbare Fertigungsstätten anderer Branchen: heute (2004) liegen die Kosten für Bau und Ausrüstung einer Hochvolumenfabrik auf dem Stand der Technik bei etwa US$ 2 Milliarden. Beides zusammen führt zu dem so genannten Schweinezyklus: Es gibt nur eine vergleichsweise geringe Anzahl an aktuellen Halbleiterfabriken weltweit. Wenn es der Branche gut geht, d. h. in der Regel, wenn das Angebot an Halbleiterbausteinen geringer ist als die Nachfrage, baut sie ihre Fertigungskapazitäten aus, weil die meisten Unternehmen nur dann die Summen für den Ausbau aufbringen können. Jede neue Fabrik, die in Produktion geht, erhöht das Weltmarktvolumen verfügbarer Bausteine gleich um Prozentpunkte, da sie ja aus Rentabilitätsgründen sehr groß sein müssen. Der schlagartige Anstieg verfügbaren Volumens führt zu einem entsprechend starken Preisverfall der Bauelemente, der sich wieder einschwingt, sobald die Nachfrage das Angebot wieder eingeholt hat. Durch den Preisverfall sind viele Unternehmen eine Zeit lang nicht in der Lage ihre Fertigungskapazitäten auszubauen – es läuft auf die nächste Verknappung des Angebotes zu. Dann wiederholt sich der Zyklus.
Zuschreibung strategischer Bedeutung: Viele Staaten schreiben der Halbleiterindustrie strategische Bedeutung zu. Meist begründet sich das in dem „Keimzelleneffekt“ für andere Hochtechnologien: Im Umfeld von Halbleiterindustrien entwickeln sich nicht nur hochqualifizierte Zulieferer aus der Chemie und dem Anlagenbau, sondern auch aus den Abnehmerindustrien der Bauelemente, zum Beispiel die Computer- und Elektronikindustrie. In einigen Fällen wird die strategische Bedeutung auch militärisch begründet: So schätzen die USA die Bedeutung der Mikroelektronik für Rüstungsprogramme so wichtig ein, dass sowohl Geräte zur Herstellung aktueller ICs als auch die Schaltungsentwürfe und sogar die Schaltungsentwicklungssoftware Gegenstand ihrer Exportkontrolllisten sind. Diese hoch eingeschätzte Bedeutung hat zur Folge, dass eine Vielzahl von Staaten die Ansiedelung der Halbleiterindustrie in vielerlei Weise fördern: von Anschubfinanzierungen, besonderen Steuergestaltungen, staatlichen Kreditgarantien bis zu staatlich geförderter Forschung an universitären und industriellen Forschungszentren, etc. Diese Förderungen sind auch gelegentlich Gegenstand von ökonomischen Auseinandersetzungen zwischen Staaten und Unternehmen – so geschehen zuletzt im Jahre 2003: nachdem dem DRAM-Hersteller Hynix vorgeworfen wurde über die Maßen vom südkoreanischen Staat in seiner Finanzkrise gestützt worden zu sein, erwirkten die USA, die Europäische Union und zuletzt Japan Strafzölle auf die Produkte dieses Unternehmens, wogegen Südkorea protestierte.
Geschäftsmodelle: Wie in vielen anderen Branchen auch gibt es den Vollhersteller – Integrated Device Manufacturer (IDM) genannt. Ein IDM erstellt das Produktdesign, entwickelt die Fertigungstechnologie, fertigt das Bauteil und verkauft es selbst. Daneben gibt es jedoch auch noch die „Fabless Design Houses“ und „Foundries“. Fabless Design Houses erstellen das Produktdesign entsprechend den Vorgaben der Foundry, die es später fertigen wird und verkaufen das fertige Produkt. Die Foundry entwickelt die Fertigungstechnologie, stellt ihren Kunden technologiespezifische Hilfsmittel zum Chipentwurf (EDA) bereit und fertigt die ICs. Kombinationen dieser Geschäftsmodelle und Nischenmodelle sind in der Praxis auch zu finden.
Unterschreiten Strukturgrößen die 100-Nanometer-Grenze (2007 sind sie bereits bei 65 nm bzw. 2008 bei 45 nm), so spricht man formal bereits von Nanoelektronik bzw. Nanotechnologie (Definition der US-Regierung). Im engeren Sinne ist jedoch eher gemeint, dass besondere Materialeigenschaften genutzt werden, die erst auftreten, wenn sich die Strukturabmessungen in der Nähe der Molekül- bzw. der Atomgröße bewegen. Zu solchen Strukturen zählen zum Beispiel Leitungsbahnen oder Transistoren aus Kohlenstoffnanoröhren oder Isolationen aus Self Assembling Monolayern.
Neue Bauelemente werden mit Resonanztunneldioden aufgebaut.
Integrierte Optoelektronik: Angesichts zunehmender Signallaufzeiten insbesondere in langen Verbindungsleitungen (globale Interconnects) großer System on a Chips wird darüber nachgedacht, diese elektrischen Leitungen durch optische Verbindungen zu ersetzen.
Organische Elektronik: um kostengünstige „Wegwerfelektronik“ (z. B. elektronische Preisetiketten) zu realisieren, werden Schaltungen auf der Basis organischer und metallischer Materialien auf organischen Substraten in Dünnschichttechnik aufgebracht (siehe Organischer Feldeffekttransistor).