Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
ELECTRONIC ELEMENT AND ELECTRICALLY CONTROLLED DISPLAY ELEMENT
Document Type and Number:
WIPO Patent Application WO/2020/125840
Kind Code:
A1
Abstract:
The invention relates to the use of an electronic element with a processor- and memory function, for use as an arithmetic element and/or computer element, the electronic element comprising an identification- and/or authentication function of a user in a digital network, characterised in that the electronic element consists of at least one hardware element and/or software.

Inventors:
TÜNTE UDO (DE)
Application Number:
PCT/DE2019/000340
Publication Date:
June 25, 2020
Filing Date:
December 18, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
GRID INVENT GGMBH (DE)
International Classes:
H04W12/06; G06F21/31; G06F21/60; G06F21/78; G06K19/02; G09F19/22; H04L9/32; H04L29/06
Domestic Patent References:
WO2004086338A22004-10-07
WO2004063806A12004-07-29
Foreign References:
US20030142044A12003-07-31
GB2544262A2017-05-17
US20160335705A12016-11-17
US20150170212A12015-06-18
US0466000A1891-12-29
Other References:
JOHN W. TUKEY, AMERICAN MATHEMATICAL MONTHLY, 1958
"Progressive Policy Institute", vol. 1, 2016, pages: 64
SCIENCE FRIDAY, 10 May 2016 (2016-05-10)
Download PDF:
Claims:
Patentansprüche:

1. Elektrisch angesteuertes Anzeigeelement zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern mit einem integrierten elektronischen Element mit Prozessor- und Speicherfunktion, dadurch gekennzeichnet, dass die Ansteuerung über eine drahtlose Verbindung von einem externen Rechner / Computer erfolgt und das Anzeigeelement eine Dicke von 0,3 bis 4,5 mm aufweist, wobei das elektronische Element eine maximale Dicke von 1 mm aufweist.

2. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet dass das elektronische Element aus mindestens einem Hardwarelement und/ oder einer Software und / oder APP Anwendung besteht.

3. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element aus einer auswechselbaren physischen Chipkarte und/oder einer eingebauten physisch nicht auswechselbare Chipkarte und / oder chipkartenidentischen Funktion aufweisendem Element besteht.

4. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element eine Identifikations- und/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz aufweist.

5. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass die drahtlose Verbindung aus einem Funk und /oder Licht- (LiFi) und / oder Ultraschallnetz besteht.

6. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass die drahtlose Verbindung, vorzugsweise über eine Funkverbindung auf Basis einer G - Frequenz Funkverbindung, vorzugsweise auf Basis von 3G und / oder 4 G und /oder 5G und / oder einer Mobilfunkverbindung und /oder auf Basis einer Bluetooth-, und /oder WLAN-,und /oder WIFI- und / oder LiFi und /oder Satelliten- Verbindung( GPS) besteht.

7. Anzeigeelement nach Anspruch 6, dadurch gekennzeichnet, dass die Kanalbandbreite der Funkverbindung im Bereich von 100 MHZ bis 100 GHZ liegt, vorzugsweise bei 800MHZ - 30GHZ, insbesondere bei 3 GHZ bis 6GHZ. 8. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische

Element vorzugsweise maximal ein Format von 85,6 mm x 54 mm aufweist, insbeson dere ein Format 25 mm x 15 mm und /oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm aufweist. 9. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass das elektronische

Element, vorzugsweise eine Dicke von maximal 1 mm aufweist, vorzugsweise eine Dicke von mindestens 0,3 - 1 mm , insbesondere 0,76 mm und / oder 0,67 mm .

10. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element, vorzugsweise eine Speicherkapazität von mindestens 128 Gigabyte aufweist.

1 1. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement und /oder Hardwareelement mindestens eine Kamera- und /oder Videokamera- und/ oder Scanfunktion und /oder Sensorfunktion und / oder Infrarotlichtfünktion und / oder Lautsprecherfunktion und/ oder Mikro fonfimktion und / oder Soundkarte aufweist.

12. Anzeigeelement nach einem der vorhergehenden Ansprüche , dadurch gekennzeichnet, dass die Sensorfunktion physikalische, chemische und stoffliche Eigenschaf- ten quantitativ oder qualitativ erfasst, vorzugsweise mit Messfunktion für Temperatur, Wärmemenge, Feuchtigkeit, Druck, Gewicht, Abstandsmessung, Regensensor, Schall, Helligkeit, Beschleunigung, PH- Wert, Ionenstärke, elektroschemisches Potential und /oder die stoffliche Beschaffenheit qualitativ erfasst. 13. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit einer IT- Infrastruktur über ein Rechnernetz aufweist.

14 Anzeigeelemennt ach einem der vorhergehenden Ansprüche, dadurch gekenn zeichnet, dass die IT-Infrastruktur ein verschlüsseltes Buchführungssystem und / oder Verfahren aufweist.

15. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element mindestens einen Verschlüsselungscode aufweist und/oder mit mindestens einem Verschlüsselungscode digital verknüpft ist.

16. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.

17. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode in der IT -Infrastruktur gespeichert ist.

18. Verwendung eines Anzeigeelementes nach Anspruch 1 zur Verwendung als Vor- richtungs-, und /oder Bauteilelement.

19. Verwendung eines Anzeigeelementes nach Anspruch 17, vorzugsweise für ein Element zur Verwendung als ein Verpackungs-, Fahrzeugkennzeich- nungs-., Ver kehrsschild-, Werbeschild-, Schmuck- Uhr-, Kleidung-, Acces- soire-, Bilderrahmen- , Boden-, Wand-, Decken-, Möbel-, Dekorations-, Innen- ausbauelement, vorzugsweise Leisten-, Profil-, Kanten-, Tür- und /oder Fens- terelement, Fassaden-, Tapeten-, Car- Interior-, Car-Exterior-, Haushaltsge- räte-, Elektrogeräte-, und /oder Outdoorbe- lagselement. 20. Verwendung eines Anzeigeelement nach Anspruch 1, vorzugsweise für ein Element als amtliches Kennzeichen für ein ein Fahrzeug, vorzugsweise für ein PKW, LKW, Omnibus, Zweirad, Motorrad, E Bike, E Roller, Caravan, Nutzfahrzeug, Anhänger, Strassenbahn, Zug, Flugmobile, insbesondere ein Flugzeug, ein Hubschrauber und ein Schiff.

21. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass die elektrisch an gesteuerte Anzeige aus einem Bildschirm und /oder Screen und/oder Display, insbesondere Smart Display, und / oder Monitor und /oder Touchsreen Oberfläche oder aus einer projezierten Oberfläche besteht.

22. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass die Darstellungstechnik der elektrisch gesteuerten Anzeige vorzugsweise auf technologischer Basis von Light Emitting Diodes ( LED) Feldemmisionsbildschirm ( FED) und / oder Flüssigkri- stallbidschirm ( LCD) und /oder Dünnschichttransistorbildschirm (TFT-LCD) und / oder Kathodenstrahlröhrenbildschirm( CRT) Und /oder Plasmabildschirm und / oder organische Leuchtdiode ( OLED) , SOLED oder SMOLED -Folien Displays, PLED, AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ ,und /oder Surface Con- duction Electron-emitter Display ( SED) und (oder QLED und / oder Micro LED (mikroskopische Leuchtdioden und /oder HDR ( High Dynamic Range) und /oder elektronischer Tinte und/ oder E-Paper erzeugt wird.

23. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass die Darstellungstechnik der elektrisch gesteuerten Anzeige vorzugsweise auf technologischer Basis von Micro LED Pixeln, vorzugsweise mit einer Auflösung von mindestens 7680 x4320 Bildpunkten und /oder und / oder elektronischer Tinte erzeugt wird,

24. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, das vorzugsweise ein Foliendisplay auf Basis eine Folie, insbesondere auf Basis petrochemischer und /oder biopolymeren Kunststoffe und /oder organischer Stoffe verwendet wird. 25. Anzeigeelement nach Anspruch 23, dadurch gekennzeichnet, dass die Folie eine Stärke von vorzugsweise 20 bis 1000 pm aufweist, insbesondere 20 bis 100 pm

26. Anzeigeelement nach Anspruch 23, wobei die Folie eine gedruckte Elektronik aufweist.

27. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Stromversorgung, vorzugsweise drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und /oder eines Akkumulators und /oder Induktionsstroms und /oder durch Funkstrom und /oder durch Ultraschallübertragung, vorzugsweise mit piezotechnikbasierten Sensoren erzeugt wird.

28. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekenn zeichnet, dass der Akkumulator eine maximale Dicke von 0,3 bis 4,5 mm aufweist.

29. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement dreidimensionale Verformungen aufweisen kann, und insbesondere rollbar und/ oder faltbar ist.

30. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement auf Basis geometrischer und / freier Formen gestaltet ist, vorzugsweise aus Rechteck-, Quadrat-, Kreis-, Ellipsen-, Dreieck- , Vieleck-, Parabel- , Freiform Elementen und deren Kombinationsmöglichkeiten.

31. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement in die Fahrzeug- Karosserie integriert wird, insbesondere flächenbündig mit der Karosseriehülle ausgebildet wird.

32. Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Rechner und / oder Computerelement mit Identifikationsund/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz, dadurch gekennzeichnet, dass das elektronische Element aus mindestens einem Hardwarelement und/ oder einer Software besteht.

33. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, das das Rechner- und/ oder Computerelement als Hardwareelement ausgebildet wird, insbesondere als Speicher-, USB-, Festplatten, Router-, Smartphone-, PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Supercomputer, Bildschirm, Kamera , Scanner , Display ,Vorrichtungs-, und/oder Bauteilelement.

34. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, das das digitale Netz aus einem Kabel- und / oder Funknetz und /oder Ultraschallnetz besteht.

35. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit einer IT-Inffastruktur über ein Rechnernetz aufweist,

36. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die IT-Inffastruktur ein verschlüsseltes Buchführungssystem und / oder Verfahren aufweist.

37. Verwendung nach Anspruch 1, dadurch gekennzeichnet, das die Software eine Anwendung zur Bilderkennung, insbesondere Iriserkennung, aufweist.

38. Verwendung nach Anspruch 1, dadurch gekennzeichnet, dass das Hardware -Element mindestens eine Kamera- und/ oder Scanfunktion aufweist oder mit einer ei ner Kamera- und/ oder Scanfunktion verbunden ist.

39. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Hardwareelement eine Infrarotlichtfunktion aufweist und /oder mit einer Infrarotlichtfunktion verbunden ist. 40. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element aus einer auswechselbaren physischen Chipkarte und/oder einer eingebauten physisch nicht auswechselbare Chipkarte und / oder chipkartenidentischen Funktion aufweisendem Element besteht.

41. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element mindestens einen Verschlüsselungscode aufweist und/oder mit mindstens einem Verschlüsselungscode digital verknüpft ist.

42. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.

43. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode in der IT -Infrastruktur gespeichert ist.

44. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Bildscan, insbesondere Irisscan zur Authentifizierung und Identifizierung in der IT-Infrastruktur verwendet wird.

45. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildscan in der IT Infrastruktur mit dem Verschlüsselungscode verknüpft ist.

46. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die digialen Bilddaten zur Identifizierung und Authentifizierung einen sekundengenauen Zeitstempel aufweisen.

47. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass erzeugten digitalen Daten des elektronischen Elementes in der IT Infrastruktur gespeichert werden, ohne dass diese auf einem lokalen Rechner installiert sein müssen 48. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die digitalen Bilddaten, insbesondere des Irisscans, zur Identifizierung und Au- thentifizierung in der IT- Infrastruktur mit den digitalen Stammbild Daten durch eine Bilderkennungssoftware verglichen werden.

49. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Identifizierung und Authentifizierung des Bildscans eine automatische digitale Verknüpfung des elektronischen Elementes mit der IT Infrastruktur hergestellt wird. 50. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische

Element vorzugsweise maximal ein Format von 85,6 mm x 54 mm aufweist, insbesondere ein Format 25 mm x 15 mm und/oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm aufweist. 51. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische

Element, vorzugsweise eine Dicke von maximal 2 mm aufweist, vorzugsweise eine Dicke von mindestens 0,3 - 1 mm , insbesondere 0,76 mm und / oder beträgt 0,67 mm beträgt. 52. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische

Element, vorzugsweise eine Speicherkapazität von mindestens 128 Gigabyte aufweist.

Description:
Elektronisches Element und elektrisch angesteuertes Anzeigeelement

Aufgabe der Erfindung, Stand der Technik

Die zunehmende Digitalisierung von Informationen, wie die von Zeichen und Bildern fuhrt zwangsläufig dazu, dass Informationen heutzutage bevorzugt auf mobilen Smart- phones, Notebooks, Pads, E-books, TV Flachbildschirmen etc. direkt visuell auf dem Bildschirm abgerufen werden Es ist kaum noch erforderlich oder notwendig einen phy sischen Ausdruck der Bild- und/oder Zeicheninformation durch Ausdrucken z.B. auf Papier oder Folienmaterial zu erzeugen. Die Informationen sind durch Speicherung je- derzeit, schnell und platzsparend auf dem Bildschirm zugänglich und visuell erfassbar.

Es gibt mittlerweile eine Fülle von Anwendungen für digitalen Bildschirme / Displays wie z.B. elektronische Tickets, E-Books, Moderations-, Präsentationsstexte, digitale Werbetafeln (Stadionwerbung) Verkehrs und Anzeigetafeln, 3 D Brillen und virtuelle Simulationen, Computerspiele , Augmented Reality, etc.

Durch die stetig wachsende Verbreitung von Rechnern und Bildschirmen in allen Le bensbereichen findet eine zunehmende Virtualisierung von Informationen statt, gewis- sermassen als Ersatz für physische, erlebbare materielle Informationen.

Die Akzeptanz und der Konsum von virtuellen Produkten, die rein auf digitalen Zeichen und Bildern basieren, ist vor allem bei den„Digital Natives“, die neue virtuelle Normalität und Selbstverständlichkeit. Es hat eine gesellschaftliche Veränderung, d.h. ein kultureller Wandel im Umgang und der Wahrnehmung und Verarbeitung von In- formationen stattgefunden von der materiellen, analogen hin zur künstlich, virtuellen Information.

Diese Entwicklung wird sich in den nächsten 30 Jahren dramatisch fortsetzen. Durch Künstliche Intelligenz basierend Algorithmen von Quantencomputem werden bahnbre- chende Fortschritte in allen Lebensbereichen erreicht werden. Fraglich bleibt allerdings welche Folgen diese Entwicklung für den menschlichen Körper und Geist haben wird und welche seelisch -psychischen Auswirkungen damit verbunden sind. Da der Mensch, ein natürlicher Organismus ist, geprägt durch die vielen Jahrtausende der Erdgeschichte, bleibt abzuwarten, ob Ihm dieser virtuelle Wandel oh- ne negative, schädliche Nebenwirkungen gelingt.

Aufgabe dieser Erfindung ist es neue Anwendungsbereiche für den Einsatz von Bildschirmen/ Displays vorzuschlagen und hierfür eine technische Lösung anzubieten, die in vielen Lebensbereichen zu nützlichen und hilfreichen Neurungen fuhrt. Die Erfin- düng zeigt auf, wie Bildschirmdisplays in sehr dünner Bauweise hergestellt werden können und durch die drahtlose Ansteuerung mittels eines externen Rechners /Computers von einem anderen Ort bedient werden können. Hierdurch werden gänzlich neue Anwendungsfelder möglich werden, die nach dem derzeitigen Stand der Technik noch nicht existieren, wie z.B. ein digitales KFZ Kennzeichen, das vom Strassenver- kehrsamt gesteuert und kontrolliert wird oder beispielsweise eine Möbeloberfläche, ausgebildet als Bildschirmdisplay mit virtuellen Holzdekoren, die vom Smartphone aus gesteuert werden.

Der derzeitige Stand der Technik bei Smartphones weist im Minimum eine Gesamtdik- ke, das heisst Gehäuseaussenmaß, von 4.6 mm auf. Laut der Computerzeitschrift Chip vom 19.3.2017 ist dies das Smartphone- Produkt: Carbon Mobile. Das heißt die bauli che Anordnung von Speicher und Prozessor und eines Akkumulaors / Batterie und des Bildschirmdisplays nach dem derzeitigen Stand der Technik erfordern diese Bauhöhe. Dünnere Smartphones oder E Pads gibt es zum Zeitpunkt dieser Patent- Anmeldung nicht auf dem Markt.

Weiterhin ist es Stand der Technik bei Bildschirmen, wie z.B. bei Smartphones, E- Pads und Flachbildschirmen, das die Ansteuerung des Bildschirms über den intern eingebauten Rechner / Computer erfolgt. Der Grundgedanke der Erfindung ist es nun ein elektrisch angesteuertes Anzeigeelement zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern mit einem integrierten elektronischen Element mit Prozessor- und Spei cherfunktion zu verwenden, dadurch gekennzeichnet, dass die Ansteuerung über eine drahtlose Verbindung von einem externen Rechner / Computer erfolgt und das Anzeigeelement eine Dicke, das heißt Gehäuseaußenmass, von 0,3 bis 4,5 mm aufweist, wobei das elektronische Element eine maximale Dicke von 1 mm aufweist.

Das elektronische Element besteht dabei aus mindestens einem Hardwarelement und/ oder einer Software und / oder App Anwendung.

Weiterhin besteht das elektronische Element aus einer auswechselbaren physischen Chipkarte und / oder einer eingebauten physisch nicht auswechselbare Chipkarte und / oder aus einem chipkartenidentischen Funktion aufweisendem Element.

Die Neuheit der Erfindung liegt darin, das elektrisch angesteuerte Anzeigeelement über eine drahtlose Verbindung von einem externen Computer/ Rechner anzusteuern um aus der Ferne, veränderliche Informationen wie Zeichen oder Bilder auf einem Bildschirm an einem anderen Ort zu übertragen und anzuzeigen. Zudem schlägt die Erfindung vor dass, dass Anzeigeelement sehr dünn ausgebildet wird, mit einer Stärke von 0,3 - 4,5 mm.

Die drahtlose Verbindung kann dabei aus einem Funk- und /oder Licht- (LiFi) und / oder Ultraschallnetz bestehen.

Diese dünne Ausfuhrungsform wird erfindungsgemäß dadurch ermöglicht, dass ein elektronisches Element mit Prozessor und Speicherfunktion, verwendet wird, in mi- nituarisierter Bauform in einer maximalen Dicke von nur 1 mm. Das elektronische Element weist weiterhin eine Identifikations- und/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz auf. Die drahtlose Verbindung erfolgt vorzugsweise über eine Funkverbindung auf Basis ei ner G - Frequenz Funkverbindung, vorzugsweise auf Basis von 3G und / oder 4 G und /oder 5G und / oder einer Mobilfunkverbindung und /oder auf Basis einer Bluetooth-, und /oder WLAN-,und /oder WIFI- und / oder LiFi und /oder Satelliten- Verbindung( GPS) .

Die Kanalbandbreite der Funkverbindung liegt dabei im Bereich von 100 MHZ bis 100 GHZ liegt, vorzugsweise bei 800MHZ - 30GHZ, insbesondere bei 3 GHZ bis 6GHZ. Das Elektronische Element ist z.B. eine vorkonfigurierte 3G oder 4G. oder 5 G Simkarte, die sich beim Einschalten automatisch über Funkverbindung zur Ansteuerung des Anzeigeelementes, sprich Bildschirmdisplays, mit dem externen Rechner, z.B. ei nem Smartphone verbindet, und sofort betriebsbereit ist. Dabei enthält jedes Anzei geelement , beispielsweise eine 3 G Simkarte mit einen eindeutigen, Verbindungscode, dem sog. Association Token : Beispiel 8— stelliger Zeichen Code: z.B. AC1 1 -GE4S-P3 , der nur für dieses eine Anzeigeelement existiert. Optional kann dem Anzeigeelement auch eine eigene E- mail Adresse zugewiesen werden Die 3G Simkarte funktioniert z.B. international in über 100 Ländern und weist auch eine GPS Funktion auf. Das elektronische Element weist vorzugsweise maximal ein Format von

85,6 mm x 54 mm aufweist, insbesondere ein Format 25 mm x 15 mm und /oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm auf.

Weiterhin hat das elektronische Element vorzugsweise eine Dicke von maximal 1 mm , vorzugsweise eine Dicke von mindestens 0,3 - 1 mm , insbesondere 0,76 mm und / oder 0,67 mm und hat vorzugsweise eine Speicherkapazität von mindestens 128 Giga byte.

Das Anzeigeelement und /oder Hardwareelement weist mindestens eine Kamera- und /oder Videokamera- und/ oder Scanfunktion und /oder Sensorfunktion und / oder Infra- rotlichtfunktion und / oder Lautsprecherfunktion und/ oder Mikrofonfunktion und / oder Soundkarte auf.

Die Sensorfunktion erfasst physikalische, chemische und stoffliche Eigenschaften quan- titativ oder qualitativ , vorzugsweise mit Messfunktion für Temperatur, Wärmemenge, Feuchtigkeit, Druck, Gewicht, Abstandsmessung, Regensensor, Schall, Helligkeit, Beschleunigung, PH-Wert, Ionenstärke, elektroschemisches Potential und /oder die stoffli che Beschaffenheit qualitativ erfasst. Die elektrisch angesteuerte Anzeige besteht aus einem Bildschirm und /oder Screen und /oder Display, insbesondere Smart Display, und / oder Monitor und /oder Touchs- reen Oberfläche oder aus einer projezierten Oberfläche.

Die Darstellungstechnik der elektrisch gesteuerten Anzeige wird dabei vorzugsweise auf technologischer Basis von Light Emitting Diodes ( LED) Feldemmisionsbildschirm ( FED) und / oder Flüssigkristallbidschirm ( LCD) und /oder Dünnschichttransistorbild schirm (TFT-LCD) und / oder Kathodenstrahlröhrenbildschirm( CRT) Und /oder Plas mabildschirm und / oder organische Leuchtdiode ( OLED) , SOLED oder SMOLED - Folien Displays, PLED, AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ ,und /oder Surface Conduction Electron-emitter Display ( SED) und (oder QLED und / oder Micro LED (mikroskopische Leuchtdioden und /oder HDR ( High Dynamic Range) und /oder elektronischer Tinte und/ oder E-Paper erzeugt.

Eine weitere Ausfuhrungsform ist es, dass die Darstellungstechnik der elektrisch ge- steuerten Anzeige vorzugsweise auf technologischer Basis von Micro LED Pixeln, vorzugsweise mit einer Auflösung von mindestens 7680 x4320 Bildpunkten und

/oder und / oder elektronischer Tinte erzeugt wird,

Um eine möglichst dünne Ausführung zu erzeugen, wird ein Foliendisplay auf Basis ei- ner Folie, insbesondere auf Basis petrochemischer und /oder biopolymeren Kunststoffe und /oder organischer Stoffe verwendet wird, wobei die Folie eine Stärke von vorzugsweise 20 bis 1000 miti aufweist, insbesondere 20 bis 100 mih.

Bei einer weiteren Ausführungsform weist die Folie eine gedruckte Elektronik auf.

Die Stromversorgung des elektrisch gesteuerten Anzeigeelementes erfolgt vorzugsweise drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und /oder eines Akkumulators und/oder Induktionsstroms und /oder durch Funkstrom, wobei der Akkumulator eine maximale Dicke von 0,3 bis 4,5 mm aufweist.

Bezüglich der Gestaltung und Formgebung des Anzeigeelementes ist vorgesehen, das ein Bildschirmdisplay dreidimensionale Verformungen aufweisen kann, und insbesondere rollbar und/ oder faltbar ist. Wobei die äussere Form des Anzeigeelementes vorzugsweise auf Basis geometrischer und / freier Formen gestaltet ist, vorzugsweise aus Rechteck-, Quadrat-, Kreis-, Ellip sen-, Dreieck- , Vieleck-, Parabel- , Freiform- Elementen und deren Kombinationsmög lichkeiten. Bei den folgenden Ausftihrungsformen der Erfindung wird zur Herstellung des elektrisch angesteuerten Anzeigeelementes, die Verwendung von Metallbeschichtungen, sowie funktionellen Folien vorgeschlagen insbesondere zur Herstellung von Halbleiter elektronik- und Mikrotechnikelementen. Die hier vorgeschlagenen Herstellungsarten und -Verfahren und Ausführungsformen, sind besonders wirtschaftlich in grossen Mengen produzierbar.

Durch Metallbeschichtung einer Folie oder auch Trägerfolie können zum Beispiel elek trische Leiterbahnen hergestellt werden. Hierzu kann die Metalllbeschichtung und / oder die die Trägerfoiie sowohl voiifiäcnig ais auch teiifiächig vorgesehen werden. Dabei kann es vorteilhaft sein mehrere Ebenen, d.h. als Verbundschicht, mit metallisierten Folien übereinander anzuordnen, um unterschiedliche elektronische Schaltkreise zu realisieren, mit denen zum Beispiel miniaturisierte LED oder OLED Leuchten oder auch Folienlautsprecher betrieben werden, die ebenfalls in die Verbundschicht integriert werden können, z.B. in Form von funktionellen Folie/n.

Ebenso kann die Metallbeschichtung zur Herstellung von miniaturisierten, elektronischen Schaltungen eingesetzt werden, insbesondere integrierten Schaltungen, in Form und auf Basis von funktionellen Folie/n. Dabei können auch Schaltungen auf der Basis organischer und metallischer Materialien auf organischen Folien in Dünnschichttechnik (z.B. durch PVD, CVD, OPVD (organische Gasphasenabscheidung) Verfahren oder auch durch klassische Drucktechniken (InkJet, Siebdruck, Mikrokontakt- Stempeldruck mit metallischem Material) aufgebracht werden, oder auch durch Rotationsbeschichtung.

Ebenso lassen sich integrierte optoelektronische Systeme dadurch herstellen, wie z.B. Aktoren ( Sender) und Dedektoren ( Empfänger) oder auch Optosensoren, Optokoppler oder optische Modulatoren, wie z.B. Fotowiderstand, Photodiode (auch Solarzelle) und Fototransistor, Lichtsensoren.

Für die metallische Schicht wird bei den vorgenannten Beispielen aus der Mikro- und Optoelektronik vorzugsweise das Halbmetall Silicium (Si) oder Germanium (Ge) oder siliciumhaltige Verbindungen eingesetzt, insbesondere Halbleitersilizium oder Solarsilizium. Oder vorzugsweise in der Optoelektronik auch leitfahige Beschichtungen aus TCOs (engl transparent conductive oxides), wie z.B. aus Indium-Zinn-Oxid Nanoparti- keln (engl indium tin oxide, ITO). Diese haben den Vorteil transparent zu sein und können auch flexibel ausgeführt werden, und können als Elektroden in optoelektronischen Anwendungen, wie z.B. Flachbildschirmen, Touchsreens, Displays, insbesondere flexiblen Displays, organische Leuchtdioden, Elekrolumineszenzlampen oder auch bei Bauteilen aus der Solartechnik eingesetzt werden. Erfindungsgemäß können damit z.B. Displayfolien, für programmiebare Oberflächen hergestellt werden, d.h. das Oberflächendekor z.B. eines Möbels, Fußbodens oder Wandfläche wird als digital/ virtuelles Holz-/ Stein oder Fantasiedekor gezeigt, mit der Möglichkeit z.B. Licht/ Beleuchtung - / Bewegungs-/ Informations - / und Soundeffekte frei zu inszenieren.

Erfindungsgemäß kann dazu z.B. ein OLED (organic light emitting diode) oder insbesondere PLED ( polymer light emitting diode) Foliendisplay eingesetzt werden, auf Basis einer Kunsstoffolie mit einer Stärke von vorzugsweise 20 bis 500 pm, auf die Schaltkreise aufgedruckt werden unter Verwendung von Dünnfilmtransistoren.

Auch die Verwendung von SOLED oder SMOLED -Folien Displays ist hier möglich, wie die aus„small molecules“ (kleinen Molekülen) hergestellten OLEDs bezeichnet werden. Es kann darüberhinaus auch AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ Technologie eingesetzt werden.

Bei den o.a. OLED -Technologien wird unter anderem das Prinzip der Lumineszenz genutzt, selbstleuchtende Bildschirme herzustellen, die die insbesondere auf organischer Elektrolumineszenz basieren. Erfindungsgemäß werden hier metallorganische Komplexe bzw. Substanzen in die Verbundschicht (B) eingebracht, unter Verwendung einer Polymer Trägerschicht (T), als teilweise oder vollflächige Schicht aus metallischem Material.

Für die Beschichtung werden hier vorzugsweise Polymerfolien aus Polyethylen- terephthalat (PET) und Polyethylennaphthalat(PEN), Polycarbonat (PC), Polyethersul- fon (PES) und Polyimid (PI) verwendet als flexibles Substratmaterial für flexible transparente Elektroden. Die Indium-Zinn-Oxid Nanopartikel werden durch voll oder teilflächige PVD oder CVD Beschichtung hergestellt. Dazu werden Strukturierungs- und Maskierungsvorgänge beim Beschichten notwendig. Die Verwendung nasschemischer Druckverfahren zur ITÖ-Beschichtung ist ein alterna tives, sehr wirtschaftliches Verfahren und kann sowohl über die Sol-Gel- Methode als auch mittels ITO Nanopartikel Dispersion erfolgen. Weitere damit verbundene mikro- elektronische und optoelektronische Anwendungen : RFID-Tags/ Chips, Solarzellen, Sensoren, Brenstoffzellen, Elektrolytkondensatoren , Lithium- Polymerakkus. Erfindungsgemäß werden als Substratmaterial die unter 3a. aufgeführten Kunststoffmaterialien als Trägerfolie für die Metallisierung eingesetzt.

Vorzugsweise werden folgende Metalle / Halbmetalle ( z.B. Alkalimetalle ) bzw. Legierungen und Kombinationen dieser Metalle und chemische Verbindungen, wie z.B. polymere Verbindungen mit diesen Metallen, als elektrische Leiter im Bereich Mi kro- und Optoelektronik eingesetzt: Bor ( B), Barium (Ba) Cadmium (Cd), Cobalt (Co) Caesium (Cs) Silicium (Si), Germanium ( Ge), Arsen (As), Selen ( Se), Antimon (Sb), Tellur (Te), Polonium (Po), Zinn (Sn) Asiat (At), Lithium (Li), Phosphor (P) Iod (I), Bismut (Bi) Zinn (Sn) Chemische Verbindungen wie z.B. Titandioxid (Ti02) Galli- umarsenid (GaAs) Galliumnitrid (GaN), Indiumantimonid (InSb) Zinkselenid (ZnSe) Cadmiumsulfid (CdS) wie Kupfer(lI)-chlorid, Legierungen aus Calcium- Aluminium- Barium, Ruthenium- Magnesium-Silber, Lithiumfluorid, Caesiumfluorid, Aluminium- tris(8-hydroxychinolin), Alq3. und Transparent Conductive Oxides (TCOs), insbeson dere Indium Tin Oxide ( ITO)

Die unter 3a beschriebenen Kunstofffolien und Kunstoffmaterialien können auch aus gestattet und kombiniert werden mit elektrisch leitfähigen Polymeren.

(Polymerelektronik) Das sind elektronische Schaltungen aus elektrisch leitfahigen Po- lymeren, auf Trägermaterialien aus vorzugsweise organischen Folien, sowie mit Leiterbahnen und Bauelementen aus leitfahigen organischen Molekülen( organische Halbleiter) als Bestandteil der Verbundschicht (B). Das sind Polymere, (insbesondere auch organische Halbleiter), die oxidativ oder reduktiv dotiert werden mit chemischen Metall / Halbmetallverbindungen, wie z.B. Polyacetylen mit Arsenpentaflourid oder Iod. Weitere Beispiele für leitfähige Polymere sind dotiertes Polypyrrol, Polyphenylensul- fid, Polythiophen sowie metallorganische Komplexe mit makrocyclischen Liganden, wie Phthalocyanin. Eine oxidative Dotierung erreicht man mit Arsenpentafluorid, Titantetrachlorid, Brom oder Iod, eine reduktive Dotierung dagegen mit Natrium-Kalium-Legierungen oder Di- lithiumbenzophenonat. Anwendungen aus der Polymerelektronik: Organische Leucht diode, organische Solarzelle, organischer Feldeffekttransistor/ Dünnschichttransistor. Die Moleküle (neben Monomeren und Oligomeren vor allem Polymere) werden dabei in Form dünner Filme oder kleiner Volumen auf die Folien aufgedruckt, aufgeklebt oder anderweitig angebracht. Die Herstellung dieser Folien erfolgt durch vorzugsweise durch Dünnschichttechnik (z.B. durch PVD, CVD, OPVD (organische Gasphasenabscheidung) Verfahren oder auch durch klassische Drucktechniken (Inkjet, Offsetdruck, Tiefdruck, Siebdruck, Mikrokontakt- oder auch durch Rotationsbeschichtung. Bevor- zugte Schichtstärken für mikro- opto- und elektronische leitfähige Beschichtungen, sowie elektrisch leitfähige Polymere: 1 nm (Nanometer) bis 1 pm dick.

Bevorzugte Ausführungsform: Universelle Anwendungen

Die Verwendung des Anzeigeelementes ist dabei universell zur Verwendung als Vor- richtungs-, und /oder Bauteilelement vorgesehen, wobei die Verwendung vorzugsweise für ein Element zur Verwendung als ein Verpackungs-, Uhr- , Schmuck-, Kleidung-, Accessoires-, Fahrzeugkennzeichnungs-., Verkehrsschild-, Werbeschild-, Bilderrahmen- , Boden-, Wand-, Decken-, Möbel-, Dekorations-, Innenausbauelement, vorzugsweise Leisten-, Profil-, Kanten-, Tür- und /oder Fensterelement, Fassaden-, Tapeten-, Car- Interior-, Car-Exterior-, Haushaltsgeräte-, Elektrogeräte-, und /oder Outdoorbelagsele- ment.

Transparente, ein-oder mehrlagige obere Schicht (3)

Für den universellen Einsatz ist es in vielen Anwendungen vorteilhaft eine Schutz- Schicht für das elektrisch angesteuerte Anzeigeelement vorzusehen, die das Anzei- geelement vor mechanischen Beanspruchungen schützt, d.h. vor Stoss-, Abrieb-, Kratz- Beanspruchung, sowie vor Feuchtigkeit und Schmutz.

Die folgenden Ausführungsformen zeigen auf welche Lösungen dafür erfindungsgemäß vorgesehen sind, wobei die Schutzschicht als transparente ein - oder mehrlagige Deck- schicht(3) ausgebildet wird.

Die transparente ein - oder mehrlagige Deckschicht(3) kann aus z.B. Kunststofffolie/n (3a) und / oder Oberflächenausrüstungen (3b) bestehen oder aus Kombinationen von (3a) und (3b). Zum Beispiel kann auch nur eine Oberflächenausrüstung (3b) vorgesehen werden ohne eine Kunststofffolie/n (3a) zu verwenden. Ebenso kann auch nur eine Kunststofffolie verwendet werden ohne Oberflächenausrüstung. Die Oberflächenausrü- stung( 3b) kann z.B. auch als äußere Schicht auf die Kunsstofffolie (3a) aufgebracht werden oder direkt auf die Schicht aus metallischem Material (1)

Die Kunststoffolien in der Definition dieser Erfindung können auch in Form von geschmolzenem Kunststoff , z.B. als geschmolzenes Polymer aufgetragen werden zur Bil dung der transparenten ein- oder mehrlagigen obere Schicht, z.B. durch Kalandrieren oder Gießen. Dies hat den Vorteil, dass z.B. während der Kunststoff noch nicht ausge- härtet, ist eine Oberflächenstruktur z.B. mittels eines Prägekalanders in die Oberfläche geprägt werden kann, wie z.B. eine Holzpore.

Ebenso kann auch eine Oberflächen Struktur in eine Kunststofffolie geprägt werden, wenn die Kunststoffolie, vor dem Prägeprozess erhitzt wird und der Kunststoff an- schmilzt, so dass die Struktur in die noch nicht ausgehärtete Kunststoffoberfläche geprägt wird. Grundsätzlich können die Folien voll- oder teilflächig eingesetzt werden. In den meisten Anwendungsfällen ist es sinnvoll die transparente ein-oder mehrlagige obere Schicht vorzusehen, um eine gute Abrieb- und Kratzbeständigkeit zu gewährleisten. Bei weniger beanspruchten Flächen, wie z.B. Deckenverkleidungen kann auf diese Schicht auch verzichtet werden. Die in 3., 3a und 3b beschriebenen Schichten sind grundsätzlich auch geeignet für den Oberflächenschutz von metallisierten Textilen, Geweben oder Vliesen. (z.B. wässrige PU Beschichtung, oder Kaschieren, wie z.B. Flammkaschierung, Einstreuen von schmelzbaren, pulverisierten Kunststoffen und anschliessendes Aufschmelzen)

Kunststofffolien und / oder geschmolzenes Polymer (3a)

-Kunststoff als transparente Folie, bevorzugt elastische Folien

Die obere Schicht kann ein- oder mehrlagig aufgebaut sein. Der mehrlagige Aufbau ( zwei oder mehr Folien ) hat den Vorteil, dass jede Folie, und / oder auch aufge- schmolzene Polymerschicht, mit speziellen Leistungseigenschaften vorgesehen wer den kann, je nach Einsatzzweck.

Dabei können für die einzelnen Folienschichten unterschiedliche Kunststoffe, und deren vorteilhafte Eigenschaften, miteinander kom- biniert werden. Grundsätzlich werden da- für Kunststoffe auf Basis synthetischer und/oder halbsynthetischer Polymere und / oder Biopolymere eingesetzt, wie z.B. Duroplaste und Thermoplaste.

Bevorzugt wird dabei ein thermoplastischer und/ o- der elastomerer Kunststoff oder thermoplastische Elastomere für die Folien- schicht(en) eingesetzt , vorzugsweise PVC, auch als gegossenes PVC oder Polyes- ter, Polyethylen (PE), Polyester mit PVC Oberfläche, Polyurethan (PUR) und Ther- moplastisches Polyurethan (TPU), Polypropylen ( PP), Castpropylen (CPP), Oriented Propylen(OPP), Biaxial oriented Propylen (BOPP), Polystyrol (PS), und /oder Po- lyethylenterephthalat ( PET) biaxial orientierte Polyesterfolie (BOPET) Polyester (PES), Polytetraflourethylen ( PTFE), High Density Poly- ethylen (HDPE), Low Density Polyethylen, (LDPE) , Polyamid (PA), Polyethylen- terephthalat (PET) oder Polystyrol (PS), Polylactid (PLA oder PDLA oder PLLA oder PDLLA), Polybutylenterephthalat ( PBT ), Polytrimethylenterephthalat (PTT), Polycarbonat ( PC) Polyethylennaphthalat ( PEN), Polycarbonat ( PC), Polyestercarbonat (PEC), Polyarylate (PAR), ungesättig- tes Polyesterharz (UP), gegossene Alkydharz- folie, gegossene Acrylharzschicht, Po- lyimide (PI), PEI, Polyethersulfon (PES) Polyethylennaphthalat (REN),RETR bzw. Kapton, Polyetherketone wie z.B. PAEK und PEEK, Cellophan und Acetat oder Kombinationen dieser Kunststoffe.

Alternativ können auch Biopolymere zum Einsatz kommen. Biokunststoffe lassen sich aus einer Vielzahl pflanzlicher und tierischer Rohstoffe hersteilen. Die wichtigs- ten Rohstofflieferanten sind Holz (Cellulose und Lignin), Getreidepflanzen und Kartoffeln (Stärke), Zuckerrohr und Zuckerrübe (Zucker) sowie Ölpflanzen (Pflanzenöle) und z.B. Insekten (Chitinpanzer und Krabbenschalen). Cellulosebasierte Kunststoffe sind z.B.: Zelluloid, Cellophan, Viskose und Lyocell, sowie Celluloseacetat und Lignin ba- sierte Biopolymere mit Zugabe z.B. von Naturfasern aus Hanf oder Flachs und cellulosebasierte Biopolymere z. B. aus Baumwolle.

Auch modifizierte Cellulose unter Einsatz von Enzymen kann als Biopolymer zum Einsatz kommen. Stärkebasierte Biopolymere werden gewonnen aus Mais, Weizen, Kartof- fein, sowie Zuckerrohr und Zuckerrüben. Dazu zählen Thermoplastische Stärke (TPS) Polymilchsäure- bzw.Po- lylactid (PLA), Polyhdroxalkanoate wie Polyhydroxybutyrat, Polyester oder thermo- plastischer Biopolyester, wie Polyethylenterephthalat (PET), Po- lytrimethylentereph- thalat (PTT) und Polyethylenfuranoat (PEF). Aus Pflanzenölen lassen sich Fettsäuren gewinnen, die über mehrere chemischen Zwischenstufen in hochwertige Biokunststoffe umgewandelt werden. Pflanzenölbasierte Kunststoffe sind Biopolyamide (Bio- PA) und Biopolyurethane (Bio -PU). Weitere Rohstoffe für Biopolymere sind Kasein, ein Protein aus Milch, Gelatine, ein Protein aus tierischen Knochen oder Haut und Chitin, ein Polysaccharid aus Pilzen, Insekten ( Chitosan ), Krabbenscha len. PHB ( gewonnen aus Bakterien) , Zein und Algen. Biopolymere sind ökologisch nachhaltig da die Rohstoffe dafür nachwachsend sind (nicht erdölbasierend) und biologisch abbaubar. Grundsätzlich können auch polymere und/oder biopolymere Materi almischungen aus den oben erwähnten Kunststoffen eingesetzt werden.

Die oben erwähnten Polymere und Biopolymere können grundsätzlich in Form einer Kunststoffolie zur Metallisierung eingesetzt werden. Darüber hinaus können auch Mischungen einzelner oder mehrerer der vorgenannten Kunststoffe zum Einsatz kommen. Die Kunststofffolien können durch Extrusion oder auch durch Gießen, Kalandrieren oder Blasformen gefertigt werden. Im Blasformverfahren können auch mehrere Folien mit unterschiedlichen Eigenschaften zu einem Foli- enverbund coextrudiert werden. Optional können diese Folien selbstklebend mit Poly- acrylat Kleber beschichtet werden zur Klebekaschierung. Die Folienstärke einer Folienschicht liegt zwischen 20 gm und 2500 gm liegen, bevorzugt zwischen 20 gm und 500 gm, insbesondere bei 20-150 gm. Derzeit handelsübliche Folienmaterialien, für das Bedrucken der Dekorschicht gemäss Punkt 2.e sind z.B.: PVC, Polyester, wie z.B. BOPET, PP und Polyamid.

Eine sehr einfache und wirtschaftliche Ausführungsform ist folgende: Hier besteht die obere Schicht aus nur einer Folie, die unterseitig eine gedruckte Elektronik auufweist. Dabei ist es vorteilhaft die Folie für die Bedruckung mit einer transparenten Druck- / Tinten- / Farbaufnahmeschicht auszurüsten. Das verwendete Kunstoffmaterial muss dabei, die für den Einsatzzweck entsprechende Abrieb,- Kratz- und Verschleißfestigkeit besitzen. Werden zwei Folien als Schichtaufbau verwendet, so kann die Bedruckung der Elektronik auf der Unterseite der obersten Folienschicht und/ oder auf der Oberseite der unteren Folienschicht angeordnet werden.

Im Übrigen kann der vorgenannte Schichtenverbund auch als Vorprodukt in Form eines fest miteinander verbundenen Schichtenverbundes ausgebildet sein. (Siehe dazu bevorzugte Ausfuhrungsformen)

Die Verbindung einzelner Folienschichten wird nachfolgend als Verbundfolie bezeichnet.

Die einzelnen Folienschichten werden üblicherweise extrudiert oder kaschiert bzw. la- miniert. Die Herstellung der Verbundfolie erfolgt durch Kaschieren mehrerer Lagen gleicher oder verschiedener Materialien bzw. Schichten, in diesem Fall von Kunst- Stofffolien, die dem erfindungsgemäßen Schichtaufbau entsprechen, mit Hilfe geeigneter Kaschiermittel (Lack, Leim, Wachs). Kaschiert wird, um ein Material zu schützen und/oder zu dekorieren und/oder eine Addierung günstiger Materialeigenschaften zu erzielen, indem das Material auf oder unter eine Schicht mit den gewünschten Eigen- schäften aufgetragen oder zwischen zwei Schichten eingebracht wird. Um die Kunststofffolie zu bedrucken, kleben und beschichten /coaten ist bei den meisten der o.g. Kunststoffmateralien, (z.B. bei PE, PP, PET) eine Coronavorbehandlung notwen dig. Dabei wird die zu behandelnde Oberfläche für eine kurze Zeit einer elektrischen Coronaentladung ausgesetzt. Alternativen zur Coronabehandlung sind die Flammbehand- lung, die Plasmabehandlung und die Fluorierung.

Die Verarbeitung erfolgt vorzugsweise von der Rolle (Rollenkaschiermaschine) oder als Flächenkaschierung. (Flächenkaschieranlage)

Bei den Kaschierverfahren unterscheidet man Nass-, Trocken - und Thermokaschie- ren. Bei der Nasskaschierung wird ein viskoser Dispersionsklebstoff auf Polyurethanbasis in Schichten von 7- 25 pm auf die Folie aufgetragen und zunächst in einer Trock- nungseinrichtung angetrocknet. Der Klebstoff ist häufig zweikomponentig. Der Be druckstoffwird zugeführt und in einem Walzenspalt unter Druck mit der Folie ver- eint. Anschließend kommt es zur Aushärtung des Klebstoffs. Bei der Trockenkaschierung wird der Schichtenverbund mit einem trockenen Klebstoff erzeugt, wobei überwiegend auf die jeweiligen Substrate abgestimmte 2-Komponenten-Reaktiv-Klebstoffe zur Ka- schierung eingesetzt werden. Die Auftragstechniken der Kaschieranlagen werden vorzugsweise über Kisscoating, Rasterwalzenauftrag, Düsen- und Gieß- kastenprinzip vor gesehen, mit Auftragsgewichten vorzugsweise von lg/m 2 bis 20 g/m 2 .Für die Thermo- kaschierung ist die Folie mit einem thermoaktiven Klebstoff vor- beschichtet. Dieser wird durch Wärme aufgeschmolzen und verbindet unter Einwirkung von Druck die ver- schiedenen Materialien. Die Verbundfolie kann auch durch Laminieren hergestellt werden. Beim Heiß -Laminieren wird unter Druck- und Wärmeeinwirkung (60- 120 °C) ein beidseitiger vollflächiger Verbund des erfindungsgemäßen Schichtaufbaus erzielt. Die Kombinationsmöglichkeit zwischen Foliendicke und flächenbezogener Masse des metallisierten Pa- piers/ Kunststofffolie erlaubt sowohl flexible, noch rollbare, als auch biegesteife Endprodukte.

Bei der Kaltlaminierung sind die Folien mit einem Kleber beschichtet, der normale Klebeeigenschaften bei allen Temperaturen hat. In der Verbindung zwischen Papier / Folie und Folie fungiert der Kleber wie ein doppelseitiges Klebeband.

Neben den zuvor genannten Verfahren können die Folienschicht/en inclusive der metallischen Schicht und einer Trägerplatte und Gegenzug auch in einem Verfahrensschritt, z.B. thermisch miteinander verbunden werden, z.B. durch Heißverpressung und / oder Heißverklebung zum Beispiel mit einer Heißpresse (Hot Press oder Hotmelt Press) oder auch Kurztaktpresse.

Ein weiteres Verfahren zur Verbindung von Kunststoff und Metall ist das Thermische Direktfügen, wobei die metallische Schicht durch Widerstandserwärmung elektrisch er- hitzt wird. Wird diese dann mit der Kunststoffschicht zusammengebracht, schmilzt der Kunststoff auf und bildet unmittelbar nach dem Erstarren einen festen Verbund mit dem Metall.

Von besonderem Vorteil ist es in diesem Zusammenhang, dass die obere Schicht unter- seitig eine PUR-Folienschicht als Haftvermittler zur Trägerschichtausweist. PUR zeichnet sich dadurch aus, dass dieses Material einen niedrigen Schmelzpunkt hat, so dass dieser Kunststoff beim Thermischen Verbinden aufschmilzt und damit als Klebschicht/Haftvermittler zwischen den weiteren Schichten der Oberschicht und dem metallischen Material dient. Die Kunststofffolien können an der äußeren Nutzschicht eine Struktur aufweisen, die beispielsweise durch Prägen erzeugt wird. Damit lassen sich Oberflächenstrukturen, wie z.B. Holz - oder Steinstrukturen herstellen. Eine weitere Ausführungsform ist es die Folienschicht als transparente Melaminschicht auszubilden. Hier können beispielsweise ein- oder mehrere transparente Overlays auf die gedruckte Elektronik aufgebracht werden. Die gedruckte Elektronik kann dann z.B. unter- oder oberseitig auf dem Overlay. vorgesehen werden. Die Verbindung des Overlays zur Trägerschicht/ Trägerplatte erfolgt vorzugsweise durch Thermisches Verbin- den, d.h.Heißverpressen, z.B. über eine Kurztakt- Presse inrichtung( KT Presse) und / oder Kleben oder Heißverkleben.

Ebenso kann die erf dungsgemässe Verbundfolie unterseitig mit einem melaminbe- harztem Papier versehen werden. Dies hat den Vorteil, dass die Verbundfolie in einer KT Presse z.B. auf einen Holzwerkstoff (HDF, MDF) verpresst werden kann. Die Ver- pressung erfolgt unter Druck und Hitze, bei Temperaturen von 160- 200 Grad Celsius. Dabei wird das Melamin in dem beharzten Papier flüssig und verbindet sich durch den Pressvorgang mit der HDF Trägerplatte. Das melaminbeharzte Papier übernimmt hier eine Adapterfunktion zur Verarbeitung der Verbundfolie in einer KT Presse. Vorraus- Setzung für die technische Umsetzbarkeit ist dabei die Verwendung einer erfindungs- gemässen Verbundfolie, die temperaturbeständig ist im Bereich von 160-200 Grad Celsius. Dies bedeutet, dass die verwendeten Einzelkomponenten der Verbundfolie, wie Kunststoff und Kaschierkleber diese Temperaturanforderung erfüllen müssen. Der Schmelzbereich von Polypropylen (PP) liegt bei ca.160 - 165 Grad Celsius, Poly- ethylenterephthalat (PET) hat einen Schmelzpunkt von 250-260 Grad Celsius, Po lyurethan hat einen Schmelzpunkt von 190 Grad Celsius.

Die transparente ein-oder mehrlagige Deckschicht wird vorzugsweise in einer glasklaren Ausführung vorgesehen, damit die gedruckte Elektronik zur vollen Geltung kommt. Es kann jedoch auch vorgesehen werden, dass die transparente ein-oder mehrlagige Deckschicht eine gezielt, tranzluzente Einfärbung aufweist, z.B. als milchige, weißliche Einfärbung. Dadurch kann die transparente ein- oder mehrlagige Deckschicht optisch gezielt matter gestaltet werden. Dies kann auch durch den Einsatz von transluzenten und/oder lasierenden Farben erzeugt werden. Oberflächenausrüstungen (3b)

Darunter sind transparente Oberflächenausrüstungen und/oder Imprägnierungen (z.B. bei Geweben, Vliesen, Textil) vorzugsweise transparente Polymerlacksysteme zu verstehen und / oder auf Naturstoffen basierte Öl- und /oder Wachsbeschichtungen. Bevorzugt werden transparente, hoch strapazierfähige und / oder geruchsarme Beschichtungen auf der Grundlage eines thermoplastischen und/oder elastomeren Kunststoffes. Bevorzugte Kunststoffe: PUR und/oder PLTR- und/ oder PVC und / oder PP- und /oder PE- Besondere Vorteile hat ein wasserverdünnbarer, transparenter PUR-Lack, mit optionalen Zusätzen wie z.B. Polyurethandispersion, Kieselsäure, Wasser, Glyco- lether, heterozyklische Kethone und/ oder Additive. Auch sind Acrylat-Lacke, EB Ac- rylat und Imprägnierungen, elastische Lacke, Polyesterlackierungen (PES), z.B. Im Einbrennverfahren oder ESH Lackierungen einsetzbar. Weitere anwendbare Lacksysteme: Alkydharzlacke (lufttrocknend oder wärmetrocknend), Dispersionslackfarben, Farben und Lacke auf Basis von Acrylpolymeren, High Solids (Nasslacksysteme auf Basis organischer Lösemittel) Phenol-, Harnstoff- und Melaminharz lacke (Wässrig oder lösemittelhaltig) Polyesteranstrichfarben, Polystyrol- und Polyvinylharz lacke, Polyurethanharzlacke, Pulverlacke, Silikonharzfarben, Farben und Lacke auf Basis natür licher Polymere ( Biopolymere, siehe Ausführungen unter 3a.), Farben auf Basis synthetischer Polymere, Zellulosenitrat lacke.

Bevorzugte Stärke der Oberflächenausrüstung von 1 pm bis 1000 pm. Die Oberflächenausrüstungen können auch strukturbildend sein, d.h. eine Oberflächenstruktur auf weisen, z.B um eine dekorative Optik, wie z.B. Holzpore oder dekorative plastische Strukturen zu erzeugen oder eine funktionelle Eigenschaft zu erzielen, wie z.B. Rutsch- hemmung . Die Oberflächenausrüstung kann sowohl direkt auf die Schicht aus gedruckter Elektronik aufgebracht werden unter Verzicht der unter( 3a) beschriebenen Kunststofffolien und/ oder oberseitig als äußere Nutzungsschicht auf die unter (3a) beschriebenen Kunsttoffolien oder auch zwischen den Folien unter -oder oberseitig, z.B. als haftvermittelnde Schicht. Für die Oberflächenausrüstung, kommen z.B. folgende Verfahren in Frage , die sich in charakteristischen Merkmalen unterscheiden und in der Regel Schichtdicken von 5 mhi - 40 gm umfassen können.

1. Vernetzende wässrige Beschichtungen

a. UV-vernetzende wässrige Beschichtungen

-Physikalische Trocknung durch Wärme in Trockenkanälen und/oder durch Infrarot strahlung

-Chemische Vernetzung durch ultraviolette Strahlung (UV)

-Typische Trockenschichtdicke 8 - 15 gm b. Hitze-vernetzende wässrige Beschichtungen

-Chemische Vernetzung durch hohe Temperaturen in Trockenkanälen

-Typische Trockenschichtdicke 8 - 12 gm c.Zweikomponentige wässrige Beschichtungen

-physikalische Trocknung durch Wärme in Trockenkanälen und / oder Infrarotstrah lung

-chemische Vernetzung durch die Härterkomponente

-Typische Trockenschichtdicke 5 - 20 gm

2. Vernetzende 100% - Systeme (Festkörpergehalt)

-Chemische Vernetzung und Härtung zum Beispiel durch ultraviolette Strahlung (UV) -Typische Trockenschichtdicke 10 - 25 gm in Zweischichtaufträgen auch bis 35 - 40 gm

3.Thermisch trocknende wässrige Dispersionen (nicht vernetzt) -Physikalische Trocknung durch Wärme in Trockenkanälen und/oder durch Infrarot strahlung

-Verwendung meist als temporäre Beschichtung

-durch Grundreiniger entfembar

-Typische Trockenschichtdicke 5 - 12 pm

Bevorzugte Ausfuhrungsformen:

4. Der erfindungsgemäße Schichtaufbau des elektronisch angesteuerten Anzei- geele- mentes sieht eine Schicht (1) mit dem elektronischen Element (E) vor, das opti- onal in eine Füllschicht eingebettet wird, die z.B. durch Bedruckung hergestellt wer- den kann.(l ) mit dem darüber befindlichen Anzeigeelement ( 2), z.B. hergestellt durch ein gedruckte Elektronik auf Basis von OLED und / oder Micro LED und /oder elektroni- scher Tinteund einer gegebenenfalls transparenten ein- oder mehrlagigen oberen Schicht (3). wird bevorzugt als vorgefertigte Verbundschicht (A) hergestellt. Diese kann dann beispielsweise als Verbundprodukt weiterverarbeitet werden. Be- vorzugte Stärke der Verbundschicht: 1 pm 2500 pm. Diese Verbundschichten können dann beispielsweise bei der weiteren Verarbeitung auf eine Trägerschicht (5) aufgebracht werden. Grundsätzlich kann die Verbundschicht auf jede geeignete Trägerschicht oder jeden Untergrund aufgebracht werden. Vorzugsweise besteht die Trägerschicht (5) aus folgenden Materialien: Papier, Karton, Kunststoff, Schichtstoff ( HPL,CPL DKS), Kunsstoffolie, Elastomer, Kautschuk, Schaumstoff, Me- tall, Textil, Gewebe oder Vlies, Holz, Holzwerkstoffe, WPC, Kork, Linoleum, Metall, steinbasierten-, feinsteinzeugbasierten -, mineralischen-, keramischen-, zementbasierten-, gipsbasierten- Untergründen und/oder Materialien oder Glas, insbesondere auch Gipskartonplatten, Gipsfaserplatten, Putzuntergründe und OSB-, HDF-,MDF- , Spanplatten oder Kombinationen dieser Materialien. Dabei kann die Trägerschicht (5) auch heterogen und / oder ein- oder mehrschichtig aufgebaut sein. In der Vorfertigung werden die Schichten (1-4) zu einer Verbundschicht (A) zusammengefügt, vorzugsweise durch Kaschieren mit einer Rollenkaschiermaschine, (Ther- mokaschierung oder Nass / Trockenkaschierung), Laminieren, (siehe dazu Ausfuhrun- gen unter 3a.) Thermisches Verbinden und / oder Kleben / Heißkleben oder thermisches Direktfugen, oder auch mit Hilfe doppelseitiger Klebefolien. Die Kunststofffolien in der Definition dieser Erfindung können auch in Form von geschmolzenem Kunststoff, z.B. als geschmolzenes Polymer aufgetragen werden zur Bildung der transparenten ein- oder mehrlagigen obere Schicht, z.B. durch Kalandrieren oder Gießen. Die Verbindung zur Trägerschicht kann mit den gleichen vorher genannten Verfahren erfolgen, vorzugsweise durch Flächenkaschierung auf einer Flächenkaschieranlage.

Dabei ist von Vorteil, wenn die Verbundschicht (A) optional eine unterseitige Schicht (4) als Haftvermittlerschicht und /oder selbstklebende Schicht zur Trägerschicht (5) aufweist. Die Haftvermittlerschicht kann wie in den unter (3a) und (3b) beschriebe- nen Ausführungen vorgesehen werden.

Die unterseitige Schicht (4) kann auch weitere Funktionen übernehmen, wie z.B. als Ausgleichsschicht um Unebenheiten der Trägerschicht auszugleichen. Dies ist vor- teil- haft bei der Oberfläche von Holzwerkstoffen, die aufgrund ihrer Rauigkeit, Unre- gel- mäßigkeiten oder Unebenheiten durch die Verbundfolie„durchtelegrafieren“

Desweitern kann die unterseitige Schicht (4) auch Schutzfunktion für die Schicht aus gedruckter Elektronik sein, um diese im Verarbeitungsprozess vor Feuchtigkeit und mechanischer Beanspruchung zu schützen (Verletzung der Metallschicht z. B. durch Kratzer).

Die unterseitigen Schicht (4) kann auch eine Dämpfungsfunktion übernehmen um beispielsweise die akustischen Eigenschaften der Oberfläche zu verbessern, wie etwa den Trittschall bei Bodenbelägen. Zudem kann die unterseitige Schicht (4) auch als Adapterschicht zu einer spezifischen Trägerschicht ausgebildet werden. Beispiel: Ausbildung als melaminbeharztes Papier für die Verpressung auf Holzwerkstoffe in einer Kurztaktpresse oder als Pa- pier/ Vliesschicht zur Verkelbung mit Kleister auf einer Putzoberfläche.

Diese Ausführungsform ist zum Beispiel für den Anwendungsbereich Tapeten, Dekorpapiere, Dekorfolien und Kantenmaterial in Form einer vorgefertigten Verbundfolie bzw. zur Kaschierung auf eine beliebige Trägerschicht vorgesehen. Zur Verbindung des erfindungsgemäßen Schichtaufbaus mit der Trägerschicht gelten im Übrigen die unter 3.a. genannten Ausführungen zum Thema Kaschieren und Laminieren. Ein besonders bevorzugter Anwendungsbereich ist die Herstellung von bedruckten Dekorpapieren / Folien , bedruckten Dekorfolien, Finishfolien ( fertig veredelte Ober- flächen) und Melaminfilmen für die Holzwerkstoff- und Möbelindustrie mit den Einsatzbereichen Fußboden, Möbel, Innenausbau und Caravan. Derartige Verbundfo- lien können auch für 3 D Anwendungen und Bauteile, wie z.B. als Ummantelungs-, Tiefzieh -, Postformingfolien eingesetzt werden.

Die Verwendung einer Verbundfolie mit aufgedmckter elektronischer Tinte und/ oder die Verwendung eines E-Paper hat zudem den Vorteil, dass ein sogennannter bistabiler Displayzustand entsteht, d.h. bei beendeter Stromzufuhr ist das letzte Bild noch Zusehen. Bei derartigen Displays wird nur beim Bildwechsel Strom benötigt.

Eine bevorzugte Ausführungsform des E Paper ist die Verwendung einer Elekrolytfolie mit Einsatz elektrochromer Moleküle. In eine derartige Folie können auch Muster ein- geprägt werden. Die bevorzugte Stärke einer solchen Folie liegt bei kleiner als 0,5 mm, insbesondere 0,3 mm, wobei die Folie ist hochflexibel, d,h, biegsam und rollbar ist.

5. Ausführungsbeispiel als Verbundfolie (A) Diese bevorzugte Ausführungsform weist zusätzlich eine Technikschicht ( T) auf, z.B. zur Aufbringung von elektrischen Leiterbahnen, vorzugsweise hergestellt durch Bedruckung mit metallischem oder metallhaltigem Material. Hiermit kann die Stromversorgung für das Anzeigeelement und das elektronische Element hergestellt werden. Die Technikschicht dient auch zur optionalen Unterbringung einer Batterie und /oder eines Akkus zur Stromversorgung, wobei die Stromversorgung, vorzugsweise drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und /oder eines Akkumulators und /oder Induktionsstroms und /oder durch Funkstrom oder durch Funkstrom und /oder durch Ultraschallübertragung, vorzugsweise mit piezo- technikbasierten Sensoren erzeugt wird. Beim Induktionsprinzip wird vorzugsweise ein Sender auf Basis einer magnetischen Dipolspule verwendet, beim Funkstrom auf Basis einer Sekundärspule verwendet. Optional kann die Stromzufuhr / Elektronik und Akkutechnik auch in einer externen Anschlussbox ausgelagert, bzw in Bauteielemente in tegriert werden.

Zwischen den Leiterbahnen ist optional eine Füllschicht (F) angeordnet als Isolationsund Ausgleichsschicht, damit sich Unebenheiten, verursacht durch den Querschnitt der Leiterbahn nicht an die Oberfläche sichtbar abzeichnen. Die Füllschicht (F) kann als z.B. als Beschichtung mit einem isolierenden Material (vorzugsweise Kunststoff), z.B. durch Bedruckung oder Lackierung hergestellt werden, oder durch eine separat aufgebrachte makierte Negativschicht.

6. Bevorzugte Ausführungsform: Digitales KFZ- Kennzeichen

Ein sehr innovativer bevorzugter Anwendungsbereich der Erfindung ist die Verwendung eines Anzeigeelementes vorzugsweise für ein Element als amtliches Kennzeichen für ein ein Fahrzeug, vorzugsweise für ein PKW, LKW, Omnibus, Zweirad, Motorrad, E Bike, E Roller, Caravan, Nutzfahrzeug, Anhänger, Strassenbahn, Zug, Flugmobile, insbesondere ein Flugzeug, ein Hubschrauber und ein Schiff.

Der Stand der Technik bei KFZ Kennzeichen besteht im Wesentlichen aus der Kenn- Zeichnung eines Fahrzeuges durch ein Blechnummernschild, zumeist in der Größe 520 xl 10 mm. Dieser Stand der Technik hat sich seit der Entwicklung der ersten PKWs in der Automobilgeschichte nicht wesentlich verändert. Das Schild enthält dabei folgende Informationen: Fahrzeugkennzeichen, Länderkennung, TÜV/ HU Plakette und die Stadt-/ Kreis-/ Landplakette.

Das KFZ Kennzeichen wird bei PKWs in der Regel im Front-und Heckbereich des Fahrzeugs angebracht. Für das hintere Kennzeichen ist eine Kennzeichen- beleuchtung am Fahrzeug vorgeschrieben. Vergleicht man den Stand der Technik eines heutigen Automobils und zeitgemäße Ser- viceangbote zur Mobilität , wie z.B. Elektromobilität, Autonomes Fahren, Fahrhilfen, Vekerhrslenkung, Carsharing Bordcomputer, LED Lichttechnik etc, so mutet das blecherne Kennzeichen an, wie ein altertümliches Relikt aus dem Analogzeitalter unserer Grossväter. Zudem ist es bezogen auf das heutige Automobildesign ein hässliches, un- ästhetisches, unwertiges Fremdelement an einem modern, designten PKW, wie z.B. beim Alfa Romeo, bei dem das Kennzeichen im Frontbereich zudem auch noch asym metrisch angeordnet ist.

Auch die behördliche Abwicklung bei den Strassenverkehrsämtern zur An- und Abmel- düng von Fahrzeugen, die ein persönliches Erscheinen des KFZ Halters oder KFZ Händlers erfordern, ist bürokratisch -, zeit- und kostenintensiv und entspricht nicht den organisatorischen und abwicklungstechnischen Möglichkeiten des digitalen Zeitalters. Erschwerend hinzu kommt das förderalistische Organisationsprinzip Deutschlands, mit den vielen dezentralen Strassenverkehrsämtern der Städte und Kreise der einzelnen Bundesländer, und einer dezentralen Daten- und Informationsverwaltung und Speicherung. Der Erfinder hat sich die Aufgabe gestellt hier ein grundlegend neues Konzept für diese Problemstellung zu entwickeln unter Ausnutzung sämtlicher Möglichkeiten des Digitalzeitalters. Die Grundidee besteht in der Gründung einer bundeseinheitlichen Blockchain Cloud der Strassenverkehrsbehörde (STVB) gesteuert und kontrolliert von den einzelnen Strassenverkehrsämtem (STVA), die die Datenhoheit besitzen. In dieser Blockchain - Cloud sind sämtliche Daten aller relevanten User -Gruppen rund um das Thema Mobili tät gespeichert und werden laufend kontrolliert, sowie aktualisiert. Dabei gibt es für die einzelnen Usergruppen definierte Zugriffs- und Transaktionserlaubnisse, die mittels ei ner Software / App via Smartphone an die Cloud übermittelt werden.

Beispiele für User -Gruppen sind STVA, Führerscheinstelle, KFZ Steuer, Punktekonto/ Bußgeld, KFZ Versicherung, TÜV, Polizei, Verkehrslenkung, KFZ Halter, KFZ Händ- 1er, KFZ Hersteller, Automobiclubs, u.a.m.

Desweiteren schlägt der Erfinder vor jedes Fahrzeug mit einem digitalen KFZ Kennzeichen auszustatten. Dabei handelt es sich um ein vorkonfiguriertes elektrisch angesteuertes Anzeigeelement mit einem integrierten elektronischen Element.

Dieses digitale KFZ Zeichen wird über eine drahtlose Verbindung über das Rechner netz der STVB durch die Blockchain Cloud direkt angesteuert.

Mit anderen Worten besitzt jedes digitale KFZ Kennzeichen - ein Bildschirmdisplay auf dem das Fahrzeugkennzeichen und weitere Informationen bildlich angezeigt werden, wobei diese Informationen über ein STVB eigenes staaatliches Funknetz, vorzugsweise auf 3G / $G / 5G Basis mit eigener geschüzter, Kanalbandbreite, aus der Blockchain- cloud direkt an das digitale KFZ Zeichen gesendet werden und auf diese Weise Zulassungen und Abmeldungen abgewickelt werden. Zur Identifizierung des KFZ Kennzeichens weist das Bildschirmdisplay ein elektronisches Element, z.B. in Form einer 3-5 G Simcard auf die mit einem Verschlüsselungscode gesichert ist. Jedes Digitale Kennzeichen hat einen eigenen ID Code, der der Fahrgestellnummer des KFZ zugeordnet ist.

Das digitale Kennzeichen stellt zudem eine Verbindung zum Bordcomputer des Fahrzeugs her und ermöglicht einen definerten Zugriff und Datenaustausch mit dem Bordcomputer durch die STVB Blockchaincloud. Das Prinzip der Blockchaincloud erlaubt eine sicher verschlüsselte Datenspeicherung und Datenverwaltung. Der o.g. ID Code besteht aus einerm mindestens 8-stelligen Zeichencode, aus einem Zeichenraum von mindestens 89 Zeichen. Dies ergibt eine Kombinationsmöglichkeit von 8 hoch 89, was im mathematischen Ergebnis unendlich ist und so einen Hacker - Angriff nach der Brüte Force Methode unmöglich macht.

Zusammengefasst ergeben sich daraus folgende erfindungsgemäße technische Ausführungen:

Anzeigeelement dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit einer IT-Infrastruktur über ein Rechnernetz aufweist.

Anzeigeelemennt dadurch gekennzeichnet, dass die IT-Infrastruktur ein verschlüssel- tesBuchfuhrungssystem und / oder Verfahren aufweist.

Anzeigeelement dadurch gekennzeichnet, dass das elektronische Element mindestens einen Verschlüsselungscode aufweist und/oder mit mindestens einem Verschlüsselungscode digital verknüpft ist.

Anzeigeelement dadurch gekennzeichnet, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.

Anzeigeelement dadurch gekennzeichnet, dass der Verschlüsselungscode in der IT -Infrastruktur gespeichert ist. Die Folie auf Seite 20 zeigt eine besonders bevorzugte Ausftihrungsform des digitalen Kennzeichens.

Das digitale KFZ Kennzeichen ist kompatibel mit gängigen KFZ Kennzeichen Halte- rungen. Es besitzt eine integrierte Schnittstelle bzw. Adapter-Steckverbindung zur Verbindung mit der Autobatterie und wird auf 12 V Basis betrieben. Zu diesem Zweck ist es erforderlich eine Kabelverbindung von der Autobatterie zum vorderen und hinteren Kennzeichen vorzusehen. Zudem enthält das Display eine interne Batterie und / oder Akku, falls die KFZ Stromversorgung ausfällt, dadurch wird eine Stromnotversorgung von z.B. 10 Stunden möglich Das vordere und hintere Kennzeichen können kabellos über Bluetooth und/ oder über eine Kabelverbindung miteinander verbunden werden. Das Display ist in Dauerfunktion, optional kann sich das Display nachts auch automatisch ausschalten. Displayinhalte werden von der STVB Blockchaincloud nach Erfassung der Stammdaten des KFZ automatisch auf das KFZ Kennzeichen Display gesendet und laufend aktualisiert. Den alleinigen, autorisierten Zugriff für das digitale Display hat die regional zuständige Strassenvekehrsbehörde ,d.h. hier liegt die Datenhoheit, die das digitale Kennzeichen steuert und kontrolliert bzw. aktualisiert oder löscht.

Das Strassenverkehrsamt ist zukünftig die zentrale, datenhoheitliche Kommunikations und Koodinationstelle zwischen den verschiedenen Usergruppen,

Alle relevanten Informationen der Usergruppen gehen als Information zunächst an die Behörde und werden dort zentral erfasst, kontrolliert, gespeichert .und laufend aktualisiert. Beispiele: TÜV Prüfer meldet HU Verlängerung, Polizei meldet technische Mängel am Fahrzeug, Halter meldet Wechsel der Haftpflichtversicherung etc.

Darüber hinaus ergeben sich durch das digitale KFZ Kennzeichen und die die digitale Vernetzung von Informationen der verschiedenen User Gruppen zahlreiche neue Zu- satziunktionen, sowie neue Anwendungsmöglichkeiten. Dies fuhrt zu einem neuen Le- vel der Effizienz nicht nur bei den Strassenverkehrsämtern , sondern für alle beteiligten User -Gruppen. Es folgt eine Übersicht über die wesentlichen Vorteile und Möglichkeiten des Gesamtkonzeptes. Neue Anwendungen und Zusatzfunktionen

Neben den Grundfunktionen lassen zukünftig auch ganz neue Zusatzftinktionen über das digitale Kennzeichen realisieren, wie z.B. ein bundesweites Verkehrsleitsystem über die GPS Erfassung des digitalen KFZ Kennzeichens oder auch durch Vernetzung mit dem Bordcomputer des KFZ kann das Strassenverkehrsamt die Einhaltung von Umweltauflagen kontrollieren ,wie .z.B. Kraftstoff -Verbrauchswerten, Abgaswerten, gemäss der Energieverbrauchskennzeichnung der Hersteller oder Fahrverbote für bestimmte Zonen aktivieren oder auch sicherheitsrelevante Kontrollen vornehmen wie etwa Geschwindigkeitskontrolle, Gurtpflicht, Abstandskontrolle... etc. über GPS Funktion mit automatischer Bussgeldzustellung oder eine Stilllegung des Fahrzeugs einstel- len ( z.B. Display komplett rot mit Text:„Ausser Betrieb“). Über die zentrale Digitalisierung der KFZ Daten ist zukünftig auch ein internationaler Datenaustausch zwischen einzelnen Ländern z.B. europaweit möglich und/ oder lässt sich europa- / weltweit vereinheitlichen. (KFZ-Cloud als Speicher) Vorteile für Strassenvekehrsämter (STVA )

a.Erhebliche Verbesserung der Leistungsfähigkeit und Effiziez der Strassenvekehrsbe- hörden:

b.Rasante Schnelligkeit in der Abwicklung von KFZ - Zulassungen durch ausschliessliche online Kommunikation mit relevanten Usern ,

w.z.B. KFZ Halter, KFZ Händler ...etc. Persönliches Erscheinen im Strassenvekehrs- amt nicht mehr notwendig. Zulassung eines Fahrzeuges ist in wenigen Minuten aktiv. Zentralisierung

c.Kostenreduktion in den Verwaltungsabläufend.

d.Eweiterter neuer Aufgaben / Kompetenzbereich

e.Personal übernimmt zukünftig Kommunikations und Kontrollfunktionen, wie z. Umwelt / Sicherheit etc., statt Personal abbauen Darüberhinaus entstehen zukunftsweisende, neue Kontrollfunktionen und Steuerungsmöglichkeiten für das STVA in den Bereichen Sicherheit, Umwelt, Verkehrs lenkung, Verkehrssicherheit, autonomes Fahren, durch Online Zugriff auf Kamera/ Video ( Live Cam) und Sensorfunktionen des digitalen KFZ, sowie definierter Zugriff auf Bordcom- puter. Der Pkw-Verkehr bringt externe Kosten, insbesondere im Bereich Umweltver schmutzung und Unfallfolgekosten, mit sich. Hier können Maßnahmen des STVA zur Erhöhung der Verkehrssicherheit dazu beitragen, dass die Zahl der bei einem Verkehrs unfall getöteten Personen reduziert wird. Weiterhin können damit die Sekundärkosten aller Verkehrsteilnehmer gesenkt werden, wie Unfall- und Umweltkosten (Lärm, Luftschadstoffe) werden, die ansonsten von der Allgemeinheit übernommen werden.

Sowohl Automobilbauer und Zulieferbetriebe als auch Unternehmen aus der IT- Bran- che, insbesondere Google, forschen und entwickeln am autonom fahrenden Kraftfahrzeug. Die Erfindung kann hier im erheblichen Maße zu einer zeitnahen Lösung dieser gesamten Thematik beitragen.

Auch Themen wie Parkleitsysteme, Parkhausbelegung, Vernetzung mit Car-Sharing Angeboten können zukünftig helfen die Innenstädte verkehrsmässig zu entlasten und den Verkehrsfluss zu optimieren. Das Digitale KFZ löst dabei das derzeitige Problem der Kennzeichnung eines Carsharing Fahrzeuges, da dies zum Beispiel durch eine andere Kennzeichenarbe im Display kenntlich gemacht werden kann.

Das STVA kontrolliert zukünftig die Einhaltung des Datenschutzes und führt eine re- gelmäßige Datenlöschung von Altdaten durch.

Es folgt eine beispielhafte Auflistung der neuen Möglichkeiten:

- Polizeikontrolle Über App möglich. Polizei kann sämtliche KFZ und KFZ Halter Informationen abrufen, z.B. Fahrzeugpapiere: Fahrzeugschein, Füherschein ist digital hin- terlegt in App, Durchführung von Fahrzeugkontrollen, :polizeilich gesuchte Fahrzeuge, TÜV Kontrolle, Geschwindigkeitskontrolle , Fahrzeugsicherheit, GPS Ortung von Fahrzeugen. Mängelanzeige KFZ, Stillegungsinfo an Strassenverkehrsamt, Bussgeldinfo

-Führerscheinkontrolle/ Fahrer muss sich zukünftig in Fahrzeug einloggen dadurch wird Führerscheinstatus, Punkte in Flensburg, Führerschein wird digital hinterlegt in App

-Kontrolle: Einhalten von Fahrpausen / vorgeschriebenen Pausen, Fahrtenbuch wird gespeichert, Fahrten Buchfunktion, Fahrtenschreiberfunktion: Überprüfung und Kontrolle von Fahrtzeiten. Automatischer Hinweis auf Fahrpausen auf Bordcomputer

-Diebstahlschutz. Codierung Fahrgestellnummer und Kennzeichen, bei nicht Übereinstimmung:: Fahrsperre aktivieren

-Kontrolle der Gurtpflichterfullung durch Vernetzung mit Bordcomputer über Blue- tooth, automatische Meldung bei Verstoss, mit Bussgeldbescheid

-Kontrolle Telefonierverbot mit Mobilphone während der Fahrt über Verbindung mit Bordcomputer, automatische Meldung bei Verstoß, mit Bussgeldbescheid -Online Kontrolle des STVA Lichtanlage und Bereifung, Profiltiefe Sommer/ Winterreifen

-Pannenhilfe, SOS Funktion, Notruf, Stau: auf dem Display erscheint entsprechender Text , Blinkfunktion etc. Durchsagen über Bordlautsprecher, Stau, Umleitungen, SOS....

-automatische Erkennung von Geschwindigkeitsüberschreitungen per GPS inclusive Bussgeldbescheid -Abstandsmessung zum Vorderfährzeug über Sensor/ inclusive Bussgeldbescheid bei

Verstoss -Mautinformationen : Automatische Erfassung und Abbuchung von Mautpflichtigkeit

-Speicherung aller relevanten Stammdaten von KFZ Halter/ KFZ Händler/ KFZ/ TÜV Hersteller: Fahrzeugschein, Fahrzeugbrief, Führerschein, Fahrzeug, Austattung, Be- triebsanleitung, Reparaturhistorie Versicherungsstatus, Haftpflicht, Kasko ,TÜV TÜV kann durch App Prüfsiegel aktualisieren, separater Zugriff nur auf TÜV bereich,

-Kontrolle und Belohnung defensives Fahren und Teilnahme Fahrsicherheitstraining, Auswertung Fahrverhalten über Bordcomputer, Belohnung: Senkung der KFZ Steuer und Versicherungsbeiträge... Kosten für den Fahrzeughalter senken

-Individualisierung des Kennzeichens z.B. individuelle grafische Gestaltung ,z.B. Auswahl von verschiedenen grafischen Hintergründen -Zusatzfimktionen KFZ Display: Anzeige von Verkehrsinformationen, Gefahr, Stauende, Pannenhilfe, Kommunikation mit anderen Verkehrsteilnehmern....

-Vorteil für Fahrzeughersteller: Intergration des digitalen KFZ Zeichens in Karosseriedesign bei Neuentwicklungen der Autohersteller, neue Designmoöglichkeiten durch flächenbündige Integration in die Karosserie- Aussenhülle, dadurch diebstahlsicher, Bei Neuentwicklungen kann Position, Format, Form und Grösse des Kennzeichens variieren

-Kennzeichen bei Dunkelheit erkennbar, digitales KFZ Display leuchtet Tag und Nacht durchgängig, geringer Stromverbrauch und / oder ohne Strom durch bistabilen Display zustand mittels elekrronischer Tinte, Bessere Erkenn -und Lesbarkeit des Kennzeichens, Mehr Informationen und Zusatzinformationen ablesbar

-Die Kennzeichenbeleuchtung am Heck des KFZ entfällt

-Display ist kompatibel und nachrüstbar für konventionelle Kennzeichen Halterungen -Vermeidung von Metallschildern, die im Lebenszyklus durchschnittlich bis zu 5 x gewechselt werden -digitales KFZ Schild ist i lschungssicher durch doppelte GPS Funktion, d.h. von GPS Bordcomputer und GPS des digitalen Kennzeichens, bei Entfernung des KFZ Zeichens wird abweichende GPS Ortung erkannt und automatisch an STVA gemeldet und automatische Mitteilung an Polizei -Personenerkennung über Sensor/ Kamera

-Diebstahlsicherungsfunktion: Fahrzeugzugriff und Fahrfunktion nur durch Einloggen des Fahrers möglich oder Zugriff nur durch definierten Fahrer- Personenkreis Codierung ob Fahrzeug fremdgeöffnet wurde, GPS Ortung von gestohlenen Fahrzeugen

-Akustische und optische Signale bei Diebstahlversuch, automatische Kameraaktivierung und automatische Bildversendung bei manipulationen am KFZ Schild, Meldung an Polizei -Verkehrslenkung durch eingebaute GPS Erkennung, aktuelle Infos an Bordnavi, automatische Navisteuerung, Verkehrsleitsystem, Stauminimierung

- Parkleitsystem , Parkhausbelegung, -Vernetzung mit Car sharing Angeboten

Ein wichtiger neuer Anwendungsbereich ist die Kontrolle der Fahrzeughersteller. Der Dieselskandal hat gezeigt, dass zukünftig eine staatliche Regulierung und Kontrolle der übermächtigen / kriminellen Autoindustrie erforderlich ist. Durch neue Gesetze könnten die Automobiihersteiier verpflichtet werden, die Einhaltung von Gesetzen und Normen, wie z.B. Umweltauflagen, Schadstoffausstoss, Verbrauchswerte messbar im Bordcom- puter zu hinterlegen. Hier kann die Erfindung dazu beitragen, dass über das digitale KFZ Zeichen in Verbindung mit dem Bordcomputer die Einhaltung sämtlicher Auflagen durch den Staat, durch die Strassenverkehrsbehörde bzw. das Strassenverkehrsamt kontrolliert wird. Es folgt eine beispielhafte Auflistung der neuen Kontrollmöglichkei- ten.

-Einhaltung der Werte Pkw-Verbrauchskennzeichnungsverordnung

-Kontrolle TreibstoffVerbrauch über Bordcomputer Einhaltung des Energieverbrauchs

Klasse a+- G

-Kontrolle Lärm über Bordcomputer

-Kontrolle Schadstoffemission über Bordcomputer

Problemstellung

Die Verbreitung des Internets, das am am 29. Oktober 1969 als Arpanet begann, hat zu umfassenden globalen Umwälzungen in vielen Lebensbereichen geführt. Es trug zu einem Modemisierungsschub in vielen Wirtschaftsbereichen sowie zur Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des globalen Kommunikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich ge- führt. Das Internet gilt bei vielen Experten als eine der größten globalen Veränderungen des Informationswesens seit der Erfindung des Buchdrucks mit großen Auswirkungen auf das alltägliche Leben. Im Jahr 2013 hat der Bundesgerichtshof erklärt, dass das In ternet zur Lebensgrundlage von Privatpersonen gehört. Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Internets und durch Anonymität als schwer durchsetzbar angesehen werden. Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsi- cherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeicherung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig einge- stuft wurde. Auch international wird die Kontrolle des Internets durch den Staat aufmerksam beobachtet, etwa beim Internet in der Volksrepublik China.

Gerade in dem Nutzen des schnellen, unkomplizierten Datentransfers und der Erfüllung wichtiger organisatorisch-struktureller Aufgaben liegt zugleich auch die Gefahr des In- ternets. Denn Macht bringt immer auch Missbrauch mit sich und so hat sich Cyberkriminalität zu einer massiven Bedrohung für den Staat bzw. das Staatsrecht und seine Bürger etabliert.

Cyberkriminalität (Cybercrime) ist ein weltweit, wachsendes, ungelöstes Problem, das weder an Landesgrenzen noch vor verschlossenen Türen Halt macht. Sie kann überall stattfinden, wo Menschen Computer, Smartphones und andere IT-Geräte benutzen - in Firmen, Behörden, Universitäten, zu Hause und unterwegs. Die Besonderheit der Cyberkriminalität besteht darin, dass die Täter nahezu von jedem Ort der Welt aus agieren und ihre Spuren relativ gut verschleiern können. Zudem muss der Tatort nicht zwingend mit dem Taterfolgsort identisch sein. Nicht nur die Zahl der betroffenen Computer und Smartphones steigt, sondern auch die Professionalität der Täter. Es gibt immer mehr sehr gut vorbereitete Cyberangriffe auf ausgewählte Ziele, bei denen das Schadenspo tenzial für die Betroffenen erheblich ist. Hierzu gehören zum Beispiel Angriffe auf Wirtschaftsunternehmen oder Kritische Infrastruktureinrichtungen.

Im engeren Sinn werden laut Bundeskriminalamt folgende Handlungen als Cybercrime bezeichnet: Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen,, Computerbetrug, Betrug mit Zugangsberechtigungen zu Kommunikationsdiensten, Computersabotage, Datenveränderung, Fälschung beweiserheblicher Daten , Täuschung im Rechtsverkehr bei Datenverarbeitung^ 270) Zur Computerkriminalität im weiteren Sinne zählen in Deutschland alle Straftaten, bei denen die EDV zur Planung, Vorbereitung oder Ausführung eingesetzt wird. Diese erstrecken sich mittlerweile auf nahezu alle Deliktsbereiche, in denen das Tatmittel Internet eingesetzt wird. Beispielsweise: Alle Ausprägungen digitaler Erpressung, Urheber- und Markenrechtsverletzung, unerlaubte Veranstaltung eines Glücksspiels, der Vertrieb verbotener Substanzen, Verstöße gegen das Verbreitungsverbot oder den Jugendmedi enschutz, der Austausch von kinderpornographischen Darstellungen, die onlinebasierte Anbahnung eines sexuellen Missbrauches von Kindern - dem sog. Cyber-Grooming oder Gewalt verherrlichender Propaganda (Volksverhetzung) oder die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen, Cyber-Mobbing bis hin zum Cyber-Terrorismus, Cyberspionage, Cyber-Mobbing.

Der Übergang zu Methoden und Verfahren des Cyberwar („Netzkrieg“) ist mittlerweile fließend geworden; im Einzelfall ist durchaus nicht ohne weiteres auszumachen, ob ein Angriff im Netz einschlägig kriminellen Zielen dient oder militärisch bzw. politisch in tendiert ist ,etwa bei einer weitreichenden Sabotage des stark ITK-abhängigen Finanzsystems oder der Webpräsenzen öffentlicher Einrichtungen im weitesten Sinn. Den Beobachtungen zufolge professionalisiert sich die„Malware-Branche“ zunehmend, die Angriffe auf Rechner und Rechnernetze werden immer ausgefeilter.

Bedingt durch den Innovationsfluss der Technik wachsen auch die Möglichkeiten, kriminelle Energien gewinnbringend freizusetzen. An Werbeterror - Belästigungen durch Adware, die sich im Browser als Toolbar oder Add-on einbindet und versucht, z.B. Werbung zu integrieren, hat sich der Intemetuser bereits längst gewöhnt. Auch die Datensammlung durch Datenmonopole wie Google, Facebook, Microsoft wird vom Bürger und von staatlicher Seite geduldet.

Gerade Plattformen wie das sogenannte Darknet sind ein Nährboden für kriminelle Netzwerke. Derartige, von außen nicht ohne weiteres betretbare, dunkle Paralleluniver- sen können der Planung und Durchführung von Handlungen dienen, die zum Cy- bercrime gehören. Ein Beispiel hierfür ist unter anderem der Austausch und die Verbreitung kinderpomographischer Inhalte sowie der Kauf von Waffen oder Drogen.

Doch auch abseits solcher Netzwerke treiben Cyberkriminelle ihr böses Spiel, bei- spielsweise durch„Phishing“-Mails, die dazu dienen, sensible Personendaten zu erhalten. Insbesondere die Infizierung und Manipulation von Computersystemen durch Viren, und Schadsoftware, wie z.B. Spyware , zur Speicherung von sensiblen Nutzerdaten oder schädliche Virencodes, die Programme und Rechner unbrauchbar machen ist eine gängige Praxis. Mittels Trojanern, auch Malware genannt, oder anderer Programme werden persönliche Daten und Zugangsberechtigungen erfasst. Dadurch kann die Identität des Betroffenen gestohlen werden, was es dem Täter beispielsweise ermöglicht, Bank-Konten zu hacken oder auf Social-Media- Plattformen, zum Beispiel Facebook oder Twitter, zuzugreifen. Auch Kyptotrojaner (Ransomware) werden dazu genutzt, sich finanziell zu bereichern. Mittels solcher Malware werden die infizierten Geräte ge- sperrt. Die erneute Freigabe erfolgt dann erst nach der Zahlung eines eingeforderten Lösegeldes. Hier kann beispielsweise der Tatbestand einer Erpressung vorliegen. Tük- kisch sind auch Botnetze, also mehrere infizierte Geräte, die durch den Angreifer aus der Ferne kontrolliert werden können. IT Experten gehen davon aus, dass die Onlinesicherheit, Intemetsicherheit, und IT- Sicherheit, d.h. der Schutz vor Intemetkriminalität, auf Sicht weder machbar, noch beherrschbar ist. Im Gegenteil: Es ist mit einer Zunahme der Internetkriminalität zu rech nen. Von daher besteht dringender Handlungsbedarf die Informationssicherheit von informationsverarbeitenden und -lagernden (technischen oder nicht-technischen) Systemen sicherzustellen, mit den Schutzzielen : Vertraulichkeit, Verfügbarkeit und Integrität Die Informationssicherheit, d.h. der Schutz vor Gefahren bzw. Bedrohungen, und die Ver meidung von wirtschaftlichen Schäden und die Minimierung von Risiken durch Cyber- kriminalität ist eine staatliche Aufgabe von höchster Priorität. Zielsetzung des Staates muss es sein das Recht auf informationeile Selbstbestimmung effektiv und dauerhaft zu gewährleisten, durch innovative Datenschutzverfahren- und Systeme, die als Datenschutzrecht gesetzlich zu verankern sind. Dazu sind radikale Veränderungen im Datenschutzrecht notwendig.

Datenschutz muss verstanden werden als Schutz vor missbräuchlicher Datenverarbeitung und Schutz des Rechts auf informationelle Selbstbestimmung, Schutz des Persön lichkeitsrechts bei der Datenverarbeitung und auch Schutz der Privatsphäre. Datenschutz ist das Recht, dass jeder Mensch grundsätzlich selbst darüber entscheiden darf, wem wann welche seiner persönlichen Daten zugänglich sein sollen. (Datenhoheit) Der Wesenskem eines solchen Datenschutzrechts besteht dabei darin, dass die Machtungleichheit zwischen Organisationen und Einzelpersonen unter Bedingungen gestellt werden wird. Der Datenschutz muss der in der zunehmend digitalen und vernetzten Informationsgesellschaft bestehenden Tendenz zum sogenannten gläsernen Menschen, dem Ausufem staatlicher Überwachungsmaßnahmen (Überwachungsstaat) und der Entstehung von Datenmonopolen von Privatuntemehmen entgegenwirken.

Das Recht auf informationelle Selbstbestimmung ist im Recht Deutschlands das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner perso- nenbezogenen Daten zu bestimmen. Es ist nach der Rechtsprechung des Bundesverfassungsgerichts ein Datenschutz-Grundrecht, das im Grundgesetz für die Bundesrepublik Deutschland nicht ausdrücklich erwähnt wird. Der Vorschlag, ein Datenschutz- Grundrecht in das Grundgesetz einzufiigen, fand bisher nicht die erforderliche Mehrheit. Personenbezogene Daten sind jedoch nach Datenschutz- Grundverordnung und nach Art. 8 der EU-Grundrechtecharta geschützt.

Da jedoch kein Land dieses grenzüberschreitende Problem für sich alleine lösen kann, ist eine gute internationale Zusammenarbeit unabdingbar. Aufgabe der Erfindung

Aufgabe der Erfindung ist es, sämtliche und jedwedes der oben dargestellten Computer / Internet und IT- Sicherheits- Probleme zu lösen, durch eine technisch, innovative digi- tale IT-Systemstruktur bestehend aus einer Anordnung von Hardware- und Software komponenten, sowie einem damit verbundenem Verfahren zur Anwendung dieser Hardware und Softwarekomponenten. Insbesondere ist es Aufgabe der Erfindung eine Verschlüsselung der neuen IT Systemstruktur zur Verfügung zu stellen, die eine 100% Datensicherheit bietet und keinen Missbrauch durch Cybercrime zulässt.

Beschreibung der Erfindung

Die Erfindung schlägt eine neue IT Systemstruktur vor, darauf basierend , dass zunächst eine autarke, zentrale neue IT Systemstruktur in Form einer Cloud zur Verfügung gestellt wird, d.h. ein Rechnernetzwerk, mit onlinebasierten Speicher- und Ser- Verdiensten zum Cloud Computing mit dem Ziel ein alternatives Internet zum World- wide Web zu gründen und zu betreiben.

Cloud Computing (deutsch Rechnerwolke oder Datenwolke) beschreibt die Bereitstellung von IT-Infrastruktur wie beispielsweise Speicherplatz, Rechenleistung oder An- wendungssoftware als Dienstleistung über das Internet.

Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT- Infrastruktu ren über ein Rechnernetz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen.

Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich durch technische Schnittstellen und Protokolle, etwa mittels eines Webbrowsers. Die Spannweite der im Rahmen des Cloud Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Infrastruktur, Plattformen und Software. Das Konzept ist es, eine zentrale, von staatlicher Stelle gesteuerte Cloud, nachfolgend als„Eurodata“ bezeichnet, zu gründen, in Form eines Rechner- Netzwerkes, mit der Funktion eines zunächst auf europäischer Ebene (EU Länder) betriebenen Internets bzw. Intranets als geschlossene, IT Systemstruktur für Europa, abgekoppelt vom World Wide Web, mit der Option, dass zukünftig weitere -bis alle Länder weltweit darin auf genommen werden können. Zielsetzung ist es das World Wide Web zukünftig abzulösen und durch das sichere„Eurodata“ Netz, welches sich dann zum„Worldata“ Netz weiterentwickelt, zu ersetzen. Die Cloud„Eurodata“ dient dazu, zukünftig, sämtliche, in Europa erzeugten, Daten und Informationen und Transaktionen jedes einzelnen Bürgers zentral sicher zu speichern, zu kontrollieren und zu verwalten, beruhend auf dem Prinzip der informationeilen Selbstbestimmung, d.h. jeder einzelne Mensch/ Bürger entscheidet grundsätzlich selbst darüber, wem und wann und welche seiner persönlichen Daten zugänglich sein sollen. Die Datenhoheit liegt beim Bürger. Die Daten werden geheim gespeichert und aus schliesslich vom jedem EU Bürger persönlich kontrolliert und verwaltet Der Bürger entscheidet über die Teilung von Daten mit Dritten und Zugriffserlaubnisse, die er in seinem Nutzerprofil definiert und zulässt. Zudem gibt es streng reglementierte Zugriffserlaubnisse auf definierte Grunddaten des einzelnen Bürgers z.B. für staatlich, behördli- che z.B. Finanzamt, polizeiliche etc. Kontra llzwecke. Nach dem Tod werden die Daten für immer gelöscht. Beispiele für Daten und Transaktionen: Persönliche Daten: Tele fonnummer, Mobilnummer, Personalausweis, Führerschein, Bank-Kreditkarten, Versicherungsdaten, Krankenkasse, Arztbesuche , Verträge, Steuerliche Daten, Einkünfte, Kapitalerträge, Kindergarten, Schule, Beruf, Ausbildung, Arbeitgeber, Zeugnisse, Di- plom, Selbstständiger, Arbeitsamt, geschäftliche Transaktionen Verträge, Bezahlen im Internet und im Einzelhandel, Speicherung von Privatdaten, z.B. Fotos, Privatdokumenten, Verträgen u.v.a.m. Der Vorteil ist eine Vereinfachung des Lebens für jeden einzel nen Bürger und der Staatsbürokratie. Alle relevanten, persönlichen 100% gesichert, sicher verwahrt. Und jederzeit zugänglich. Nach Übertragung aller bisherigen Daten in die Eurodata Cloud wird jedes Unternehmen, (Datenmonopole wie Google, Facebook, Microsoft etc.) gesetzlich verpflichtet alle perönlichen Daten zu löschen. Das Konzept sieht vor alle in der Vergangenheit gespeicherten Daten auf Null zu setzen.

Das gleiche Prinzip gilt auch für den gesamten, staatlich, öffentlichen und privatwirt schaftlichen-/ gewerblichen Informations - und Datenverkehr, sowie für die Datenspei cherung die zukünftig über die Cloud„Eurodata“ erfasst und abgewickelt wird. Ziel ist es jedwede Inforrmation zu zentralisieren und sicher, informationell selbstbestimmt, durch die„Eurodata“ Cloud zu steuern.

Die Sicherheit der„Eurodata“ Cloud wird dabei gewährleistet durch das Blockchain- Verfahren, einem dezentral geführten Buchführungssystem, unveränderbar, falschungs- und manipulationssicher.

Das Verfahren der Blockchain, eine kryptografischen Verkettung in einem dezentral geführten Buchführungssystem, ist bisher bekannt als die technische Basis für Kryp- towährungen (Bitcoin), kann aber darüber hinaus in verteilten Systemen zur Verbesserung bzw. Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Syste- men beitragen. Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort. Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin„Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsensprotokoll, ein algorithmisches Verfahren zur Abstim- mung. Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fal- schungs- und manipulationssicher. Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestal tung des Vertraulichkeitsgrads. Durch die Nutzung digitaler Signaturen sind Informa tionen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilneh- mende unabstreitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.

Die Blockchain wird auch genutzt, wenn ein Buchführungssystem dezentral geführt wird und der jeweils richtige Zustand dokumentiert werden muss, weil viele Teilnehmer an der Buchführung beteiligt sind. Dieses Konzept wird als Distributed- Ledger- Technologie (dezentral geführte Kontobuchtechnologie) oder DLT bezeichnet. Was dokumentiert werden soll, ist für den Begriff der Blockchain unerheblich. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als rich tig bestätigen, indem sie die Kenntnis der früheren Transaktionen beweisen. Damit wird es unmöglich gemacht, Existenz oder Inhalt der früheren Transaktionen zu manipulie ren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu zerstören. Andere Teilnehmer der dezentralen Buchführung, die noch Kenntnis der späteren Transaktionen haben, würden eine manipulierte Kopie der Blockchain daran erkennen, dass sie Inkonsistenzen in den Berechnungen aufweist.

Der dezentrale Konsensmechanismus ersetzt die Notwendigkeit einer vertrauenswürdi gen dritten Instanz zur Integritätsbestätigung von Transaktionen.

Die Dezentralisierung der IT durch die Eurodata„Cloud“ im Allgemeinen und Block- chain im Speziellen bringt für den gesamten, privaten, staatlichen-, öffentlichen und wirtschaftlichen-/ gewerblichen Informations - und Datenverkehr erhebliche Vorteile: - unveränderbare, fälschungs- und manipulationssichere Daten aus Bürgersicht:

-Abschaffung der Cyber- und Wirtschaftskriminalität, Betrug, Steuerhinterzie- hung,...etc.

-Wertvolle Informationsdaten für gemeinnützige, gesellschaftliche und kulturelle Zwecke in den Bereichen Gesundheit , Medizin, Umwelt etc. -Transparenz sämtlicher Prozesse der Wirtschafts.- und Finanzwelt durch staatliche Kontrollmöglichkeiten mit„Eurodata“

-Schutz großer Datenmengen mittels Verschlüsselung und Zugriffsverwaltung;

-Möglichkeit, große Datenmengen unternehmensübergreifend zu sammeln und analy- sieren einfachere Verifzierung von Datenbezugspunkten

-automatische Aufspüren von Schwachstellen in der Lieferkette, im Zahlungsverkehr und anderen Geschäftsprozessen

-Reduktion oder Vermeidung von unnötigen Kosten für die IT-Infrastrukur

-Reduktion der Kosten für interne und externe Finanztransaktionen, Finanzreporting und Verwaltung

- Schaffung eines Mechanismus zur Verbesserung des Vorstandsreportings und des regulatorischen Reportings -Beschleunigung des Jahresabschlusses. Dieser radikale Schritt der„Eurodata“ Cloud Einführung auf Basis des Blockchain - Verfahrens ist notwendig und alternativlos, um die zuvor dargestellte nicht beherrschbare und nicht lösbare Sicherheitsproblematik des Internets (World Wide Web) endgültig zu beenden. Dies erfordert eine grundlegende, neue europäische Rechtsregelung und Gesetzgebung im Bereich der Informations-und Datensicherheit, die jeden Bürger und jedes Unternehmen / Institution gesetzlich zur Teilnahme an„Eurodata“ verpflichtet.

Für die praktische Durchführung des Cloud Computings mit“Eurodata“ ist es notwendig, dass jeder Bürger/ Teilnehmer bzw. jedes Unternehmen/ Institution eine Zugangs- berechtigung erhält , mittels eines verschlüsselten, fälschungs- und manipulationssiche ren Verfahrens zur Identifizierung und Authentifizierung.

Der Kern der Erfindung schlägt die Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Computer-, Smartphone- ,PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Su percomputer, Vorrichtungs-, und /oder Bauteilelement mit Verbindungs- und

/oder Identifikations- und /oder Zuordnungs- und/oder Authentifizierungsfunktion Nutzers im Netz, insbesondere Funknetz, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit mindestens einem Hardwarelement und/ oder einer (integrierten) Software, vorzugsweise zur Bilderkennung, insbesondere Iriserkennung, aufweist.

Die Erfindung sieht vor, den Irisscan als Erkennungsverfahren einzusetzen, als Zu gangsberechtigung zur„Eurodata“ Cloud. Der Irisscan ist eine wissenschaftlich aner- kannte, sichere Methode zur Identifizierung eines Menschen. Die Iriserkennung ist eine Methode der Biometrie zum Zweck der Authentifizierung oder Identifizierung von Personen. Dafür werden mit speziellen Kameras Bilder der Iris (Regenbogenhaut) des Auges aufgenommen, mit algorithmischen Verfahren die charakteristischen Merkmale der jeweiligen Iris identifiziert, in einen Satz numerischer Werte (Merkmalsvektor, engl. „Template“) umgerechnet und für die Wiedererkennung durch einen Klassifizierungs- algorithmus wie z. B. ein Neuronales Netz gespeichert bzw. mit einem oder mehreren bereits gespeicherten Templates verglichen. Kommerzielle Erkennungsverfahren erfassen etwa 260 individuelle optische Merkmale der Iris. Dazu ist notwendig, dass jeder Bürger gesetzlich verpflichtet wird an einem amtlichen Irisscan teilzunehmen, z.B. des rechten Auges, der dann als Daten und/oder Bilddatensatz in der„Eurodata“ Cloud für die Identifizierung jedes einzelnen Bürgers gespeichert wird.

Als weitere Sicherheitsstufe für die Zugangsberechtigung zur„Eurodata“ Cloud schlägt die Erfindung ein sicheres Verschlüsselungsverfahren vor, bei dem ein Identitätscode für jeden einzelnen Bürger mit einer Software generiert wird, der mit dem Irisscan in der„Eurodata Cloud“ digital verknüpft wird. Der Identitätscode wird durch die Software anonym und für jedermann streng geheim generiert und dem amtlichen Irisscan jedes einzelnen Menschen / Bürgers als Verknüpfung zugeordnet und ist ausschliesslich in der Eurodata Cloud gespeichert. Das Sicherheitskonzept sieht vor, das jedem Menschen / Bürger bei Geburt dieser Identitätscode von staatlicher Seite einmalig zugeord- net wird als lebenslanger Identitätscode, der gleichzeitig Passwordfünktion übernimmt, für alle Angelegenheiten des Lebens/ digitalen Lebens von A-Z ( Ausweisfunktion, Einkäufe im Internet, Arzt, Versicherungen... etc.) als einziges lebenslanges Password, der nur ist nur gültig ist in Verknüpfung mit einer aktuellen Iriserkennung und Irisidentifikation jedes einzelnen Bürgers.

Die Erfindung sieht vor, dass mindestens einen Verschlüsselungscode für die Identifizierung eingesetzt wird. Weiterhin ist vorgesehen, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.

Das bedeutet mathematisch, dass es 89 hoch 8 Möglichkeiten der Bildung eines Codes/ Passwortes gibt, was im mathematischen Ergebnis unendlich ergibt. Ein deratiger Code ist zu 100% sicher, da er nicht entschlüsselt werden kann, da die Rechenzeit beipiels- weise mit einem Brute-Force-Angriff durch einen Hacker unendlich lang ist. Im Ergebnis ist der Identitätscode/ Password anonym und absolut geheim in der Eu- rodata Cloud gespeichert und ist niemandem, selbst dem einzelnen Bürger nicht, be kannt. Vorteil: Das bisherige Password Chaos durch immer neue, geänderte und vergessene Passwörter im Internet entfällt vollständig und das Password muss nicht aufgeschrieben oder auswendig gelernt werden da es nur in Verbindung mit einem aktuellen Irisscan gültig ist. Weiterhin sieht die Erfindung ein Verfahren vor mit dem die Zugangsberechtigung zur „ Eurodata“ Cloud jedes einzelnen Bürgers sicher ausgeübt werden kann. Damit kann jeder Bürger z.B. Daten speichern, im Internet bezahlen etc.

Dazu wird von staatlicher Seite ein elektronisches Element, genannt Omnicard, mit Prozessor- und Speicherfunktion für jeden einzelnen Bürger mit dem individuellen Identifijkationscode des Bürgers konfiguriert, bereitgestellt. Dieses elektronische Element wird zum Beispiel in einen Rechner, z.B. Smartphone eingebaut. Das Elektronische Element (Omnicard) hat die Funktion einer SIM Karte, die sich über den Irisscan des Bürgers automatisch mit der Eurodata Cloud verbindet und bei Erkennung des Bür- gers den Zugang bzw. eine Transaktion ffeischaltet. Dazu ist notwendig, dass es zukünftig nur noch ein einziges, staatlich gesteuertes Kabel und Funknetz gibt und auch die Herstellung und der Einbau des elektronischen Elements ( Omnicard ) in z.B. Computer-, Smartphone-, PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook- , Großrechner, Monitore , Displays oder / und in sonstige Vorrichtungs-, und /oder Bau- teilelemente , unter staatliche Kontrolle gestellt wird, beispielsweise durch staatlich zertifizierte Unternehmen.

Die Erfindung sieht weiter vor, das die Iriserkennung über ein Hardwarelement, vorzugsweise durch eine Kamera und /oder einen Scanner erfolgt, der in das elektronische Element integriert wird und / ' oder in Verbindung damit steht. Weiter ist vorgesehen, dass das elektronische Element mit einer vorkonfigurierten staatlichen Software ausge- statet ist wird und /oder in Verbindung damit steht, die mindestens ein Programm zur Bilderkennung, insbesondere Iriserkennung, aufweist.

Als Identifizierung beispielsweise zum Bezahlen im Supermarkt, erstellt der Bürger mit seinem Smartphone über die Omnicard- Software/ App und die Kamera einen Irisscan, vorzugsweise des rechten Auges, wodurch automatisch eine Verbindung zur„Eurodata“ cloud hergestellt wird, wo der aktuelle Irisscan, z.B. durch eine Bilderkennungssoftware mit dem amtlich gespeicherten Irisscan abgeglichen wird, und mit dem Identifikationscode verknüpft ist und bei Erkennung eine Freischaltung der Bezahlung erfolgt. Damit solche Transaktionen absolut sicher sind, erstellt die Omnicardsoftware einen aktuellen Zeitstempel des Irisscans, der nur begrenzte Zeit gültig ist, z.B. 9 Minuten. Dadurch wird ein Missbrauch durch z.B. durch Hackerangriffe mit gefälschten Irisscans ausgeschlossen, da ausschliesslich eine Kamerauafnahme über die Omnicard Software und Kamera mit Zeitstempel akzeptiert wird.

Die Erfindung schlägt vor, dass die Omnicard Software/ App neben der Iriserkennung weitere Programme aufweist. Die Omnicard App enthält beispielsweise folgende Funktionen: 1. Scanner, Camera Software für Iris- Identifizierung

2. Geschäftliche Transaktionen und Einkäufe, Bezahlen im Internet und Einzelhandel 3. Speicher und Verwaltungsprogramm für alle digitalen Angelegenheiten des Bürgers ^Einstellungen des Nutzerprofils, ( z.B.Teilen von Daten mit Dritten)

5. Kommunikationssoftware, Email, Eurotalk ( wie whatsapp)

6. Gemeinschaftsdatenbank mit Zugriff für Bürger, Steuern und Abgaben - Gesundheit

, Umwelt und Ökologie , Sicherheit, Presse etc.

Das gleiche Prinzip gilt auch für den gesamten, staatlich, öffentlichen und wirtschaftlichen-/ gewerblichen Informations - und Datenverkehr, sowie für die Datenspeicherung die zukünftig über die Cloud„Eurodata“ erfasst und abgewickelt wird. Dazu wird jedes in Europa agierende Unternehmen zur Teilnahme an der Eurodata Cloud gesetzlich verpflichtet. Wer nicht teilnimmt hat keine Geschäftsberechtigung und schliesst sich selber aus. Zur eindeutigen Zuordnung von Verantwortlichkeiten erfolgen sämtliche Transaktionen in diesem Bereichen auschliesslich über den Identitätscode jeden einzelnen Bürgers verknüpft mit seiner Funktion z.B. als Angestellter eines Unternehmens, im staatlichen/ öffentlichen Dienst, z.B. Staatsregierung, Polizei, Behörden z.B. Finanz amt, Politiker... etc., Hier schlägt die Erfindung vor eine Datenbank Struktur mit Zugriffsberechtigungen für die verschiedenen Nutzergruppen zur Verfügung zu stellen. Insebesondere in die Besteuerung von Internet -Unternehmen wie Google, Facebook, Microsoft etc. kann dadurch gesetzlich neu geregelt und kontrolliert werden.

Mit anderen Worten schlägt die Erfindung als technischen Kern bzw. Beitrag die Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Computer-, Smartphone-,PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Supercomputer, Monitor, Display, Vorrich- tungs-, und /oder Bauteilelement mit Verbindungs- und /oder Identifikations- und /oder Zuordnungs- und/oder Authentifizierungsfunktion eines Nutzers im Netz, insbesondere Funknetz, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit mindestens einem Hardware lement und/ oder einer ( integrierten) Soft ware, vorzugsweise zur Bilderkennung, insbesondere Iriserkennung, aufweist.

Nach meiner Einschätzung ist eine Einführung der Omnicard im Jahre 2025 in Europa realisierbar.

Weitere Ausführungsformen und Begriffsdefinitionen für die Erfindung:

1.Computer

Ein Computer [kom'pju:ti?] oder Rechner (veraltet elektronische Datenverarbeitungsanlage) ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet. Charles Babbage und Ada Lovelace gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell program- mierbaren Computers. Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) bauten die ersten funktionstüchtigen Geräte die- ser Art. Bei der Klassifizierung eines Geräts als universell programmierbarer Computer spielt die Turing-Vollständigkeit eine wesentliche Rolle. Sie ist benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingefuhrt hatte.

Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als solche ver- arbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist.

Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in speziali sierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und steuern in„Fahrassistenten“ diverse Manöver selbst. Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer (engl für Persönliche Computer, als Gegensatz zu von vielen genutzten Großrechnern) dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen.

Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Rechner ist ein Digitalrechner, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogrechner, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom). Heute werden fast ausschließlich Digitalrechner eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalrechner werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.

Ein Digitalrechner besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen Speicher bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfiigt das Rechenwerk der Hardware über grundlegende

Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich und der bedingte Sprung. Ein Digitalrechner kann beispielsweise zwei Zah- len addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die eingangs erwähnte Turing- Maschine abgebildet; die Turing- Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.

Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden. Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Rege Ivo rgängen eingesetzt (siehe: Rege- lungstechnik), sind heute aber fast vollständig von Digitalcomputern abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digita len Computer kombinierten. Mögliche Einsatzmöglichkeiten für Computer sind:

-Mediengestaltung (Bild- und Textverarbeitung)

-Verwaltungs- und Archivierungsanwendungen

-Steuerung von Maschinen und Abläufen (Drucker, Produktion in der Industrie durch z. B. Roboter, eingebettete Systeme)

-Berechnungen und Simulationen (z. B. BOINC)

-Medienwiedergabe (Internet, Fernsehen, Videos, Unterhaltungsanwendungen wie - Computerspiele, Lernsoftware)

-Kommunikation (Chat, E-Mail, soziale Netzwerke)

-Softwareentwicklung

Hardwarearchitektur Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von 1946 als Von-Neumann- Architektur bezeichnet wird, definiert für einen Computer fünf Hauptkomponenten:

-das Rechenwerk (im Wesentlichen die arithmetisch-logische Einheit (ALU)),

-das Steuerwerk,

-die Buseinheit,

-das Speicherwerk sowie

-die Eingabe-/ Ausgabewerk(e).

In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozes- sor)

Der Speicher ist eine Anzahl von durchnummerierten, adressierbaren„Zellen“; jede von ihnen kann ein einzelnes Stück Information aufnehmen. Diese Information wird als Binärzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt. Bezüglich des Speicherwerks ist eine wesentliche Designentscheidung der Von- Neumann-Architektur, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich). Demgegenüber stehen in der Harvard-Architektur Daten und Programmen ei- gene (physikalisch getrennte) Speicherbereiche zur Verfügung. Der Zugriff auf die Speicherbereiche kann parallel realisiert werden, was zu Geschwindigkeitsvorteilen führt. Aus diesem Grund werden digitale Signalprozessoren häufig in Harvard- Architektur ausgeführt. Weiterhin können Daten-Schreiboperationen in der Harvard- Architektur keine Programme überschreiben (Informationssicherheit).

In der Von-Neumann- Architektur ist das Steuerwerk für die Speicherverwaltung in Form von Lese- und Schreibzugriffen zuständig.

Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder in eine andere Speicherzelle schreiben kann.

Die Ein-/ Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzu- zeigen.

Softwarearchitektur

Die Von-Neumann- Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiter- bahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den„unbedingten Sprung“). Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Interpretieren einer gedrückten Tastaturtaste als Buchstabe„A“ und damit als Zahl„65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens„A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste„A“ gedrückt hat). In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von ande ren Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode - jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.

Arten

Basierend auf Arbeitsweise des Computers

-Analogrechner

-Digitalrechner

-Hybridrechner

Basierend auf der Größe

-Smartphone

-Personal Digital Assistant oder PDA, waren die Vorläufer der Smartphones.

-Tabietcomputer

-Micro Computer (veraltet)

-Eingebettetes System, z. B. im Auto, Fernseher, Waschmaschine usw.

-Einplatinencomputer, z. B. Raspberry Pi, billigste, sehr kleine Computer. Wer- den meist als eingebettete System verwendet.

-Personal Computer oder PC, hier ais Desktop-Computer oder auch Arbeits- piatzrech- ner verstanden. -Hostrechner oder auch Server, eingebunden in einem Rechnemetz, meist ohne eigenen -Display, Tastatur usw.

-Thin Client sind Rechner, die nur in Zusammenarbeit mit einem größeren Rechner, meist Server, richtig funktionieren.

-Heimcomputer (veraltet), der Vorläufer des PC.

-Spielkonsole

-Netbook, ein kleines Notebook.

-Laptop oder Notebook

-Mini Computer (veraltet)

- Superminicomputer (veraltet)

-Mikrocomputer (veraltet)

-Mainffame Computer oder Großrechner.

-Super Computer, die schnellsten Rechner ihrer Zeit, brauchen den Platz einer Turnhalle, die Energie einer Kleinstadt und sind sehr teuer.

Zukunftsperspektiven

Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biolo gischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physika- lischen Modellen (Quantencomputer).

Ein großer Megatrend sind derzeit (2017) die Entwicklung künstlicher Intelligenzen. Bei diesen simuliert man die Vorgänge im menschlichen Gehirn und erschafft so selbstlernende Computer, die nicht mehr wie bislang programmiert werden, sondern mit Da- ten trainiert werden ähnlich einem Gehirn. Der Zeitpunkt an dem künstliche Intelligenz die menschliche Intelligenz übertrifft nennt man technologische Singularität. Künstliche Intelligenz wird heute (2017) bereits in vielen Anwendungen, auch alltäglichen, eingesetzt (s. Anwendungen der künstlichen Intelligenz). Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits deutlich überschritten. Zum Ver gleich liegt eine Grafikkarte für 800 Euro (5/2016) bei einer Leistung von 10 Teraflops.[7] (s. technologische Singularität)

Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomie Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.

Die weltweite Websuche nach dem Begriff„Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den 10 Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.

2. Hardware

Hardware [/'haid.wso/ bzw. /'haid.w o-/ (AE)] (gelegentlich mit„HW“ abgekürzt) ist der Oberbegriff für die physischen Komponenten (die elektronischen und mechanischen Bestandteile) eines datenverarbeitenden Systems, als Komplement zu Software (den Programmen und Daten).[l]

Wortherkunft

Ursprünglich ist das englische hardware ungefähr bedeutungsgleich mit

„Eisenwaren“ und wird heute im englischsprachigen Raum noch in diesem Sinne ver- wendet— also nicht nur für Computer hardware.

Abgrenzung Hardware und Software

In einem Computersystem kommen Hard- und Softwarekomponenten zum Einsatz. Hardware ist vereinfacht ausgedrückt der Teil eines Computers, den man anfassen kann: Jede einzelne darin verbaute Komponente, vom einfachen Kondensator bis hin zur komplett bestückten Platine, das Gerät als Ganzes sowie sein Zubehör wie beispielsweise Maus, Tastatur, Bildschirm und Drucker.

Software ist Information und kann nicht angefasst werden, da sie immateriell ist. [2] Sie ist unterteilbar in Programme und Daten und bestimmt, was ein Computer tut und wie er es tut (in etwa vergleichbar mit einem Manuskript). [3] Die Hardware (das Gerät selbst) fuhrt Software aus (arbeitet sie ab) und setzt sie so in die Tat um.

In den 1950er Jahren wurde Software auf Lochstreifen gespeichert. Jede mögliche Lochposition steht für ein Bit. Die Löcher sind jedoch nicht die Software; sie sind Teil der Hardware. Auch moderne Datenträger sind nicht die Software, sondern immer Hardware, die Software lediglich enthalten.

Ebenso wie Information kann Software nicht existieren ohne physische Repräsentation: Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur. Als Analogie dazu ist es für eine ,Oper‘ nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist. Auch hier enthalten die- se Medien die Oper nur.

Das hard- und softwaregesteuerte Arbeitsprinzip

Es braucht nicht zwingend eine Software, um eine Hardware in ihrem Arbeitsablauf automatisiert zu steuern. Selbst komplexe Arbeitsabläufe lassen sich komplett in Hard- wäre umsetzen - das hardwaregesteuerte Arbeitsprinzip. Als Beispiel sei eines der frühen Spielhallenspiele genannt, das von Atari 1976 produzierte Spiel Breakout.

Das komplette„Programm“ (der Ablauf, die Logik) bestand ausschließlich aus Hardware, bildlich gesehen aus„fest verdrahteten Schalttafeln“. [4]

Auch in modernen Geräten werden automatisierte Arbeitsabläufe teilweise direkt in der Hardware implementiert, in Form von Logikgattern. Sie setzen einen bestimmten Ablauf von Instruktionen um. Ihre Funktion ist fest durch die Struktur der Hardware vorgegeben und kann nachträglich kaum mehr verändert werden. Für ein Update auf neue Funktionen oder zum Beheben von Fehlern muss die Hardware (zumindest teilweise) ausgetauscht, ergänzt oder durch anderweitige physische Eingriffe angepasst werden. Dafür ist die Verarbeitungsgeschwindigkeit in der Regel höher und der Energieverbrauch geringer als bei einer Softwarelösung. Soll ein Arbeitsablauf ohne physische Eingriffe anpassbar sein, so kommt das softwaregesteuerte Arbeitsprinzip zum Tragen: Dafür erhält die Hardware einen Prozessor. Dieser ist in der Lage, Software„zu verstehen“, sie abzuarbeiten.

Software kann wiederum einfach angepasst und sogar komplett ausgetauscht werden, ohne die Hardware dafür verändern zu müssen. So lassen sich auf ein und demselben Gerät nahezu beliebige Anwendungen nutzen.

Komplexere Hardwaresysteme enthalten oft eine Kombination aus hardware- und softwaregesteuerten Komponenten.

Im obigen Beispiel verwendete das von Atari produzierte Spielhallengerät von 1976 keinen Prozessor. Bereits ein Jahr später wurde das Spielprinzip auf ein prozessorgesteuertes Gerät übertragen, den Computer. Seither gab es das Spiel auch als Software. Das Computerspiel bestand nicht mehr aus„verdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren Informationen (den Daten), die gemeinsam auf einem Datenträger gespeichert und von dem Computer ausgewertet wurden.

Unterteilung

Hauptplatine (englisch Mainboard)

Eine mögliche Realisierung bzw. Aufteilung der Hardware ist die 1945 vorgestellte Von-Neumann-Architektur. Sie unterscheidet abstrakt zwischen Steuerwerk, Rechenwerk („ALU“), Speicherwerk und Eingabe-/Ausgabewerk (Peripheriegerät). Heutzutage ist eine solche Aufteilung zum Verständnis der Struktur eines Rechners immer noch sinnvoll und notwendig, obwohl mittlerweile bei modernen Prozessoren viele Funktionen in einem Hardwarechip integriert sind, etwa:

-Steuerwerk zur ALU und zur Befehlskodierung gleich mehrere Male zur Parallelverarbeitung;

-Steuerwerk MMU zur Speicherverwaltung;

-der Cache als Teil des Speicherwerks, -die Steuerung für ein Bus-System, das interne und externe Komponenten miteinander verbindet.

Bei sogenannten embedded Prozessoren (für z. B. PDAs oder Waschmaschinen) findet man im gleichen Gehäuse noch ein Ein-/Ausgabewerk in Form serieller Schnittstellen (z. B. USB), digitalem I/O (Input/Output) z. B. für einen Touchscreen und analogem I/O für z. B. Lämpchen oder E-Motoren.

Noch stärker integriert sind sogenannte SoC (System on a Chip) für z. B. Smartphones, die weitere Komponenten integrieren, bis hin zu Arbeitsspeicher (RAM) und Flash- Speicher.

Zur Computer-Hardware gehören die PC-Komponenten:

-Die Grundbestandteile der Rechnerarchitektur: Hauptplatine (auch Motherboard oder Mainboard genannt) mit Chipsatz (für 10), Prozessor und Arbeitsspeicher (RAM) -Massenspeicher: Laufwerke (Festplattenlaufwerk, Flash-Speicher, CD-ROM- Lauf- werk, DVD-Laufwerk, Zip-Laufwerk, Jaz-Laufwerk, ...) und Speicherme- dien

-Erweiterungskarten (Grafikkarte, Soundkarte, Netzwerkkarte, TV-Karte, ISDN- Karte, USB-Karte, PhysX-Karte, ...)

-Netzteil, Gehäuse, Lüfter

-Peripheriegeräte:

- Ausgabegeräte (Drucker, Bildschirm, Beamer, Lautsprecher, ...)

-Eingabegeräte (Tastatur, Maus, Joystick, ...)

-Einlesegeräte (Mikrofone, Karten lesegeräte, verschiedene Arten von Scannern,

. . .)

Alle diese Peripheriegeräte und Baugruppen eines Computers sind großteils mit logi- sehen Schaltungen aufgebaut.

Häufig ist Hardware mit einer FCC-Nummer versehen, die eine eindeutige Identifizie rung des Herstellers erlaubt.

3. Bildschirm

Ein Bildschirm (auch Monitor bzw. englisch Screen oder Display) ist eine elektrisch angesteuerte Anzeige ohne bewegliche Teile zur optischen Signalisierung von verän- derlichen Informationen wie Bildern oder Zeichen. Der Bildschirm kann dabei ein eigenständiges Gerät oder Teil eines Gerätes sein.

Begriffsabgrenzung

Die Begriffe Bildschirm, Monitor, Screen und Display werden im Deutschen häufig synonym verwendet; für die beiden letztgenannten englischer Herkunft gibt es gleichwohl sprachliche Unterschiede. So ist die Darstellung eines Bildschirms eigentlich direkt auf dem Gerät sichtbar. Monitor (vergleiche monitoring für, Überwachung‘) werden demnach allein Bildschirme genannt, die als Bauteile und Peripheriegeräte einge- setzt werden.

Im Gegensatz dazu wird die Projektionsfläche eines Projektors, etwa die Leinwand, im Englischen ebenfalls als screen bezeichnet (in etwa , Schirm 4 ). Hingegen werden im Deutschen wiederum auch alle Anzeigegeräte im weiteren Sinne Display genannt (in etwa , Anzeige 4 ), zum Beispiel Flip-dot-Displays.

Geschichte

Als Ausgabegerät kommen Bildschirme auf Basis von Braunschen Röhren seit den 1930er Jahren zum Einsatz, zunächst mit vektorieller Ansteuerung (siehe Vektorbild- schirm). Die später aufgekommenen Videoterminals verwenden vorwiegend Rastergrafiken zum Aufbau des Bildes. Bei den meisten Videoterminals lassen sich die einzelnen Bildpunkte nicht direkt ansprechen, vielmehr übernimmt ein Zeichengenerator (charac- ter prozessor) die Darstellung von einzelnen Zeichen; die Anzahl und das Aussehen darstellbarer Zeichen sind somit vorgegeben.

In den frühen 1980er Jahren wurde zunehmend die graphische Ausgabe wichtiger, treibend hierbei war unter anderem die Entwicklung von CAD und von grafischen Benutzeroberflächen (GUI, Graphical User Interface), die mit dem Macintosh populär wurden. 2003 wurden nach einer Erhebung der Gesellschaft für Unterhaltungs- und Kommunikationselektronik (gfu) in Deutschland erstmals mehr Flüssigkristallbildschirme abgesetzt als konventionelle Geräte mit Bildröhre. Die Bildschirmdiagonalen für typische Desktop-Anwendungen liegen heute meistens zwischen 50 und 75 cm, für Notebooks sind etwa 34 bis 43 cm üblich.

Frühe Personal Computer verfügten wie damalige Computerterminals häufig über integrierte Bildschirme. Heute ist das nur noch bei portablen Computern wie Notebooks und Handheids üblich. Bildschirme für ortsfesten Einsatz werden in der Regel in sepa- rate Gehäuse eingebaut, die auch die Elektronik zu ihrer Ansteuerung beinhalten und meist über standardisierte Schnittstellen wie VGA oder DVI an eine in den Computer eingesteckte Grafikkarte angeschlossen werden.

Seit etwa 2001 gibt es auch Bildschirme, die dreidimensionale Bilder darstellen können, sogenannte autostereoskopische Displays oder auch 3D-Monitore. Die Entwicklung be- findet sich noch im Anfangsstadium, eine perfekt ausgearbeitete virtuelle Realität ist mit ihnen noch nicht möglich.

Bei einem sogenannten Smart Display handelt es sich um einen Monitor, der per Funk mit dem Rechner verbunden und so in Grenzen portabel ist.

Eigenschaften

Die Bildschirmdiagonale ist die Größenangabe des Bildschirms und bezieht sich immer auf die Diagonale der Bildröhre, diese war bei Bildröhren etwas größer als die sichtbare Diagonale. Weitere Kennzeichen eines Monitors sind das Seitenverhältnis, die maxima- le Zeilenfrequenz, aus der sich für eine bestimmte Bildhöhe die Bildwiederholfrequenz ergibt, der maximale Pixeltakt (aus diesen drei Frequenzen sowie dem vertikalen und horizontalen blanking interval ergibt sich die Auflösung), die Helligkeit, der Kontrast, die Reaktionszeit sowie besonders bei Flüssigkristallbildschirmen die Anzahl der Pixel und der maximale Blickwinkel. Bei Röhrenmonitoren ist noch die Art (Loch-, Streifen- oder Schlitzmaske) und das Raster der Maske relevant. Mehrfachanzeige

Eine Mehrfachanzeige, auch Multifunktionsanzeige, dient der Darstellung mehrfacher Informationen. Dies kann ein einzelnes elektronisches Gerät oder ein Verbundsystem mit mehreren Bildschirmen sein. Sinn und Zweck dabei ist, eine große Anzahl von be- nötigten Werten oder auch Bildern und Signalen zur gleichen Zeit mit mehreren Anzeigegeräten oder nacheinander auf demselben Display anzeigen zu können.

Dazu müssen vorgegebene oder aktuell aufbereitete Daten visualisiert und ausgegeben werden.

Heute wird dies bei einer Vielzahl von Anwendungen verwendet, beispielsweise beim elektronischen Fluginstrumenten- Anzeigesystem in Luftfahrzeugen, bei Mobiltelefonen

(Handys), bei Tablet-PCs oder bei digitalem Fernsehen.

Bekannte und weitverbreitete Methoden zur simultanen Darstellung ist die Fenstertechnik - die dem Betriebssystem Windows zu seinem Namen verhalf - beim Personalcomputer. Hierbei können verschiedene Programme in sogenannten

„Fenstern“ nebeneinander angeordnet werden, wobei auch hier ein oder mehrere Moni- tore eingesetzt werden können.

Darstellungstechniken

Verwendete Darstellungstechniken sind:

-Feldemissionsbildschirm („FED“)

-Flüssigkristallbildschirm („LCD“)

-Dünnschichttransistorbildschirm („TFT-LCD“)

-Kathodenstrahlröhrenbildschirm („CRT“)

-Plasmabildschirm

-Organische Leuchtdiode („OLED“)

-Surface-conduction Electron-emitter Display („SED“)

-Kathodenstrahlröhre mit kontinuierlicher fluoreszierender Beschichtung (Oszilloskop) -Bildpunkt-Maskentypen (Pixeling)

-Röhrenmonitor- Wiedergabe (Lochmaske)

-Röhrenmonitor-Wiedergabe (Streifenmaske) -Röhrenmonitor-Wiedergabe (Bildausschnitt). Alle Farbpunkte liegen auf einer Linie, die von drei Elektronenstrahlen (je Farbe einer) zeilenweise zum Leuchten angeregt werden.

-Matrix eines Fernsehbildschirmes

Anwendungsgebiete

Anwendung finden diese in

-Bedienelementen von Maschinen und Geräten aller Art

-Anzeigegeräte in allen Bereichen der Technik

-Fernsehgeräten

-Computermonitoren

-Radargeräten, Oszilloskopen

-bildgebenden Verfahren in Wissenschaft

-medizinischen Diagnose- und Überwachungsgeräten (Monitore)

-Notebooks, PDAs (Handheids, Organizer), Mobiltelefonen

-Digitalkameras und Camcordern

-elektronischen Navigationsgeräten

-Werbeanzeigen, Informationsschildern im Straßenverkehr

Siehe auch

-Bildschirmarbeitsverordnung

-Bildschirmmedien

-Breitbildmonitor

-Display PostScript

-Elektronisches Papier

-Head-Mounted Display

-Kontrastverhältnis

-TCO (Standard)

-Touchscreen 4. Anzeige (Technik) Die Anzeige beschreibt in der Technik allgemein eine Vorrichtung zur optischen Signalisierung von veränderlichen Informationen (Zustände und Werte), insbesondere Mess werten. Sie unterscheiden sich dadurch von Kennzeichen, welche gleichbleibende In formationen darbieten. Im Arbeitssystem stellen Anzeigen eine Schnittstelle zwischen dem Menschen und einem technischen Prozess oder der Umwelt dar.

Eine Anzeige kann sehr unterschiedliche Bauformen aufweisen und auf unterschiedlicher technischer Umsetzung basieren. Man unterscheidet mechanische, elektromechanische und elektronische Anzeigen. Nach der Art und Aussage der Anzeige selbst kann man sie auch in binäre Anzeigen, Skalenanzeigen, Ziffernanzeigen und grafische An- zeigen unterteilen. In der Ergonomie unterscheidet die DIN EN 8942 -2[1] zwischen optischen, akustischen und taktilen Anzeigen.

Bauformen und technische Umsetzungen von Anzeigen Mechanische Anzeigen

Bei mechanischen Anzeigen wiederum werden kontinuierliche und diskrete Anzeigen unterschieden.

Beispiele für kontinuierliche mechanische Anzeigen:

-Mechanische Tachometer setzen die Drehzahl einer Welle in einen dazu pro- portiona- len Winkel eines Zeigers um.

-Eine mit einem Zeiger kombinierte Aufwickeleinrichtung für einen Faden misst, wie tief ein an dem Faden hängender Schwimmer abgesunken ist, und zeigt damit den Füll- stand an, u. a. an Öltanks.

-Pegelstandanzeiger oder kurz Pegel, wie sie an vielen Flüssen zu finden sind, oder auch Wasser- bzw. Füllstandsanzeigen, z. B. an Kesseln oder Kaffeema- schinen, zeigen durch direkten Blick auf den Flüssigkeitsstand an einer Skale, oftmals über ein Schauglas, den Füllgrad bzw. den Wasserstand an.

-Flüssigkeitsthermometer

-Bimetallthermometer

-analoge mechanische Waagen (Zeiger, bewegte oder projizierte Skale)

-Abstimm-Skale zur Senderwahl an Radios Beispiel für diskrete mechanische Anzeigen:

-Eisenbahn-Formsignale in verschiedenen Bauformen für Anweisungen wie -„Fahrt“ und„Halt“

-Kennmelder an Schmelzsicherungen signalisieren einen durchgebrannten Schmelzlei ter

-mechanische Schrittzähler und Kilometerzähler; allgemein: Rollenzählwerke

-Wasserzähler, Gaszähler

Elektromechanische Anzeigen

Kontinuierliche elektromechanische Anzeigen:

-Skalenanzeigen

-mechanischer Zeiger

-Drehspulmesswerk

- Dreheisenmesswerk

- Lichtzeiger

-Spiegelgalvanometer

-sonstige

-Zungenfrequenzmesser

-elektrolytischer Betriebsstunden- oder Strommengenzähler

-Elektrometer

Diskrete elektromechanische Anzeigen:

-Elektromechanische Zähler mit Ziffernrollen

-mit Ferrarismotor in Energiezählern

-in Kilometerzählern

-Fallblattanzeigetafeln an Flughäfen und Bahnhöfen für Texte und Uhrzeiten

-Schauzeichen

-Fallklappenrelais Elektrische und elektronische Anzeigen: -Elektrisch angesteuerte Anzeigen ohne bewegte Teile können binäre Anzeigen, Ziffernanzeigen, aber auch analoge Anzeigen (Bargraph-Anzeige, Magisches Auge) oder Bilddarstellungen sein. Mit dem Begriff Digitalanzeige ist meist eine Ziffemanzeige gemeint.

Technische Realisierung (Beispiele):

-Meldelampen [Leuchtmittel Glühlampe oder Leuchtdioden (LEDs), Organische Leuchtdioden (OLEDs)]

-binär, Farbwechsel, Ziffernanzeige oder Bargraph

-Helligkeitsvergleich oder mit unterschiedlicher Frequenz blinkend

-Flüssigkristallanzeigen (LCDs); Zeichen-, Symbol- Ziffern- oder Bilddarstellung (Smartphones, Flachbildschirme)

-Fluoreszenzanzeigen (VFDs); Zeichen- oder Symboldarstellung, auch Bar- graph- Anzeigen, Magisches Auge

-Braunsche Röhren; y-x-Darstellung bei Bildröhren, Oszilloskopen, Spektrum- Analy- zem, Messempfängern, Darstellung in Polarkoordinaten in Radargeräten

-Nixie-Röhren (Ziffernanzeige)

Großformatige LED-Matrixanzeige auf einem japanischen Verkehrsknotenpunkt

Übliche Ansteuerarten komplexer elektrischer oder elektromechanischer Anzeigen sind: -vektororientierte Ansteuerung

-Raster- oder Matrixanzeige

-Segmentanzeige (Sieben-Segment-Anzeige, Vierzehn-Segment-Anzeige, bi- näre Symboldarstellung)

Der Bildschirm (auch Monitor, Display, Smart Display) ist ein sehr universelles Anzei- geinstrument. Als Braunsche Röhre kann er vektor- und rasterorientiert angesteuert werden.

Zunehmend kommen Flüssigkristallbildschirme zur Anwendung, die als Matrizen ra- sterförmig angesteuert werden.

Weit verbreitet sind auch LC-Sieben-Segment- Anzeigen, wie sie unter anderem in digi- talen Messgeräten, Armband- und Funkuhren Vorkommen. Ein Virtual retinal display projiziert die Information direkt auf die Retina des Auges. Projektionsanzeigen projizieren alphanumerische Zeichen oder Symbole an eine Wand oder eine Mattscheibe. Bei Weckern mit Projektionsanzeige wird eine Siebensegmentanzeige projiziert, während u. a. bei frühen Großrechnern Ziffernanzeigen zum Einsatz kamen, die für jede Stelle (Ziffer) je 10 Glühlämpchen, 10 Kollimatorlinsen, Gobos 0...9 und 10 entsprechend ausgerichtete Objektive besaßen, um jede Ziffer an der gleichen Position auf einer Mattscheibe darstellen zu können. Zur Projektion von Videobildern (Videoprojektor) auf Großleinwände waren früher aufwendige Einrichtungen wie das Eidophor-System nötig. Seit den 1990er Jahren gibt es dafür Projektionstechniken mit LCDs oder DLPs, in bestimmten Ländern Beamer genannt.

Head-up-Displays spiegeln sich in einer teiltransparenten Platte (Windschutzscheibe, separate Strahlteilerscheibe). Anzeigen in der Messtechnik

In der für die Messtechnik grundlegenden DIN 1319-2 wird bei„Messgeräte mit direkter Ausgabe“ unter anderem unterschieden in Skalenanzeige und Ziffemanzeige.

Skalenanzeige mittels Flüssigkristallanzeige

Bei einem Messgerät mit Skalenanzeige stellt sich als Ausgangsgröße eine Marke (z. B. eine bestimmte Stelle eines körperlichen Zeigers oder eines Bildschirmzeigers, ein Lichtzeiger (siehe z. B. auch Spiegel-Galvanometer), eine Kante, der Meniskus einer Flüssigkeitssäule) meist kontinuierlich auf eine Stelle der Skale ein, oder die Skale wird darauf eingestellt. Zu körperlichen Zeigern siehe z. B. unter Analogmultimeter, Dreh- spulmesswerk.

Skalenanzeigen finden sich auch an einer Vielzahl mechanischer Messgeräte wie Waagen, Messschieber; letztere verwenden einen Nonius zur genaueren Ablesbarkeit. Spiegelskalen besitzen zusätzlich einen Spiegelsektor hinter dem Zeiger, um senkrechtes Ablesen zu erleichtern und damit einen Parallaxenfehler beim Ablesen zu vermeiden. Zeigeruhren, Stoppuhren und Messschrauben besitzen 2 bis 3 Zeiger, um die Ablesegenauigkeit zu erhöhen.

Bei der Bandanzeige wird entweder diskontinuierlich eine veränderliche Anzahl von Segmenten zum Leuchten gebracht oder kontinuierlich eine veränderliche Länge des Bandes eingestellt. Sie kann zur Messung dienen oder nur zur qualitativen Beurteilung, siehe hierzu Bargraph- Anzeige oder auch Magisches Auge. Die diskontinuierliche Bandanzeige arbeitet digital und verbindet die Digitaltechnik mit den Vorteilen einer Skalenanzeige.

Ziffernanzeige

Bei einem Messgerät, bei dem die Ausgangsgröße eine in fest gegebenen Schritten quantisierte zahlenmäßige Darstellung der Messgröße ist, erscheint diskontinuierlich die Anzahl (Summe) von Quantisierungseinheiten oder die Anzahl (Summe) von Impulsen in einer Ziffernfolge. Die Ziffernanzeigen unterscheiden sich durch die Prinzipien der Zifferndarstellung. Siehe hierzu Abschnitt Elektrische und elektronische An- zeigen. Frühere Ziffernanzeigen verwendeten pro Stelle zehn diskrete, hinterleuchtete Ziffern, die direkt anhand des Aufleuchtens betrachtet oder projiziert wurden.

Ziffernanzeigen haben den Nachteil, dass Trends und die absolute Größe nicht auf den ersten Blick erkennbar sind. Daher besitzen Digitalmultimeter (kurz DMM, d. h. solche mit einer Ziffernanzeige) manchmal zusätzlich einen schnelle Bargraphanzeige oder ein Zeigerelement, die jedoch auch aus diskreten Anzeigeelementen bestehen (siehe Bild rechts).

Vorteile sind z. B. die Darstellbarkeit des Messwertes über weite Bereiche durch variable Kommata und zusätzlich angezeigte Maßeinheiten, die Eindeutigkeit bei der Able sung sowie bei selbst leuchtenden Anzeigen die gute Ablesbarkeit bei schlechten Licht- Verhältnissen.

Zusätze

Bei entsprechender Ausgabetechnik können zusätzlich Bewertungen in der Anzeige enthalten sein; beispielsweise kann auf eine Grenzwertüberschreitung oder Gefahr in der Anlage durch blinkende Anzeige, zusätzliches Leuchtzeichen oder wechselnde Far- be hingewiesen werden. Computermonitor

Ein Computermonitor ist ein Bildschirm, der primär zum Anschluss an einen Computer gedacht ist. Insbesondere in den Jahren zwischen 1985 und 2005 entwickelten sich Fernsehgeräte und Computermonitore sehr weit auseinander (Qualität, Bildraten, Signa- le, Pegel, Stecker), seit 2010 wachsen diese wieder zusammen.

In der Anfangszeit der Computer gab es keine Computer-Monitore und auch keine Computer-Tastaturen und -Mäuse. Eingabe und Ausgabe erfolgten über Lochkar- ten(stapel) oder Lochstreifen. Diese wurde mit Lochkartenstanzern (oder Lochstreifen- Stanzern) erstellt. Drucker (eigentlich Fernschreiber) sorgten schließlich für die Ausgabe der Daten, die auf den Lochkarten oder -streifen gespeichert waren oder vielmehr aus diesen Daten errechnet wurden (Listenausgabe).

Ab Anfang der 1960er Jahre kamen Mainframe-Systeme wie die IBM-S/360-Serie auf den Markt, die mit Hilfe von Text-Kommandos über eine Tastatur bedient werden konnten, wobei die Ausgabedaten mit Hilfe eines Anschlagdruckers auf Endlos- Papier visualisiert wurden. Da für den Ausdruck lediglich die binären Steuercodes für die zu druckenden Zeichen übermittelt werden mussten, war dieses Verfahren im Gegensatz zur digitalen Modulation von Bilddaten bereits vor der Erfindung des Monitors reali- sierbar. Die ersten Computer-Terminals waren so konzipiert, dass sie dieselben Steuerdaten wie ein damaliger Drucker interpretieren konnten, um daraus eine Textausgabe auf dem Bildschirm zu generieren.

Computerterminals

Anfang der 1970er tauchten zunehmend Computerterminals auf. Typische Vertreter waren z. B. die IBM-3270-Terminals oder VTIOO-Terminals, an die ANSI.SYS unter MSDOS noch erinnert. Der Umweg über Lochkarten und Bänder verschwand, man konnte mit Hilfe solcher Terminals direkt mit einem Computer kommunizieren. Als charakteristische Eigenschaft blieb, dass die Kommunikation immer noch gewisse Ähn- lichkeiten mit Fernschreibern und Lochstreifen hatten. Sie wurden meist, analog zu Fernschreibern, seriell mit Text- und Steuerzeichen angesteuert. Eingaben wurden gesammelt dem Zentralcomputer (mit seiner kostbaren Rechenzeit) übermittelt.

Als Monitore selbst kamen meist weiße, grüne oder orange Monochrommonitore zum Einsatz. Die Terminals hatten meist 80 oder 132 Zeichen je Zeile bei 24 oder 43 Zeilen. Die Auflösung lag zwischen 240 und 350 Zeilen, Bildraten bei 50 oder 60 Hz, häufig mit nachleuchtendem Phosphor, um das Flimmern durch den Bildrasteraufbau zu minimieren. Aufkommende Heimcomputer, Anfänge des PCs

Für Heimcomputer griff man auf vorhandene Technik zurück - den heimischen Fernseher. Etwas besser waren spezielle Computermonitore. Die Darstellungsqualität hängt dabei auch von der benutzten Schnittstelle zwischen Computer und Fernseher ab; in aufsteigender Reihenfolge:

-Ansteuerung über einen HF-Modulator. Üblich sind maximal 40 Zeichen pro Zeile.

-Ansteuerung mittels FBAS-Signal über einen Video-Eingang, der u. a. auch für Videorecorder gedacht war.

-Ansteuerung mittels getrenntem Färb- und Helligkeitssignal (S-Video).

-Ansteuerung mittels RGB-Signal (meist über SCART).

Je weiter unten in der Liste das Verfahren steht, desto weniger - der eigentlich nur für die Fernsehübertragung via Antenne notwendigen - Signalverarbeitungsstufen sind bei der Übertragung involviert; dementsprechend entfällt die jeweils innewohnende Limitierung der Signalqualität durch Bandbreitenbegrenzung oder Modulationsartefakte. Allerdings war zu Beginn der Heimcomputer-Ära am vorhandenen Fernseher ein anderer Eingang als der für das HF-Signal (Antenneneingang) nicht selbstverständlich, weshalb über den HF-Modulator praktisch jeder Fernseher für die Ausgabe geeignet ist. Auf der anderen Seite basiert das Bildsignal vieler Heimcomputer gar nicht auf einem RGB- Signal; sie erzeugen direkt ein FBAS- oder S-Video-Signal, weswegen dort ein RGB- Monitor nicht genutzt werden kann.

Aufkommen von hochauflösenden Computermonitoren Sowohl für Heimcomputer wie den C64 wie auch für Büro-Computer wie die IBM-PCs gab es Computermonitore. Während der folgenden Jahrzehnte entwickelten sich die Darstellungsstandards bei der IT-Technik beständig weiter, während aufgrund der be stehenden Normen der Fernsehübertragung dort (abseits von Detailverbesserungen) praktisch kein Fortschritt stattfand. Dies führte dazu, dass sich über knapp 20 Jahre Computermonitore und Fernseher extrem auseinanderentwickelten. Mit dem ersten Schritt weg vom fernsehkompatiblen Heimcomputer war die Darstellung eines Compu terbildes auf einem Fernseher praktisch unmöglich. Die Fortschritte im Bereich der Digitaltechnik ermöglichten später jedoch vergleichsweise einfach eine qualitativ gute Normenwandlung.

Dadurch können einerseits Fernsehsignale aus Computerbilddaten erzeugt werden, zum anderen war das eine Voraussetzung für die Weiterentwicklung von Fernsehnormen un ter Beibehaltung von Abwärts- und Aufwärtskompatibilität, wodurch sich Computer- und Fernsehtechnik wieder einander annähern.

Flachbildschirme, digitale Schnittstellen

Um das Jahr 2000 tauchten sowohl im Computer- wie im Fernsehbereich Flachbildschirme auf. Bei Fernsehern kamen am Anfang Plasmabildschirme zum Einsatz, bei Computern Flüssigkristallbildschirme (LCD) mit Dünnfilmtransistoren (TFT). Mit DVI bei Computern und HDMI bei Fernsehern wurden sehr ähnliche Standards der Ansteuerung von Displays entwickelt.

Anschlüsse

TV und Heimcomputer

Im Bereich der Heimcomputer kommen die zu ihrer Hochzeit in den 1980er-Jahren üblichen Verbindungstechniken für Trägerfrequenzsignale (via HF-Modulator), Video- und RGB-Signale zum Einsatz (z. B. Belling-Lee-Steckverbinder, BNC-, Cinch-, DIN- oder SCART-Stecker).

Monitore

VGA-Stecker und Buchse Die Übertragung von Videosignalen wechselte mehrfach.

-Ära 1 : Videosignale wurden genauso wie beim Fernsehgerät analog übertra- gen. Be liebig viele Farben konnten übertragen werden. Synchronisation wird mit dem Hellig- keitskanal bzw. mit dem Grünkanal übertragen.

-Ära 2: Der IBM-PC favorisierte die digitale Übertragung mit getrennter Übertra- gung der Synchronsignale.

-Monochrom-Monitore wurden über zwei Signale angesteuert (Video, In- tensity) und zwei Synchronsignale (HSync+ und VSync-)

-Color Graphics Adapter-Monitore über vier Signale (Red, Green, Blue,

Intensity) und zwei Synchronsignale (HSync+ und VSync-)

-Enhanced Graphics Array-Monitore über sechs Signale (Red, Green, Blue, Red- Intensity, Green-Intensity, Blue-Intensity) und zwei Syn- chronsignale (HSync+ und VSync-)

-Ära 3: Beim Video Graphics Array wurde von IBM pro Farbe (Rot, Grün, Blau) wie der nur eine Leitung verwendet, über die die Intensität analog übertragen wurde. Dabei wurden bis zu 2 18 Farben unterstützt. Die beiden Synchronsig- nale blieben erhalten. -Ära 4: Digitale Übertragung von analogen Signalen als digitale Daten über 1 oder 2 Leitungen. Synchronsignale als spezielle Codeworte im digitalen Da- tenstrom.

-Ära 5: In Ära 4 wird das Signal mit dem exakten Timing aus Ära 3 übertragen. Man löst sich auch von dieser Gewohnheit und überträgt Videodaten als asynchrone Pakete.

Synchronsignale

Computermonitore benötigen meist separat übertragene Synchronsignale (HSYNC + VSYNC). Selten werden beide Signale zusammen übertragen (CSYNC). Das Übertra gen mit dem Helligkeitssignal (YUV) oder Sync-on-Green, der Standard bei Video, wird nicht verwendet.

Flachbildschirme

DVI-Stecker und Buchse

Digital Visual Interface (DVI) ist eine Schnittstelle zur Übertragung von Videodaten. Im PC-Bereich entwickelte sich DVI zu einem Standard für den Anschluss von TFT- Monitoren an die Grafikkarte eines Rechners. DVI beinhaltet die gleichzeitige Ausgabe von analogen (DVI-A oder DVI-I) wie digitalen Video-Signalen (DVI-D und DVI-I). DVI ist in weiten Bereichen kompatibel zum später entstandenen HDMI. High Definition Multimedia Interface

High Definition Multimedia Interface (HDMI) ist eine ab Mitte 2003 entwickelte Schnittstelle für die volldigitale Übertragung von Audio- und Video-Daten in der Unterhaltungselektronik. Sie vereinheitlicht existierende Verfahren, erhöht gegenüber diesen die Qualitätsmerkmale, und bietet außerdem auch ein zusammenhängendes Kopier- schütz- Konzept (DRM).

DisplayPort

DisplayPort (DP) ist ein durch die VESA genormter universeller und lizenzfreier Verbindungsstandard für die Übertragung von Bild- und Tonsignalen.

Anwendungsbereiche sind im Wesentlichen der Anschluss von Bildschirmen und Fernsehgeräten an Computern und ähnlichen Geräten.

Quo vadis

Der Weg ist klar vorgezeichnet hin zu einer allgemeinen Schnittstelle, die sowohl zur Stromversorgung und zur Datenübertragung wie auch zur Ausgabe von Videodaten befähigt ist. Siehe USB 3.1 mit Stecker Typ C, Mobile High-Definition Link (MHL) und Thunderbolt.

Analoges TV

Serial Digital Interface

Das Serial Digital Interface (SDI) ist eine serielle digitale Schnittstelle, primär zur Übertragung von unkomprimierten und unverschlüsselten Videodaten über Koaxialkabel oder Lichtwellenleiter. Es kommt hauptsächlich im Bereich professioneller Fernsehstudios und Fernsehsendern zum Einsatz. Die SDI-Schnittstelle wird von der Society of Motion Picture and Television Engineers (SMPTE) spezifiziert, und stellt eine Weiterentwicklung der analogen Videostandards wie dem PAL beziehungsweise NTSC-Verfahren dar. Technische Typen nach Art des Bilddarstellungsverfahrens Rasterdisplays vs. Vektordisplays

Rasterdisplays überstreichen den gesamten Bildschirm in einem festen Raster. Der Elektronenstrahl wird je nach Darstellung hell- oder dunkelgetastet.

V ektorbildschirm

Vektorbildschirme arbeiten ähnlich einem Plotter. Es können schlecht Flächen, aber sehr gut Linien dargestellt werden. Ab einer gewissen Komplexität der Darstellung flimmert das Bild zunehmend, da das Zeichnen zu lange dauert und weniger als 40 Mal das Bild pro Sekunde geschrieben werden kann. Röhrenmonitore

Kathodenstrahlröhrenbildschirm

Flachdisplays: Flüssigkristallbildschirme (oder auch Plasma-Displays)

— >Hauptartikel: Flüssigkristallanzeige

Während neuere LCD-Computermonitore und HDTV -Monitor ausnahmslos quadrati- sehe Pixel besitzen, gibt es bei alten LCD-Computermonitoren und SDTV- Bildschirmen sowohl quadratische wie nichtquadratische Pixel. Nichtquadratische Pixel waren bei frühen CGA- und EGA-Laptop-Displays üblich. SDTV-Monitore orientierten sich häufig an der ITU-R BT.601 und hatten horizontal 352, 704 oder 720 Pixel. Weder bei 4:3 noch bei 16:9 noch bei PAL noch bei NTSC waren dann die Pixel quadratisch.

Datenübertragung

Der Anschluss beim TFT-Monitor ist nicht nur eine Frage der Kompatibilität, sondern auch der Qualität des Bildes. DVI ist eine digitale Schnittstelle für Grafikkarten und Monitore (Digital Visual Interface). VGA ist die analoge Schnittstelle (Video Graphics Array). Die Grafikdaten werden im PC digital verarbeitet, die dann in der Grafikkarte in analoge Signale umgewandelt werden. Ein TFT-Monitor benötigt digitale Signale zur Darstellung der Bilder. Wird jetzt ein TFT-Monitor über einen VGA-Anschluss betrieben, muss im Monitor ein Analog- Di- gital-Wandler das analoge Signal in ein digitales Signal übersetzen. Durch die Umwandlung wird die Qualität des Bildes je nach verwendeten Bauelementen mehr oder weniger gedämpft. Leichte Unschärfe und Flimmern können die Folge sein. Die beste Kombination ist eine Grafikkarte mit digitalem DVI-Ausgang und ein Monitor mit DVl-Eingang. Per DVI-VGA-Adapter kann auch ein TFT-Monitor, der lediglich einen VGA-Anschluss besitzt, an einer Grafikkarte mit DVI-Anschluss betrieben werden, jedoch wird bei diesem Verfahren das Bild weiterhin analog übertragen.

Standardauflösungen

Im Bereich existieren sowohl Grafikstandards, wie auch typische Auflösungen für Gra fikmodi, wobei die meisten über die VESA standardisiert sind. Die Bildschirme sind werksseitig auf ein Gamma von 2,2 und eine Farbtemperatur von 6500 K justiert. Mittels Farbmanagement-Software lassen sich diese Werte (soweit darstellbar) anpassen.

Flachbildschirme haben wie Röhrenbildschirme mit Kathodenstrahlröhre eine maxima- le und minimale darstellbare Bildschirmauflösung. Während bei einem Röhrenmonitor keine Auflösung genau über die native Lochmaske passt und daher alle Auflösungen entsprechend unscharf wiedergegeben werden. Die meisten anderen Auflösungen müssen interpoliert werden, und erscheinen daher weniger scharf. Ausnahmen sind Auflösungen, die in Höhe und Breite Teiler der Maximalauflösung darstellen und bei denen daher keine Zwischenpixel interpoliert werden müssen, wie etwa die Hälfte oder ein Viertel der nativen Auflösung. Die native Auflösung wird in der Typenbeschreibung des Monitors angegeben.

Als Desktop-Bildschirmauflösung des Betriebssystems ist daher heute die native (= maximale) Bildschirmauflösung des verwendeten Flachbild-Monitors besonders zu empfehlen. Moderne Betriebssysteme übernehmen die Skalierung der Bildschirmdar- Stellung in die gewünschte Darstellungsgröße selbst, und ermöglichen der Grafikkarte so, den Flachbildschirm in seiner nativen Auflösung anzusteuem.

Bildschirmmaße

Bei TFT-Monitoren wird die exakte Bildschirmdiagonale angegeben. Bei früheren Röhrenmonitoren wurde die (nicht vollständig nutzbare) Diagonale des Glaskolbens ange geben. Diese Diagonale war etwa 2,5 bis 4 cm größer als die wirklich nutzbare Diago nale. Das Seitenverhältnis bei Röhrenmonitoren war fast(?) ausnahmslos 4:3. Bei Flachdis plays war dies anfangs auch so. 17-Zoll- und 19-Zoll-Geräte gab es meist mit 1280>< 1024er Auflösung und einem Seitenverhältnis von 5:4. Ab dem Aufkommen von 24-Zoll-Geräten um die Jahrtausendwende kamen 16:10 und seit 2008 16:9- Geräte dazu. Letztere haben mittlerweile einen Marktanteil von etwa 90 Prozent.

Eine weitere Größe war bei Röhrengeräten die maximale Zeilenffequenz bzw. die maximale Bildfrequenz bei gegebener Auflösung. Seit der Ära TFT ist diese von geringerer Bedeutung geworden und beträgt meist 60 Hz. Flimmern hat nichts mehr mit der Auffrischrate des Bildinhalts zu tun.

5. Flüssigkristallanzeige

Eine Flüssigkristallanzeige (englisch liquid crystal display, LCD) oder ein Flüssigkristallbildschirm ist eine Anzeige (engl display) oder ein Bildschirm, dessen Funktion darauf beruht, dass Flüssigkristalle die Polarisationsrichtung von Licht beeinflussen, wenn ein bestimmtes Maß an elektrischer Spannung angelegt wird.

LCDs bestehen aus Segmenten, die unabhängig voneinander ihre Transparenz ändern können. Dazu wird mit elektrischer Spannung in jedem Segment die Ausrichtung der Flüssigkristalle gesteuert. Damit ändert sich die Durchlässigkeit für polarisiertes Licht, das mit einer Hintergrundbeleuchtung und Polarisationsfiltern erzeugt wird. Soll ein Display beliebige Inhalte darstellen können, sind die Segmente in einem gleichmäßigen Raster angeordnet (siehe Pixel). Bei Geräten, die nur bestimmte Zeichen darstellen sollen, haben die Segmente oft eine speziell darauf abgestimmte Form, so insbesondere bei der Sieben-Segment-Anzeige zur Darstellung von Zahlen (siehe auch Matrixanzeige).

Eine Weiterentwicklung ist das Aktiv-Matrix-Display, das zur Ansteuerung eine Matrix von Dünnschichttransistoren (engl thin-film transistor, TFT) enthält. Bei Flachbildschirmen dominiert diese Technik seit etwa 2005.

In der Werbung wird seit etwa 2009 häufig von LED-Fernsehern gesprochen. Dabei handelt es sich in den meisten Fällen ebenfalls um Flüssigkristallbildschirme (LCDs) zur Bilddarstellung, bei denen zur Hintergrundbeleuchtung LEDs eingesetzt werden (LED-Backlight). Bildschirme mit organischen Leuchtdioden (OLEDs) sind für groß- flächige Fernsehgeräte erst seit kurzem in Europa erhältlich, nachdem anfänglich nur der Testmarkt in Südkorea bedient wurde.

LCDs finden Verwendung an vielen elektronischen Geräten, etwa in der Unterhaltungselektronik, an Messgeräten, Mobiltelefonen, Digitaluhren und Taschenrechnern. Auch Head-up-Displays und Videoprojektoren arbeiten mit dieser Technik.

Geschichte

1904 veröffentlichte Otto Lehmann sein Hauptwerk Flüssige Kristalle. Im Jahre 191 1 beschrieb Charles Mauguin die Struktur und die Eigenschaften von Flüssigkristallen. 1936 erhielt die American Marconi Wireless Telegraph Company ein Patent auf die erste praktische Anwendung der Technologie, das Flüssigkristall- Lichtventil. 1962 erschien die erste wichtige englischsprachige Publikation über Molekulare Struktur und Eigenschaften von Flüssigkristallen (Original: Molecular Structure and Properties of Liquid Crystals) von George William Gray. Pionierarbeiten über Flüssigkristalle wurden in den späten 1960er Jahren vom britischen Radar Research Establishment in Malvern geleistet. Das dortige Team unterstützte die fortschreitenden Arbeiten von George William Gray, der mit seinem Team an der Universität Hüll in Kingston upon Hüll (England) schließlich flüssigkristalline Cyanobiphenyl-Verbindungen synthetisierte, die die Anforderungen bezüglich Stabilität und Temperaturverhalten für LCD erfüllte.

Das erste funktionierende LCD basierte auf dem dynamischen Streumodus (engl dy- namic Scattering mode, DSM) und wurde 1968 in den USA von einer Gruppe bei der Radio Corporation of America (RCA) unter der Leitung von George H. Heilmeier eingeführt. Heilmeier gründete die Firma Optel, die einige LCDs nach diesem Prinzip entwickelte.

Am 4. Dezember 1970 meldeten Martin Schadt und Wolfgang Helfrich, damals im Central Research Laboratory der Firma Hoffmann-LaRoche tätig, das erste Patent über die „nematische Drehzelle“ (auch TN-Zelle, Schadt-Helffich-Zelle, twisted nematic field effect) in der Schweiz an. Das Patent wurde in 21 Ländern erteilt, nicht jedoch in Deutschland.

Am 22. April 1971 reichte James Fergason von der Kent State University in den USA seine Patentanmeldung über den twisted nematic field effect in Flüssigkristallen ein und stellte 1971 in seiner Firma ILIXCO, die heute (2005) LXD Incorporated heißt, LCD mit dieser Technik her. Sie ersetzten schnell die schlechteren DSM-Typen.

Ideen, welche heute in Aktiv-Matrix-Displays verwendet werden, entstanden bei der Konzeption von Flüssigkristall-Balkenanzeigen (engl bar graph displays). So wurde 1971 ein LC-Matrixdisplay für Balkenanzeigen bei der Firma Brown, Boveri & Cie,

Baden, Schweiz, entwickelt, wobei jedem LC-Segment eine Diode (nichtlineares Element) vorgeschaltet und ein zusätzlicher Kondensator als Speicherelement parallelge schaltet wurde.

Am 28. Juni 1973 wurde in den USA eine Anordnung zur Balkenanzeige zum Patent angemeldet, bei welcher Interdigital-Elektroden auf nur einer Glasplatte angebracht werden, um ein elektrisches Feld parallel zu der Glasplatte zu erzeugen und die Flüs- sigkristalle in einer Ebene umzuorientieren (in-plane switching, IPS, siehe Anzeigetypen).

Am 7. Juli 1983 mit einer Ergänzung vom 28. Oktober 1983 reichten H. Amstutz und seine Miterfinder des Forschungszentrums der Firma Brown, Boveri & Cie, Baden, Schweiz, eine Patentanmeldung ein, welche die Basis für Super-Twisted Nematic STN- LCD bildete (siehe Anzeigetypen). Mit STN-LCD ließen sich erstmals monochrome, passive Matrixanzeigen mit ausreichender Auflösung für einfache Bilddarstellungen realisieren (siehe Darstellung einer Weltkarte unter Elektronische Ansteuerung). Dieses Patent wurde in vielen Ländern erteilt. Vor allem asiatische Hersteller wurden Lizenz- nehmer (weltweit über 60)

Am 9. Januar 1990 meldeten G. Baur und seine Miterfinder der Fraunhofer- Gesellschaft in Freiburg i. Br. ein Patent in Deutschland an, welches die konkrete Basis für optimiertes In-Plane Switching in Matrixanzeigen (IPS-LCDs) bildete.

Dieses Patent wurde in vielen Ländern erteilt, von der Firma Merck KGaA Darmstadt, dem weltweit größten Hersteller von Flüssigkristallsubstanzen, übernommen und an viele Firmen lizenziert.

Am 18. September 1992 mit Nachtrag vom 20. Januar 1993 machten K. Kondo und seine Miterfinder bei Hitachi eine Patentanmeldung in Japan, [8] welche als weiteres wesentliches Element des In-Plane Switching eine spezifisch geeignete Verbindungstechnik der Dünnfilmtransistoren in Matrixform darlegte. Später erfolgte eine weitere Hitachi-Patentanmeldung, welche die Blickwinkelabhängigkeit dieser Art von FK- Anzeigen verbesserte.

Anzeigetypen

Schadt-Helfrich-Zelle/ Vergrößerte Subpixel (TN-Panel) Vergrößerte Subpixel (Multi- Domain-VA-Panel)

Twisted Nematic (TN)

In Flüssigkristalldisplays verwendete Flüssigkristalle sind organische Verbindungen, die sowohl Eigenschaften von Flüssigkeiten als auch von Festkörpern aufweisen. Sie sind einerseits mehr oder weniger fluide als eine Flüssigkeit, andererseits zeigen sie Eigenschaften wie Doppelbrechung.

Ein einfaches Flüssigkristall-Anzeigeelement lässt sich mit der Schadt-Helffich-Zelle (nematische Drehzelle, engl twisted nematic, TN-Zelle) realisieren. In nebenstehender Darstellung sind nur die Bestandteile der unteren Hälfte einer solchen Drehzelle num- meriert.Die Bezugsnummem (x) sind in dieser Beschreibung eingefügt.

Die Innenseiten zweier sehr dünner Glasplatten (Substrate) sind mit einer transparenten Elektrodenschicht (Indium-Zinn-Oxidschicht, ITO) überzogen, dazwischen befindet sich die Flüssigkristallschicht von weniger als 10 Mikrometer Dicke. Die Flüssigkri- Stallmoleküle ordnen sich in eine vorgegebene Richtung, nämlich parallel zu der bei spielsweise mit einem Polyimid beschichteten und in einer Vorzugsrichtung gebürsteten Oberfläche. Die Vorzugsrichtungen der beiden Substratplatten sind um 90° zueinander verdreht. Bei der Herstellung handgefertigter Prototypen kann man zum Bürsten Polystyrolschaum oder mit samtartigen Textilien beschichtete Walzen benutzen.

Zusätzlich sind die beiden Substratplatten mit um 90° zueinander verdrehten Polarisationsfiltern beschichtet. Auf der Rückseite dieser Anordnung kann sich ein Spiegel befinden (Reflektor oder Transreflektor), der das einfallende Licht zurückwirft (reflexive Betriebsart). In der transmissiven Betriebsart befindet sich anstelle des Reflektors eine Beleuchtungseinheit hinter dem Anzeigeelement.

Aus den gegeneinander verdrehten Substratplatten ergibt sich eine schraubenförmige Struktur im Flüssigkristall; bei einer um 90° gedrehten Schraube spricht man von TN. Einfallendes Licht wird also vor dem Eintritt in die Flüssigkristallschicht linear polarisiert. Durch die Verdrillung der Moleküle folgt eine Drehung der Polarisationsrichtung des Lichtes, wodurch das Licht den zweiten Polarisator passieren kann und die Zelle lichtdurchlässig (transparent) ist. Da das Display im Ruhezustand durchsichtig ist, wird diese Betriebsart als Normally- White- Mode bezeichnet. Legt man eine elektrische Spannung an die Elektroden an, so tritt unter dem Einfluss des elektrischen Feldes eine Drehung der Flüssigkristallmoleküle ein, die sich parallel zum elektrischen Feld aus- richten. Die Verdrillung wird damit zunehmend aufgehoben, die Polarisationsrichtung des Lichts wird nicht mehr gedreht und damit kann es den zweiten Polarisationsfilter nicht mehr passieren.

Ordnet man die Polarisationsfilter parallel zueinander an, dann ist die Zelle ohne Span- nung dunkel und wird erst mit zunehmender Spannung transparent. Man spricht dann vom Normally-Black-Mode. Die Schadt-Helfrich-Zelle ist also (wie andere Flüssigkristallanzeigen auch) ein spannungsgesteuertes Lichtventil. Ein Bildschirm kann aus be liebig vielen solcher Zellen (Bildelemente, Pixel) bestehen. Beim Taschenrechner stellt eine einfache 7-Segment-Anzeige jeweils eine Ziffer dar, bei einem farbfahigen Bild- schirm werden pro Bildelement (Pixel) drei Teilbildelemente (Subpixel) für die Grund farben Rot, Grün und Blau verwendet.

Super-Twisted Nematic (STN)

Bei (monochromen) STN-Displays (engl super-twisted nematic) wird der Verdrillwin- kel der Moleküle auf 180° bis 270° erhöht. Dadurch kann eine steilere elektro -optische Kennlinie und so eine verbesserte Multiplexbarkeit als bei TN- Displays erreicht werden. Aufgrund verschiedener technischer Beschränkungen gelingt es nur mit einigem Aufwand (doppelte Zelle = DSTN-Zelle, Kompensation mit doppelbrechenden Verzögerungsfolien - retarder sheets), die Darstellung farbneutral zu gestalten (d. h. nur Graustufen zwischen Schwarz und Weiß zu erzeugen).

Stattdessen sind die Hellzustände gelblich und die Dunkelzustände fallen dunkelblau (mit Violett-Ton) aus. Eine Weiterentwicklung stellt CSTN (engl color super-twist nematic) durch die Firma Sharp dar, bei dem Filter in den drei Grundfarben Rot, Grün und Blau vor den Pixeln für die Darstellung von Farben verwendet werden.

Double Super-Twisted Nematic (DSTN)

Es wurde mit verschiedenen Techniken versucht, eine Schwarz-Weiß-Darstellung auf dem Passiv-Matrix-Display zu erreichen: mit der Guest-Host-Technik, dem OMI- Ver- fahren von Martin Schadt („Optical Mode Interference“) und der Double-Super- Twi- sted-Technik. Durchgesetzt hat sich letztere als DSTN-Technik. Das Aufbauprinzip dieser DSTN-Zelle ist im Bild zu erkennen. Es liegen nun zwei STN-Schichten vor. In der aktiven Zelle - das ist diejenige, an die ein elektrisches Feld gelegt werden kann - ist der Flüssigkristall um 240° gegen den Uhrzeigersinn gedreht. Die passive Zelle enthält ebenfalls nematisches Material, das hier aber um 240° mit dem Uhrzeigersinn gedreht vorliegt. Beide Zellen sind so zueinander gedreht, dass die Orientierung der Stäbchen an der Eingangsseite senkrecht zu der an der Ausgangsseite ist. Die Polarisationsfolien sind ebenfalls um 90° gegeneinander gedreht.

Aufbauschema einer DSTN-Flüssigkristallzelle

In der konventionellen TN- oder STN-Zelle erhält man nach dem Durchgang linear po larisierten Lichtes genau betrachtet nicht einfach linear polarisiertes Licht mit verdrehter Schwingungsebene, sondern elliptisch (oder zirkular) polarisiertes Licht. Die Spitze des elektrischen Feldvektors beschreibt eine Ellipse oder einen Kreis. Solches Licht geht durch den Polarisator hindurch, wobei die durch den Dichroismus bewirkte Farbaufspaltung - abhängig von der Polarisation und der Folienorientierung am Strahlaustritt - zu farbigem Licht fuhrt.

Zur Funktion von DSTN-Zellen

Die Arbeitsweise von DSTN-LCD verdeutlicht: Weißes Licht fallt auf den hinteren Polarisator (im Bild unten) und wird dort linear polarisiert. Dann gelangt es in die aktive STN-Zelle, die (ohne Feld) nun zirkular polarisiertes Licht daraus erzeugt. Dieses Licht ist - wie bei der herkömmlichen STN-Zelle - durch Dichroismus verändert. Der Weg durch die anschließende passive Zelle (die das gleiche Flüssigkristall-Material enthält wie die erste - aktive - Zelle, aber in entgegengesetzter Richtung verdreht) fuhrt zur Kompensation der Farbaufspaltung (die Phasendifferenz wird gleich Null). Als Ergebnis liegt linear polarisiertes Licht vor, das die gleiche Schwingungsebene aufweist wie zuvor nach dem Passieren der hinteren Polarisationsfolie. Weil aber der vordere Polarisator um 90° verdreht ist, lässt er kein Licht durch: Der Bildschirm ist an dieser Stelle schwarz. Liegt an der aktiven Zelle ein elektrisches Feld an, dann geht das linear polarisierte Licht aus dem hinteren Polarisator dort glatt hindurch, ohne verändert zu werden. Erst in der passiven Zelle erfolgt nun zirkulare Polarisation. Weil aber zirkular polarisiertes Licht von Polarisatoren nicht zurückgehalten wird, ist der Bildschirm an dieser Stelle hell. Durch genaues Justieren sowohl des verwendeten Materials als auch der Zellenabmessungen wird das durchgelassene Licht weiß.

Auf diese Weise wurden Displays realisiert, die ein sauberes Schwarz-Weiß mit einem Kontrastverhältnis von bis zu 15:1 bieten.

Triple Super-Twisted Nematic (TSTN; heutzutage als TN oder Film-TN bezeichnet) Aufbauschema einer TSTN-Flüssigkristallzelle: Das Licht der Beleuchtung wird polarisiert , gefiltert , durchquert die hintere Glasscheibe , den STN- Flüssigkristall , die vordere Glasscheibe, die vordere Filterfolie, den vorderen Polarisator und tritt schließ- lieh farbig aus .

Der komplexe Aufbau einer DSTN-Flüssigkristallzelle bedingt einen relativ hohen Aufwand bei ihrer Herstellung. Es wurde deshalb ein neues Verfahren entwickelt, das zu flacheren Displays mit geringerem Gewicht fuhrt. Diese neue Lösung trägt den Na- men„Triple Super-Twisted Nematic“-LCD (TSTN). Das Bild zeigt das Aufbauprinzip eines solchen TSTN-Displays.

Hier findet sich nur eine STN-LC-Zelle. Die Farbstörungen der normalen STN- Technik werden durch zwei spezielle Folien ausgeglichen, die vor und hinter der Zelle - zwischen Polarisator und Glas - angebracht sind. Diese Folien sind verantwortlich für einen weiteren Namen dieser Technik: FST, was bedeutet„Film- Super-Twisted“ (gelegentlich bezeichnet man Displays, in denen nur eine Kompensationsfolie verwendet wird, als FST-, solche mit zwei oder mehr Folien als TST-LCD; ebenfalls geläufig ist die Bezeichnung FSTN für Film-STN). Der verbesserte Kontrast (bis zu 18:1), das ge- ringere Gewicht und die flachere und weniger aufwendige Bauweise haben TSTN-LC- Displays zum Durchbruch verholfen. In Notebook-Computern wurden solche Displays als„VGA-Bildschirm“ erstmals realisiert.

Vertical Alignment (PVA und MVA)

Multi-domain Vertical Alignment

Bei der Patterned-Vertical-Alignment-Technik, auch kurz PVA genannt, handelt es sich um eine Weiterentwicklung der Multi-Domain-Vertical-Alignment-Technik (MVA) eines Herstellers. Beide Techniken basieren auf einem ähnlichen Verfahren. Die Vorteile von MVA-/PVA-Bildschirmen liegen in einem höheren Kontrast (> 1000:1 ist üblich) als bei einem TN-Bildschirm (< 800:1). Zudem bieten MVA-/PVA-Bildschirme eine große Blickwinkel-Unabhängigkeit. Der Nachteil von MVA/PVA-Bildschirmen ist, dass sie langsamer als TN-Bildschirme und daher für Bewegtbilder - wie bei Spielen und Videos - weniger gut geeignet sind. Zudem liegt der Preis über dem von TN- Bildschirmen.

In-Plane Switching (IPS)

Bei der In-Plane-Switching-Technik (IPS, englisch für in der Ebene schaltend) befinden sich die Elektroden nebeneinander in einer Ebene parallel zur Display- Oberfläche. Bei angelegter Spannung drehen sich die Moleküle in der Bildschirmebene; die für TN- Displays typische Schraubenform entfällt. IPS verringert die Blickwinkelabhängigkeit des Kontrastes.

An Untertypen unterscheidet man zwischen S-IPS (Super IPS), AS-IPS (Advanced Super IPS), A-TW-IPS (Advanced True White IPS), H-IPS (Horizontal IPS), seit 2009 E- IPS (Enhanced IPS) sowie seit 201 1 AH-IPS (Advanced High Performance IPS).

Bis auf den H-IPS-Typ lassen sich die anderen IPS-Typen daran erkennen, dass sie, seitlich betrachtet und im Gegensatz zu VA-Panels, einen leichten lila Farbton aufweisen. Die E-IPS-Technologie, die 2009 auf den Markt kam, bietet einen noch größeren Blickwinkel und geringere Schaltzeiten von 5 Millisekunden. Die Weiterentwicklung PLS (Plane-to-Line Switching) wurde von Samsung entwickelt und bietet unter anderem eine höhere Transparenz (geringerer Stromverbrauch bei gleicher Helligkeit) und das Wegfallen des bei IPS-Panels typischen Glitzer-Effektes. Die ersten Bildschirme mit PLS-Panels kamen 201 1 auf den Markt.

Elektronische Ansteuerung

Bei ersten Prototyp-LCDs Anfang der 1970er Jahre wurde erkannt, dass der Gleich strombetrieb irreversible elektrochemische Prozesse in der Flüssigkristallschicht und damit Lebensdauerbeschränkungen der Anzeige verursachen kann. Obschon es sich im Gegensatz zu LCDs nach dem dynamic Scattering mode (engl., DSM) bei TN-Zellen um einen elektrischen Feldeffekt handelt, also kein Stromfluss nötig ist, bestanden trotzdem die erwähnten Probleme beim Anlegen einer Gleichspannung. Deshalb wurden lange Zeit alle kommerziell eingesetzten LCDs mit Wechselspannung betrieben. Im Wesentlichen ist ein LCD- Element eine kleine elektrische Kapazität, welche periodisch durch eine impulsartige elektrische Spannung umgeladen wird. Für diesen Zweck eig neten sich die schon damals verfügbaren elektronischen Komplementär -MOS- Schaltkreise (CMOS-ICs) sowohl bezüglich einstellbarem Spannungshub wie auch Symmetrie der Eigenschaften ausgezeichnet. Einer der Vorteile von TN-Zellen ist die tiefe Betriebsspannung und damit die geringe Stromaufnahme. Schon früh wurden Flüssigkristallsubstanzen für TN-LCDs synthetisiert, welche bei 3 -Volt-Betrieb einen guten Kontrast ergaben und einen brauchbaren Betriebstemperaturbereich hatten.

Der Betrieb von Passiv-Matrix-Displays hängt davon ab, wie ausgeprägt eine elektroop tische Schwellenspannung vorhanden ist. Weil die Ansteuerung der einzelnen Bildele- mente (Pixel) periodisch wiederholt werden muss, um nicht nur eine Zeile, sondern alle Pixel einer Matrix anzusteuern, werden z. B. die Zeilen einer Matrix sequenziell im- pulsförmig angesteuert. Bei den Kolonnen wird die Bildinformation derart eingegeben, dass bei den aktivierten Bildelementen eine möglichst große Spannungsdifferenz zu den Zeilenimpulsen und an den nicht aktivierten Bildelementen eine Spannungsdifferenz unterhalb des Schwellenwerts entsteht. Entscheidend zur Optimierung war die Erkenntnis von Peter J. Wild, dass bei impulsartiger, periodisch wiederholter Ansteuerung der Effektivwert (englisch Root Mean Square, RMS) der Spannungsdifferenzen maßgebend ist. Detaillierte Angaben über die bestmöglichen Ansteuerungstechniken für Passiv- Matrix-Displays finden sich in we Verführender Literatur. Wie schon erwähnt, ist eine elektrooptische Kennlinie mit ausgeprägtem Schwellenwert und daraufhin steilem Anstieg bei höherer Spannung Voraussetzung zur Realisierung von Passiv-Matrix-Displays mit vielen Zeilen und Spalten. Nur so kann ein ausreichender Kontrast auch bei Matrizen mit vielen Pixeln erzielt werden. Die langwierige Optimierung der Spannungs-Kontrast-Kennlinie durch Flüssigkristallsubstanzwahl und Zellstruktur von TN-Zellen brachte nicht die gewünschten Resultate. Es dauerte über 10 Jahre, bis 1983 der Durchbruch mit der Entdeckung der superverdrillten nematischen LCDs (englisch super-twisted nematic lcds, STN-LCDs) bei Brown, Boveri & Cie, Baden (heute Asea Brown Boveri, ABB) gelang. Die Kennlinie von STN-Zellen ist viel besser zur Ansteuerung von Passiv- Matrix-Displays geeignet als diejenige von TN- Zellen.

Schon relativ früh wurde versucht, jedem Pixel individuell Schalttransistoren vorzuschalten, um derart die Kennlinienbeschränkungen eines Passiv-Matrix-Display zu umgehen. Dazu mussten Dünnschichttransistoren (englisch thin-film transistor, TFT) ge- eigneter Dimension und Verbindungstechnik in Matrixanordnung auf dem Glassubstrat der Flüssigkristallanzeige aufgebracht werden. Man nennt eine Anzeige dieser Technik Aktiv-Matrix-Display, weil der Betrieb der einzelnen Pixel durch die zugeordneten Transistoren aktiv gesteuert wird. Obschon die Ideen dazu bereits 1968-1973 bei der Radio Corporation of America (RCA) und bei Westinghouse Research Laboratories, USA, formuliert wurden, dauerte es noch lange, bis die technologischen Voraussetzungen für die Massenfertigung erarbeitet waren.

Insbesondere wurde mit verschiedenen Halbleitermaterialien experimentiert, bis sich schließlich eine spezielle Art von amorphem Silizium (siehe Dünnschichttransistor) als am besten geeignet für Feldeffekttransistoren in Dünnschichttechnik durchsetzte. Dieser materialtechnische Durchbruch gelang in Europa. Bei der Realisierung von kommerzi- eilen Produkten waren japanische Firmen federfiihrend. Ohne die erwähnten Fortschritte bei der elektronischen Ansteuerung wären großflächige Femseh- Flüssigkristallbildschirme nicht möglich geworden. Allerdings sind Aktiv- Matrix- Displays wegen der zahlreichen zusätzlichen Prozess schritte für TFTs in der Herstel- lung teurer und können zudem deswegen Pixelfehler aufweisen, sodass für einfachere Anzeigen mit geringerem Informationsgehalt immer noch Passiv-Matrix- Displays zum Einsatz kommen.

Kontaktierung

Von Beginn an bestand die Aufgabe, die transparenten Leiterbahnen auf beiden LCD- Glassubstraten mit der Ansteuerungselektronik zu verbinden. Dazu wurden neuartige Verbindungstechniken entwickelt.

Für Anzeigen mit nicht zu engem Kontaktraster kommen sogenannte Zebras (siehe Leitgummi) zum Einsatz, welche abwechselnd aus isolierenden und leitenden Elasto- mer„kanälen“ bestehen. In nebenstehender Aufnahme mit einem Vergleichsmaßstab in cm ist das dunkle Raster des Zebragummis von 180 Mikrometer deshalb nur bei Anklicken des Bildes mit Vergrößerung sichtbar: im rosaroten isolierenden Elastomer- Band befinden sich die schwarzen Leitelemente, separiert durch isolierende Elemente. Durch den Aufbau (die Elemente sind wesentlich kleiner als die zu kontaktierenden Flächen) spielen Lagetoleranzen des Gummis keine Rolle. Der Gummi kann Maßtoleranzen abfedern. Typische Anwendungen sind Displays mit Siebensegmentanzeigen.

Früh wurden auch Lösungen mit Chip-on-Glass erprobt. Dabei wurden auf die Kontakte der Ansteuerungsschaltkreise Lötpunkte aufgebracht, dann der Chip auf den korrespon dierenden Kontakten der Anzeige positioniert und daraufhin bei erhöhter Temperatur angelötet.

Einen wichtigen Fortschritt bedeutete die Verwendung von flexiblen, dünnen Leiterplatten mit entsprechenden Verbindungsbahnen zur Anzeige, welche ein sehr enges Kontaktraster erlauben. Diese Leiterplatten tragen auch oft die ICs als Nacktchips (Flip- Chip-Montage), die die digitalen seriellen Datenströme wandeln. Passiv- Matrix-Displays

Bei Passiv-Matrix-Displays werden die Bildelemente (ein Segment oder ein Symbol) im Zeitmultiplexbetrieb angesteuert. Das heißt, dass jedes Bildelement direkt und permanent mit einer Ansteuerschaltung verbunden ist, deren Ausgang einen geringen Wi- derstand hat. Deshalb baut sich die zum Zeitpunkt der Adressierung aufgebrachte Ladung relativ schnell wieder ab und muss in der folgenden Bildperiode (engl, ffame) wieder erneuert werden. Dieser Wechsel in der elektrischen Ansteuerung führt zu ausgeprägten Modulationen der optischen Antwort der Anzeige (sog. ffame response). Bei Adressierung und Ansteuerung über eine Matrix mit aktiven Bauelementen bei Ak- tiv-Matrix-Displays wird zum Zeitpunkt der Adressierung eine Ladung auf das Bildelement aufgebracht, dem meist noch ein zusätzlicher Kondensator parallelgeschaltet ist (Speicherkondensator). Nach dem Aufbringen der Ladung, deren Höhe der Dateninformation entspricht, wird das aktive Bauelement (meist ein Dünnschichttransistor, TFT) wieder in den hochohmigen Zustand geschaltet, wodurch die Ladung und somit die Ansteuerung während einer Bildperiode im Wesentlichen erhalten bleibt.

Diese Art der Ansteuerung bewirkt bei Aktiv-Matrix-Displays eine höhere effektive Spannung über dem Bildelement, damit eine höhere Aussteuerung des Flüssigkristalls und damit einen verbesserten Kontrast und eine reduzierte Abhängigkeit des Kontrastes von der Betrachtungsrichtung.

Die LC-Bildschirme haben gegenüber den älteren Kathodenstrahlröhrenbildschirmen (CRT) einige Vorteile.

1. Geringere Leistungsaufnahme: Unabhängig vom Bildinhalt werden LC-Bild- schirme über die gesamte Anzeigenfläche konstant beleuchtet. Trotz dieser prinzipiellen Schwäche ist die Lichtausbeute (englisch luminous efficacy) bei LCD mit typisch 2 bis 4 lm/W noch immer etwa doppelt so hoch wie bei Pias- mabildschirmen mit Filterscheibe (normaler Auslieferzustand).

2. Strahlungsarmut: LCD strahlen keine Röntgenstrahlung ab (gilt auch für CRTs ab

TCO 99) und erzeugen ein geringeres Magnetfeld. Elektromagnetische Fel- der werden jedoch abgestrahlt und enthalten ebenso wie bei CRTs die Bildin- formation (sog. kompromittierende Abstrahlung, Problem Abhörsicherheit, s. Van-Eck-Phreaking).

Darüber hinaus besitzen sie ein flimmerfreies, verzerrungsfreies, bei Idealauflösung scharfes Bild, ein geringeres Gewicht sowie eine geringe Einbautiefe.

Im Gegensatz zu Anzeigegeräten mit Kathodenstrahlröhre werden Flüssigkristallbildschirme in der Praxis nicht durch Magnetfelder wie das Erdmagnetfeld oder die Magnetfelder von Oberleitung, NMR-Geräten, Transformatoren oder Lautsprechern beein- trächtigt.

Während der Entwicklung der Geräte, mindestens bis zur Entwicklung von mit TFTs angesteuerten LCD, bestanden Nachteile durch den geringen Kontrast und die langen Schaltzeiten. Mittlerweile kann die Farbwiedergabe von LCD (der darstellbare Farbraum, engl color gamut) durch Anpassung der Hintergrundbeleuchtung sogar extremen Anforderungen gerecht werden (extended gamut, multi-primary display).

Ein weiteres Problem war der eingeschränkte Bereich von Betrachtungsrichtungen mit konstantem Kontrast und gleichbleibendem Farbeindruck; neuere Techniken wie In- Plane-Switching (IPS), Multi-domain Vertical Alignment (MVA) und Pattemed Verti- cal Alignment (PVA) sowie die Anwendung von doppelbrechenden Kompensationsfolien (retarder sheets) schafften hier Abhilfe. Diese Nachteile existieren weiterhin, sind aber bei weitem nicht mehr so gravierend wie früher. Da jeder Pixel eine eigene kleine Einheit darstellt, kommt es produktionsbedingt zu vereinzelten Fehlern (Pixelfehler): Pixel, die durchgängig nur in einer Farbe leuchten oder die vorgegebene Farbe fehlerhaft wiedergeben. Je nach Anzahl der fehlerhaften Pixel werden die Displays in verschiedene Fehlerklassen eingestuft, die Einfluss auf den Preis haben können.

Bei der Herstellung wird die physikalische Bildauflösung festgelegt, die Ansteuerung mit einem Signal anderer Auflösung kann zu Qualitätsverlusten führen. Ein TFT- ba- sierter LC-Biidschirm liefert im Vergleich zu einem CRT-Biidschirm ein viel schärferes Bild - allerdings nur in seiner konstruktionsbedingten physikalischen Auflösung. Signale geringerer Auflösung müssen interpoliert werden und erscheinen verschwommen. Alternativ lässt sich das Bild auch mit schwarzen Rändern zentriert in voller Schärfe darstellen (bei digitalem Anschluss lässt sich das üblicherweise im Grafikkartentreiber einstellen).

Die Hintergrundbeleuchtung durch sog. Kaltkathodenröhren wird gefiltert, um die Grundfarben der Pixel (zumeist rot, grün und blau) zu erhalten, allerdings muss der Kompromiss zwischen Helligkeit und Farbwiedergabequalität gefunden werden. Die Farben von LCD sind keineswegs weniger gesättigt als bei der CRT- oder Plasmabild- Schirmtechnologie. Vom erzeugten Licht dringen nur etwa 4 % durch das Panel (bei weißen Bildinhalten).

Ein Grund dafür, warum Röhrenmonitore (CRT) in Tests oft besser abschnitten als Flachbildschirme, ist keinesfalls der bessere Schwarzwert im Dunkelraum und der Kon- trast zu den hellen Bildstellen, wenn kein Umgebungslicht auf den Bildschirm fallt, sondern die bessere Wiedergabe von bewegten Bildinhalten.

Mittlerweile ist die LCD-Technik jedoch so weit fortgeschritten, dass teils sogar bessere Ergebnisse (je nach Art des Panels) als mit CRT-Monitoren erreicht werden können.

Die Leuchtstoffföhren der Hintergrundbeleuchtung haben eine begrenzte Lebensdauer (etwa 100.000 Stunden). Die durch die Hintergrundbeleuchtung beeinflusste Qualität der Darstellung von Weißflächen ändert sich schon deutlich nach nur wenigen Tausend Betriebsstunden meist stärker ins Gelbliche, da sich die Leuchtstärke der Leuchtstoff- röhren mit der Zeit verringert. Allerdings lässt auch die Helligkeit von Röhrenmonitoren im Laufe des Betriebs nach. Die Hintergrundbeleuchtung mittels LEDs ist zwar alterungsbeständiger, zeigt aber auch je nach Typ der verwendeten Leuchtdioden und Betriebsweise langsame Alterungserscheinungen. Zudem erlaubt Beleuchtung mittels LEDs eine kompaktere Bauweise, homogenere Ausleuchtung und Kontraststeigerung durch selektive, vom Bildinhalt abhängige Ansteuerung (LED Backlight). Schaltzeiten und Techniken

Die Reaktionszeit moderner LCDs liegt derzeit zwischen 1 ms und 5 ms. Hierbei ist die Reaktionszeit die Zeitspanne, die bei der Änderung der Leuchtdichte (Helligkeit) eines Bildbereiches von 10 % nach 90 % verstreicht; hierbei sind 0 % und 100 % die Leucht- dichten der stationären (eingeschwungenen) Zustände. Die Bildaufbauzeit nach ISO 13406-2 ist die Summe der Schaltzeiten von Hell nach Dunkel (oder umgekehrt) und wieder zurück. Aufgrund des asymptotischen Schaltverlaufs werden jedoch nach ISO 13406-2 Schaltzeiten von < 3 ms benötigt, um sichtbare Schlierenbildung zu vermei den.

Formeln

Die Einschaltzeit (zunehmende Spannung) und die Ausschaltzeit

(abnehmende Spannung) ergibt sich nach den Formeln von Jakeman und Raynes. Hierbei ist die Rotationsviskosität des Flüssigkristalls, die die„Trägheit“ des Flüssigkristalls auf eine Änderung der Ausrichtung beschreibt; der Abstand

zwischen den Glasplatten (= Dicke der Flüssigkristallschicht); und die Elastizitätskonstante, welche die„Kraft“ (Drehmoment) der Rückstellung der Kristalle in die ur sprüngliche Ausrichtungslage angibt.

Beispielsweise beschleunigt ein großes die Rückstellung des Kristalls in den Aus gangszustand, wirkt jedoch auch der Ausrichtung des Kristalls bei Anlegen einer Spannung entgegen (durch die entsprechend erhöhte Schwellenspannung, ) Auch lassen sich durch eine Verringerung der Schichtdicke, die Schaltgeschwindigkei ten erhöhen. Wenn die Schichtdicke beispielsweise um 30 % verringert wird gehen die Schaltzeiten auf etwa die Hälfte zurück.

Bewegungsunschärfe

Bei Hold-Type-Displays wie LCD und OLED-Bildschirmen bleibt der Zustand eines Pixels für die Dauer einer Bildperiode bestehen, bis die angelegte Spannung im Zuge des Bildaufbaus eines neuen Bildes geändert wird (Erhaltungsdarstellung). Da das Auge bei der Verfolgung eines bewegten Bildinhalts (englisch smooth pursuit eye tracking) die„Helligkeit“ über eine Bildperiode integriert, während der Bildinhalt aber fixiert bleibt, kommt es zum Verwischen des Bildes auf der Netzhaut des Betrachters. Dies fallt besonders bei der Darstellung schnell bewegter Szenen auf und wird deshalb auch als Bewegungsunschärfe (auch engl motion blur) bezeichnet. Es ist zu beachten, dass selbst bei verschwindend geringen Schaltzeiten, das heißt bei nahezu unendlich schnellem Schalten, wegen der Erhaltungsdarstellung die Bewegungsunschärfe nicht beseitigt wäre, weshalb der Verwischeffekt auch bei schnellen OLED-Bildschirmen auftritt Neben dieser prinzipbedingten Unschärfe erzeugt die verzögerte Annahme des Soll- Werts bei einzelnen Pixel-Elemente ebenfalls unerwünschte Effekte („Schlieren“

"Schweif', "Schmieren"), die ähnlich störend wirken. Bei heutigen LCDs ist diese Art der Bewegungsunschärfe schon erheblich reduziert. Die Reaktionszeit von„grau nach grau“ (engl gray to gray) liegt durchschnittlich bei 6 ms, dennoch können die Schaltzeiten in extremen Situationen (weiß-nach-schwarz, schwarz-nach-weiß, schwarz-nach- grau) erheblich davon abweichen.

Ansätze zur Optimierung Viskosität

Der Bewegungsunschärfe versucht man unter anderem dadurch entgegenzuwirken, dass man die Schaltzeiten der Displays weiter reduziert, vor allem durch eine Reduktion der Viskosität der eingesetzten Flüssigkristallmaterialien.

Einfache Overdrive-Technologien

Bei der Overdrive-Technik wird an die LCD-Zelle kurzzeitig eine Spannung angelegt, die höher ist als die für den eigentlichen Helligkeitswert erforderliche. Dadurch richten sich die Kristalle schneller aus. Das nächste Bild muss hierzu zwischengespeichert werden. Diese Information wird zusammen mit an das jeweilige Display speziell angepassten Korrekturwerten verwendet, um die genaue Zeit berechnen zu können, während der die Überspannung anliegen darf, ohne dass das jeweilige Pixel übersteuert wird. Das funktioniert jedoch nicht bei der Rückstellung des Kristalls: da es nicht weniger als keine Spannung gibt (die Ansteuerung erfolgt mit Wechselspannung), muss der Kristall passiv entspannen. Durch die Zwischenspeicherung wird das Bild etwa zwei bis fünf Takte verspätet angezeigt. Dieser Versatz kann sich beim Betrachten von Filmen durch Bild- Ton-Asynchronität bemerkbar machen (der Ton eilt dem Bild voraus). Auch bei Computerspielen, die schnelle Reaktionen des Spielers verlangen, macht sich die Bildpufferung negativ bemerkbar.

Vorverzerrung (inverse Filtering)

Hierbei wird aus den Daten des aktuellen und nächsten Bildes die Integration des Auges aus dem jeweils nächstem Bild herausgerechnet. Dazu werden ebenfalls die genauen Schalteigenschaften des jeweiligen Paneltyps benötigt.

Black Stripe Insertion

Um der Bewegungsunschärfe aufgrund der Erhaltungsdarstellung entgegenzuwirken, können die Pixel bzw. das gesamte Display auch kurzzeitig dunkel geschaltet werden. Die Dunkelphase darf bei 50 Hz Ansteuerfrequenz allerdings 55 % der Bildzeit nicht überschreiten (bei 60 Hz sind es 70 % und bei 75 Hz sind es 85 %): sonst flimmert das Bild.

Blinking Backlight

auch„strobing“ genannt: Bei der Verwendung von LEDs zur Hintergrundbeleuchtung von LCD (sogenannte LED-Fernseher oder - Bildschirme) lässt sich diese Methode einfacher als Black Stripe Insertion realisieren, da hierbei nicht die Pixel schneller ange steuert werden müssen, sondern für Pixelbereiche bzw. das gesamte Display die Hintergrundbeleuchtung für den Bruchteil einer Vollbilddauer ausgeschaltet werden kann. Scanning Backlight

auch„field sequential“ genannt: Hierbei wird das LC-Display nicht mit weißem Licht, sondern nacheinander von roten, grünen und blauen Primärlichtern (häufig per LED) beleuchtet. Da bei LCD mit zeitsequentieller Ansteuerung mit den Primärfarben keine helligkeitreduzierenden Farbfilter erforderlich sind und hohe Leuchtdichten vorhanden sind, lässt sich der Helligkeitsverlust durch die Sequenzabfolge leichter kompensieren. Allerdings trifft man mit dieser Technik einen alten Bekannten der Projektionstechnik wieder: den Regenbogeneffekt.

100/120-Hz-Technik und 200/240-Hz-Technik

Hier werden synthetische Zwischenbilder berechnet und anschließend zusammen mit den Originalbildern ausgegeben. Dadurch erhöht sich die reale Bildfrequenz um ein ganzzahliges Vielfaches. Aus 24 fps (Kinostandard) werden so 48, 72, 96 oder sogar 120 fps. Schlieren durch Hold-Displays können so deutlich reduziert werden. Neben der Reduktion von Bewegungsunschärfen werden auf diese Weise Bewegungen und Kamerafahrten deutlich flüssiger wiedergegeben. Allerdings kann durch die Bewegungsinter- polation insbesondere bei leicht rauschenden Bildquellen eine mehr oder weniger deutliche Trennung zwischen Vorder- und Hintergrund im Bild beobachtet werden (Soap- Opera-Effekt). Die 100/120-Hz-Technik kommt mittlerweile (2008) in vielen höher wertigen Displays zum Einsatz. 240-Hz- Geräte sind angekündigt. Ein weiterer Vorteil dieser Technik ist es, dass Overdrive feiner dosiert angewendet werden kann. Es ist al- lerdings zu bedenken, dass die größte Verbesserung zwischen den„100/120-Hz- Displays“ und solchen mit geringeren Frameraten zu sehen ist, da das menschliche Gehirn ohne Übung nur größere Differenzen zwischen den Frequenzen bewusst verarbeiten kann. Einsatzmöglichkeiten

In Digitaluhren und Taschenrechnern werden LCDs schon seit Anfang der 1970er Jahre verwendet. Diese einfarbigen Displays ohne Hintergrundbeleuchtung zeichnen sich durch geringsten Energieverbrauch und sehr hohe Lebensdauer aus und finden alternativlos überall dort Anwendung, wo ein langer wartungsfreier Betrieb erforderlich ist.

Später fanden LCDs als Aktiv-Matrix-Displays mit Hintergrundbeleuchtung Verbreitung über weitere tragbare oder batteriegespeiste Geräte wie etwa Mobiltelefone, Notebooks und ähnliches.

Typische Auflösungen bei Computer-Flachbildschirmen reichen von 1024x768 Pixel (38 cm/15") über 2560x 1600 Pixel (76 cm/30"), bis 3840 x 2160 Pixel, bei Notebooks reichen sie von 800x480 Pixel bis 3200x 1800 Pixel. PDAs und portable DVD-Spieler weisen Auflösungen zwischen 320x240 und 800x480 Pixel, Displays von Standbild- und Videokameras zwischen 160x176 Pixel (84 Tausend Pixel) und 640x480 Pixel (900 Tausend Pixel) auf. Insbesondere bei Smartphones hat die Firma Apple mit dem „Retina-Display“ einen neuen Marketingbegriff für hohe Bildauflösung geschaffen. Mittlerweile haben LCD- und Plasma-Displays die Kathodenstrahlröhre weitgehend verdrängt. Dies betrifft Computermonitore (seit 2006) und Fernsehgeräte mit größeren Bilddiagonalen (seit 2008). Auch andere Anwendungsgebiete wie Oszilloskope sind schon seit längerem in der Hand von computerangesteuerten LCD. 2003 wurden in Deutschland bereits mehr LCD als herkömmliche Röhrenmonitore für PCs und 2006 mehr Flachbildfernseher - also LCD und Plasmabildschirme - als Röhrengeräte verkauft.

Versuche, mit LCD-Matrixanzeigen Bildschirmprojektoren zu realisieren gab es ab den 1970er Jahren. Der Imagina 90 war weltweit der erste in Serie gefertigte Videogroß- bildprojektor mit Flüssigkristallbildgenerator, der sich auch für den Dauerbetrieb eignete.

Produktion

Die LCD-Technik hat in den letzten Jahren insbesondere durch die Entwicklung von Flachbildschirmen einen enormen Aufschwung erlebt. Große Produktionsstätten für Flachbildschirme wurden zunächst in Japan errichtet. Schon bald setzte jedoch die Abwanderung der Industrie in die neuen asiatischen Industrienationen ein, in denen billige Arbeitskräfte und üppige staatliche Förderung lockte. Derzeit befindet sich der Schwer punkt der Flachbildschirmindustrie in Taiwan und insbesondere Südkorea. In Südkorea betreiben die dort ansässigen weltweit größten Flachbildschirmhersteller - Samsung, LG Display und Chi Mei Optoelectronics (CMO) - die zurzeit (2008) größten LC- Bildschirm-Produktionsstätten. Die Wanderung der Industrie geht jedoch weiter.

Auf der Suche nach noch kostengünstigeren Produktionsstandorten hat der Boom inzwischen China erreicht. Produktionsstätten zur Herstellung hochwertiger Flachbild- schirme sind dort derzeit (2008) im Aufbau. Umweltschutz

Aus der Sicht des Klimaschutzes wird die Flüssigkristallbildschirmfertigung als problematisch angesehen, da in der traditionellen Produktion sehr große Mengen klimage- fahrdender Substanzen eingesetzt würden. Im wichtigen„Arrayprozess“, in dem die TFT-Steuermatrix großflächig auf dünne Glasscheiben aufgebracht wird, werden potente Treibhausgase wie Schwefelhexafluorid (SF6) - GWP 22800 C02e - und Stick- stoffirifluorid (NF3) - GWP 17200 C02e - in sehr großem Umfang verwendet und in die Atmosphäre ffeigesetzt, wie eine Studie aus dem Jahre 2008 aufzeigt.

Siehe auch

-Cholesterische Flüssigkristallanzeige (ChLCD)

-Ferroelectric Liquid Crystal Display (FLCD)

-Fransenflügler beschädigt Monitore

6. Software

Software ['snf(t)w :] (dt. = weiche Ware [von] soft = leicht veränderbare Komponenten [...], Komplement zu , Hardware 4 für die physischen Komponenten)[l] ist ein Sammel begriff für Programme und die zugehörigen Daten.[2] Sie kann als Beiwerk zusätzlich Bestandteile wie z. B. die Softwaredokumentation in der digitalen oder gedruckten Form eines Handbuchs enthalten.

Software bestimmt, was ein softwaregesteuertes Gerät tut und wie es das tut (in etwa vergleichbar mit einem Manuskript). Die Hardware (das Gerät selbst) führt Software aus (arbeitet sie ab) und setzt sie so in die Tat um. Software ist die Gesamtheit von In formationen, die man der Hardware hinzufügen muss, damit ein softwaregesteuertes Gerät für ein definiertes Aufgabenspektrum nutzbar

Durch das softwaregesteuerte Arbeitsprinzip kann eine starre Hardware individuell arbeiten. Es wird heute nicht nur in klassischen Computern angewendet, sondern auch in vielen eingebetteten Systemen, wie beispielsweise in Waschmaschinen, Mobiltelefonen, Navigationssystemen und modernen Fernsehgeräten. Definition

Der Begriff Software ist bis heute nicht einheitlich und auch nicht eindeutig definiert. Das geht u. a. darauf zurück, dass„innerhalb der Softwaretechnik eine einheitliche solide, konsistente und systematische Begriffsbildung durch eine hohe Innovationsge- schwindigkeit und Praxisnähe behindert“ wird. Es existieren daher verschiedene Definitionen, die sich je nach Autor und Kontext oft auch nur in Details unterscheiden.

Die Bezeichnung Software wird im allgemeinen Sprachgebrauch meist nur auf Programme bezogen, nicht aber auf andere Daten. Daneben können aber auch der Quelltext, weitere Daten oder die Dokumentatio je nach Definition hinzugezählt werden. Außerdem wird Software auch als Gattungsbegriff für unterschiedliche Arten von Programmen verwendet (Grafiksoftware, Anwendungssoftware, Standardsoftware, Sicher heitssoftware u. v. a.).

Etymologie

Der Ausdruck Software ist ein Kunstwort, das von John W. Tukey im Jahr 1958 im American Mathematical Monthly als Gegenstück zu dem wesentlich älteren Wort Hardware das erste Mal verwendet wurde. Dabei bezeichnet Hardware alle physischen Bestandteile eines Computers. In diesem Sinn könnten unter Software - als dem Gegenstück zur Hardware - grundsätzlich alle elektronisch gespeicherten Daten verstan- den werden. Als Definition genügt diese Sichtweise jedoch nicht.

Definitionen nach ISO/IEC-Norm 24765

Die aktuelle ISO/IEC-Norm 24765 ersetzte die DIN-Norm 44300 und enthält für Soft ware folgende Definitionen:

-Software ist ein Programm oder eine Menge von Programmen, die dazu dienen, einen Computer zu betreiben.

-Software sind Programme sowie die zugehörige Dokumentation.

-Software sind Programme und ggf. die zugehörige Dokumentation und weitere Daten, die zum Betrieb eines Computers notwendig sind.

Welche dieser Definitionen zutrifft, hängt vom jeweiligen Kontext ab, wobei auch hier die Übergänge fließend sind.

Software als Programm In der Softwaretechnik besteht Software aus„Computerprogrammen in jeder Erscheinungsform, vom Quelltext bis zum direkt ausführbaren Maschinencode“. Computerprogramme bestehen oft aus mehreren Komponenten, die sich auch über mehrere Dateien verteilen können.

Software als Programm und Dokumentation

Im Softwarerecht (oft im Zusammenhang mit dem Softwareerwerb) wird Software auch als Softwareprodukt bezeichnet, das„als Beiwerk zusätzlich Bestandteile wiez.B. die Dokumentation in digitaler oder gedruckter Form enthalten kann oder muss“. So auch im Urheberrecht, bei dem das Entwurfsmaterial zur Software gehört, wie der Quelltext, auch Quellprogramm genannt. D. h. der Urheberrechtsschutz gilt i. d. R. auch für den Quellcode [als Schutzgegenstand].

Software als Programm, Dokumentation und Daten

Einige Definitionen nennen neben dem Programm selbst (und evtl der Dokumentation) auch weitere Daten als zur Software gehörend („zugehörige Daten“). Im Glossar des IEEE für Softwareentwickler werden Beispiele für derartige nicht-ausführbare Softwareteile genannt, wie Schriftarten, Grafiken, Audio- und Videoaufzeichnungen, Vorlagen, Wörterbücher, Dokumente und Informationsstrukturen (wie Datenbank- Datensätze).

Weiterhin gibt es Software-Definitionen, die sämtliche Daten umschließen, die das Computerprogramm nutzt und darüber hinaus auch die Dokumentation einbeziehen. Demgegenüber gibt es auch Definitionen, die sowohl die Dokumentation, als auch die zur Verarbeitung vorgesehenen Daten ausschließen.

Eine klare Trennlinie ist jedoch nicht näher definiert, die beschreibt, welche Daten konkret gemeint sind (z. B. die zu verarbeitenden Daten) oder welche Daten

, notwendig 4 oder , zugehörig 4 [2] sind.

Geschichte

In den 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Pro- grammcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Software erstmals.

Später sorgte dann die Entscheidung der US-Regierung in den 1970er Jahren für eine Neuheit, dass IBM auf Rechnungen Software und Hardware getrennt zu berechnen und aufzuführen habe. Das entsprach einer Anerkennung der Einzelhaftigkeit von Software von offizieller Seite und einer endgültigen Aufspaltung von Hardware und Software bzw. einer Abgrenzung der Software von der Hardware. Dieser Entwicklung folgte dann in den 1970er Jahren die Gründung von Firmen, die erstmals nur mit Software handelten und nur Software und keine Hardware entwickelten. Zu diesen Firmen gehörte in den USA Microsoft und in Deutschland SAP. Die Existenz solcher Firmen erscheint im 21. Jahrhundert als Selbstverständlichkeit, stellte damals jedoch eine erhebliche Neuerung dar.

Der logische Übergang zwischen Hard- und Software lässt sich an den frühen Spielhallenspielen verdeutlichen, wie das Spiel Breakout, das im April 1976 veröffentlicht wur de. Damals bestand deren komplettes Programm (der Ablauf, die Logik) bildlich gesehen aus„vorverdrahteten Schalttafeln“. Das von Atari produzierte Spielhallengerät verwendete keinen Prozessor. Bereits ein Jahr später, als das Spiel für den Computer programmiert wurde, und man anfing bei prozessorgesteuerten Geräten zwischen den Begriffen , Hardware' und , Software' zu unterscheiden, gab es Breakout als Software. Das Spiel bestand nicht mehr aus,, vorverdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren In- formationen, die gemeinsam auf einem Datenträger hinterlegt wurden.

Besondere Merkmale von Software

Software ist immateriell und besteht aus den Sprachen und Notationen, in denen sie formuliert ist. Software kann zwar auf bestimmten Medien gespeichert, gedruckt angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur. ns -

Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterlegen, doch grundsätzlich ist , Software 1 ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprägungen wie ein bestimmtes Anwendungsprogramm. Als Analogie dazu ist es für den Begriff ,Oper‘ oder , Zauberflöte 4 nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist.

In Details unterschiedliche Bedeutungen

-Im Zusammenhang mit der Ausführung auf einem Computer wird unter Software primär alles verstanden, was auf dem Rechner ausgeführt werden kann (das Programm im engeren Sinn, bestehend aus Befehlen und Datendefinitio- nen). Dazu kommen die mit den Programmen verbundenen Ressourcen, die zum Betrieb der Software erforderlich sind. Das sind, abhängig von den ver- wendeten Entwicklungswerkzeugen, zum Bei- spiel Konfigurationsdateien, Schriftart-Dateien, Lookup-Tabellen, Datenstrukturen für Datenbanken etc.

-In engstem Sinn wäre unter , Software 4 nur von der Hardware ausführbarer Maschinencode zu verstehen. Jedoch fällt darunter auch alles, was durch beliebige ,inter- pretierende Systeme 4 , die Teil der Systemsoftware sind, ausgeführt werden kann, wie das bei Verwendung höherer Programmiersprachen und Entwicklungsumgebungen na hezu immer der Fall ist.

-So ist in der Softwareentwicklung (als zentraler Arbeitsgegenstand) und in der Quali- tätssicherung (als bedeutender Prüfgegenstand; siehe Softwarequalität) auch der Quellcode ein wesentliches Software-Artefakt.

-Sprachlich wird der Ausdruck , Software 4 unterschiedlich verwendet: Er steht für konkret benannte Komponenten (Programm XY, Unterprogramm ABC, Konfigurationsda- tei XXX. INI). Er wird als Sammelbegriff für unterschiedliche Gesamtheiten/Mengen von Programmen benutzt, zum Beispiel für eine aus vielen Einzelprogrammen beste hende Buchhaltungssoftware, für alle Anwen- düngen eines Unternehmens („unsere Unternehmenssoftware“), oder, wie be- reits erwähnt, als Typ-/Gattungsbegriff für un terschiedliche Arten von Software (wie Grafiksoftware, Standardsoftware, Systemsoftware etc).

Fließende Grenze zwischen Software und Daten

Zur Verarbeitung bestimmte Daten zählen im allgemeinen Sprachgebrauch nicht zum Begriff Software. Jedoch ist die Grenze zwischen Software und Daten fließend, denn je nach Situation können Daten und Programme in unterschiedlichen Rollen auftreten und die Begriffe dabei vertauscht werden:

Auf der Dateiebene können Mischformen auftreten, beispielsweise in Office- Dokumenten oder bei einer Tabellenkalkulationsdatei. Hier enthält eine Datei sowohl Daten im Sinne von das Bearbeitete (Texte oder Zelleninhalte) als auch funktionale Anwei- sungen (Makroanweisungen, Zellformeln).

Vertauscht sind die Rollen beispielsweise, wenn ein Quellprogramm von einem Compi ler in ein Maschinenprogramm umgewandelt wird: Sowohl das Quellprogramm als auch das erzeugte Binärprogramm sind ,Daten‘, der Com-piler ist die Software. Ebenso verwendet ein Interpreter ein Ouellprogramm oder ein Emulator ein Binärprogramm als Daten und erzeugt daraus speicherintern den ausführbaren Code. Die so verarbeiteten Programmdateien sind Software, rollenspezifisch aber gleichzeitig Daten.

Dieser Zusammenhang, dass ein Programm sowohl als Daten als auch als Funktion auf- treten kann, ist zentral in verschiedenen Disziplinen der Informatik, darunter die theoretische Informatik (u. a. Rekursionstheorie, Automatentheorie, Domaintheorie) und die technische Informatik (z. B. Von-Neumann-Architektur).

Unterscheidung zwischen Hard- und Software

Je nach Zusammenhang ist bei der Unterscheidung zwischen Hard- und Software eine oder mehrere der folgenden Bedeutungen gemeint: Leicht veränderbare Komponente (Software) vs. schwer veränderbare Komponente (Hardware) in einem Computerdesign.

Instruktionskode (Software) vs. Universelle Maschine (Hardware).

Nicht greifbar im Sinne von Funktionsbestandteilen eines Computersystems, die sich „nicht anfassen lassen“ (Software) vs. greifbare Komponenten (Hardware). Software ließe sich über eine Telefonleitung übertragen, Hard- wäre dagegen nicht.

Die Gegensätze sind in der englischsprachigen Begriffsprägung (soft=weich, hard=hart) beabsichtigt. Verschiedene Blickwinkel auf Software

Software kann aus vielen unterschiedlichen Gesichtspunkten betrachtet werden, zum Beispiel:

Zusammenwirken mit der Hardware (Execution) Software: Typisierung, Zusammenhänge, Überblick

„Zwischen Hard- und Software besteht eine gewisse Aufgabenverteilung: Die Hard ware garantiert Quantität, also Tempo und Speicherkapazität, die Software sorgt für die Abbildung der Anforderungen auf die strukturell primitive Hardware“ Obwohl dem Begriff , Software 4 teilweise Attribute wie Flexibilität, Individualität, Leistungsfähigkeit etc. zugeschrieben werden, wird letztlich alles, was der Computer Tatsächlich tut 4 , nicht von der Software, sondern ausschließlich durch die Hardware ausgeführt. Software , beschreibt 4 lediglich, was getan werden soll und in welcher Form das geschieht.

Dazu wird auf unterster Ebene der Maschinencode der Software unter Nutzung des Betriebssystems (d. h. ebenfalls durch dessen Maschinenbefehle) in den Hauptspeicher des Computers geladen und dem Rechenwerk Schritt für Schritt (siehe Befehlszähler) zur Ausführung zugeführt. Dieses Arbeitsprinzip gilt für jede Art von Software, auch wenn sie z. B. von Interpretern ausgeführt wird: Diese sind ebenfalls Software, deren Maschinencode an der Hardwareschnittstelle ebenfalls wie beschrieben ausgeführt wird und die Maschinenbefehle nur speicherintern erzeugen. Auch Compiler, Makroprozessoren und jede andere Art von Systemsoftware werden nach diesem Prinzip ausgeführt.

Der Maschinencode muss dafür in einer Form/Struktur vorliegen, die von der Hardware über deren darin implementierte Schnittstelle interpretiert und ausgeführt werden kann. Die Befehle zeigen durch ihren Inhalt und ihre Struktur an, was zu tun ist, welche Datenbereiche im Hauptspeicher dabei benutzt oder verändert werden sollen (über im Befehl enthaltene Adressierungsangaben) und ggf., an welcher Stelle das Programm fort zusetzen ist.

Bei der Ausführung wirken also viele Schichten zusammen und führen als Gesamtheit zu Zustandsänderungen in der Hardware bzw. final zu den vorgesehenen Ergebnissen, etwa der Ausgabe einer Druckzeile, einem Datenzugriff oder der Anzeige eines Feldinhalts am Bildschirm. Bei in höheren Programmiersprachen entwickelten Anwendungen können so schon für relativ einfache Funktionen (wie Lesen aus der Datenbank) oft Hunderttausende oder Millionen von Maschinenbefehlen durchlaufen werden.

Das in modernen Computern mögliche parallele Ausführen mehrerer Program me/Prozesse wird im Wesentlichen durch das Betriebssystem bewirkt, das bei bestimm- ten Ereignissen den Wechsel von einer zur anderen Task einleitet und verwaltet. Siehe auch Multitasking.

Im systematischen Zusammenwirken vieler Komponenten, das nur unter Anwendung klar definierter Schnittstellen möglich ist,„gehört Software also zu den komplexesten Artefakten, die Menschen bislang geschaffen haben“.

Die Software trägt zudem maßgeblich dazu bei, wie effizient die Hardware genutzt wird. Je nach Gestaltung der Algorithmen können mit derselben Hardware unterschiedliche Systemleistungen erreicht werden. Entwicklung von Software

Die Entwicklung von Software ist ein komplexer Vorgang. Dieser wird durch die Softwaretechnik, einem Teilgebiet der Informatik, systematisiert. Hier wird die Erstellung der Software schrittweise in einem Prozess von der Analyse über die Softwaremodellie- rung bis hin zum Testen als wiederholbarer Prozess beschrieben.

In aller Regel wird die Software nach der Entwicklung mehrfach angepasst und erweitert. Der Software-Lebenszyklus kann durchaus mehrere Jahre betragen. -Software wird unter Nutzung bestimmter Verfahren, Methoden und , Werkzeuge 1 entwickelt. Dabei werden unterschiedliche Entwicklungsstadien durchlaufen, in denen jeweils unterschiedliche Zwischenstände der Software entstehen: Analysetätigkeiten (zahlreiche Entwicklungsdokumente) > Programmie- rung (Quellcode) > im Betrieb (Maschinencode oder ausführbarer Code). Im engeren Sinn der Ausführung auf dem Computer gilt lediglich Letzteres als 'Software'. Siehe auch Softwareentwicklung.

-In diesem Zusammenhang ist Software Bearbeitungsgegenstand von System- Pro grammen: Wenn z. B. ein Compiler den Quellcode eines Programms liest, verarbeitet und einen Maschinen- oder Zwischencode erzeugt, so sind das aus dessen Sicht 'Daten'.

-Einmal erzeugte Software kann mit verhältnismäßig geringen Kosten verviel- faltigt werden, die meist durch Datenträger, Werbung und dem Herstellen von Verpackung und zu Papier gebrachten Dokumentationen anfallen. -Software verschleißt nicht durch Nutzung, unterliegt jedoch mit der Zeit der Softwarealterung.

-Software ist meist austauschbar, fähig zur Aktualisierung, korrigierbar und erweiterbar, insbesondere dann, wenn bestehende Richtlinien eingehalten werden und der Quelltext verfügbar ist

Software tendiert dazu, umso mehr Fehler zu enthalten, je komplexer sie ist. Fehler werden in aktualisierten Softwareversionen oder mithilfe eines Patches und i. d. R. nach Durchführung von Softwaretests behoben. Softwarefehler bezeichnet man auch als Programmfehler oder als„Bugs“.

Weil Software unter Einsatz vieler unterschiedlicher Programmiersprachen und in vie- len unterschiedlichen Betriebssystemen und Systemumgebungen entwickelt werden kann, sind Softwarestandards erforderlich, um Informationen System- und unterneh- mensübergreifend , verstehbar 1 und austauschbar zu machen. Siehe auch Elektronischer Datenaustausch (Beispiele), Programmierstil. Auswahl von Software

In der Entscheidung zur Anschaffung von Software lässt sich i. W. der Einsatz von Standardsoftware oder die eigene Herstellung (Individualsoftware) unterscheiden. Besonders im betrieblichen Umfeld zieht diese Entscheidung häufig hohe Kosten nach sich. Auch können solche Entscheidungen Grundlage zur Umsetzung der Unterneh- mensstrategie sein oder sollen Unternehmensprozesse maßgeblich verbessern. Zur Vermeidung von Fehlinvestitionen sollte der Anschaffung ein systematischer Entscheidungsprozess vorausgehen.

Betrieb von Software

-Der Einsatz von Software erfordert je nach Einsatzbereich ein gewisses Maß an Organisation, um die zusammengehörenden Teile richtig einzusetzen und durch neue Versionen abzulösen (zum Beispiel in größeren Unternehmen im Releasemanagement).

-Mitunter kann Software vorkonfiguriert werden, um so eine Neuinstallation zu be- schleunigen und um Fehler bei der Konfiguration zu minimieren.

Software aus Sicht der Betriebswirtschaft und Arbeitssoziologie

Im Wesentlichen für betriebliche Anwendungssoftware geltend kann Software aus (be- triebs-) wirtschaftlicher Sicht als 'im Voraus geleistete geistige Arbeit', also als Investi- tion betrachtet werden. Zum Beispiel erarbeiten die Programmautoren ein Lösungsverfahren für die korrekte Trennung aller deutschen Wörter in einem Textverarbei- tungsprogramm. Damit ist im Voraus, also bevor diese Tätigkeit tatsächlich anfallt, schon für alle Schreiber, die mit diesem Textverarbeitungsprogramm arbeiten, die geistige Arbeit„korrektes Trennen deutscher Wörter“ geleistet. Dabei wird die Eigenschaft von Computern genutzt, auf sie verlagerte Aufgaben erheblich schneller und zuverläs- siger ausführen zu können als es bisher Menschen möglich war. Besonders auch in der Softwareentwicklung wird intensiv auf „im Voraus“ entwickelte Algorithmen und Codeteile - als Teile eines Programms - zurückgegriffen ('Software- W iederverwendung') . Ein ähnlicher Zusammenhang wird in der Arbeitssoziologie gesehen: Derartige softwarebasierte Maßnahmen sind geeignet, Arbeitsinhalte und -abläufe erheblich zu verändern. Die Bandbreite reicht dabei vom Bereitstellen einfacher Hilfsmittel (etwa zur Summierung oder Durchschnittsermittlung) bis hin zur völligen Umgestaltung von Prozessen (durch Konzentration früher getrennter oder durch Zerlegung früher zentralisier- ter Arbeitsabläufe) - oder gar bis zu deren vollständigen Ersatz durch IT- Lösungen. Brödner u. a. nennen das„materialisierte“ Kopfarbeit. Siehe auch Rationalisierung, Optimierung, Taylorismus.

Kategorisierung von Software

Nach ISO/IEC 2382 wird Software wie folgt gegliedert (und bezeichnet):

-Systemsoftware: Anwendungsunabhängige Software, die das Ausführen von Anwendungssoftware ermöglichen bzw. unterstützen (z. B. Betriebssystem, sowie Gerätetrei ber und Dienstprogramme)

-Unterstützungssoftware, d. h. Programme, die bei der Entwicklung, Wartung helfen oder eine nicht-anwendungsspezifische Leistung erbringen (z. B. Edito- ren, Compiler, Virenscanner, Datenbankmanagementsysteme, ...)

-Anwendungssoftware, die den Benutzer bei der Ausführung seiner Aufgaben unter stützt und ihm dadurch erst den eigentlichen, unmittelbaren Nutzen stiftet (z. B. eine Tabellenkalkulation)

Unterteilung nach dem Grad der Individualität -Standardsoftware wird von einem Softwareanbieter zum Einsatz bei mehre- ren/vielen Kunden erstellt, die diese Software erwerben können.

-Individualsoftware wird für einen einzelnen Anwender zur Lösung einer spezifi- sehen Aufgabenstellung individuell erstellt oder modifiziert, alternativ durch ei- nen Soft- wareanbieter oder durch eigene Entwickler bzw. Entwicklungsabtei- lungen eines Unternehmens.

Rechtlich wird beim Erwerb von Software zwischen Individualsoftware und Standardsoftware unterschieden: Für Individualsoftware wird ein Werkvertrag bzw. Werkliefe- rungsvertrag abgeschlossen, der Erwerb von Standardsoftware gilt als Sachkauf.

Unterteilung nach der Art der erzeugten Ergebnisse

Diese entstehen im Verlauf des Herstellungsprozesses von Software und können beispielsweise sein:

-Quellcode, Zwischencode, Maschinencode, Gerätetreiber und andere erforderliche Module (als Programmbibliothek ausgeliefert)

-Installationsprogramme und dazugehörende Anweisungen

-Weitere Unterlagen wie die Dokumentation für Softwareentwickler und Soft- warebe- nutzer

Software nach der Art der Einbettung

-Nicht eingebettete Software, die nachträglich installiert wird

-Fest in einem Gerät zu dessen Steuerung untergebrachte Software (z. B. in einem ROM oder als Teil eines eingebetteten Systems) bezeichnet man als Firmware oder auch als eingebettete (oder ,embedded‘) Software

Einstufung nach Nutzungsrecht (Lizenz)

-Adware

-Beerware

-Cardware (auch Postcardware)

-Careware

-Crippleware -Donationware

-Freeware

- Nagware

-Shareware

-Freie Software

Unterteilung nach Quellcode-Verfügbarkeit

-Freie Software

-Open Source

-Proprietäre Software

Einstufung nach Verfügbarkeit

-Abandonware

-Vaporware

Weitere Softwarebegriffe

-Portable Software: Auf verschiedenen Computer(typen) lauffähig

-Native Software: Zur Ausführung auf einem bestimmten Computersystem erstellt oder kompiliert. Der Programmcode nutzt die individuelle Funktionalität eines bestimmten Systemtyps, Allgemeingültigkeit und Portabilität gelten nicht als Entwicklungsziel.

-Bananenware (unausgereifte Software)

-Schlangenöl (Programm ohne echte Funktion, wird aber als Wundermittel an- gepriesen)

-Shovelware (Sammlung von Software, wobei die Quantität zählt)

-Riskware

-Bloatware (mit Funktionen ohne synergetischen Nutzen überladene Software)

Spyware

-Gebraucht-Software Lizenzmodelle Die Verbreitung und Nutzung von Software unterliegt dem Urheberrecht. In diesem Zusammenhang gibt es mehrere typische Überlassungsmodelle:

Verkauf

Der vollständige Verkauf von Software, inklusive der Überlassung von Weiterverbreitungsrechten, kommt praktisch nur zwischen Unternehmen vor, in der Regel im Rahmen von Auftragsprogrammierung oder beim Verkauf eines Softwareentwicklungsunternehmens. Nutzungsrecht

Bei der meisten Software, die zum Beispiel für PCs„gekauft“ werden kann, wird in Wirklichkeit nur ein Nutzungsrecht überlassen. Dieses Modell ist auch bei der Auf tragsprogrammierung üblich, bei der ein Unternehmen ein Programm für den Eigengebrauch eines anderen Unternehmens speziell entwickelt. Bei Freeware ist dieses Recht kostenlos, was nicht mit freier Software verwechselt werden darf.

Die Software wird bei einem Dienstleister gehostet, die eigentliche Nutzung der Software kann entweder pro Zeitraum oder pro Nutzungseinheit berechnet werden. Sie findet oft auf einem einfachen PC und z. B. per Webbrowser statt.

Freie Software/Open Source/GPL

Freie Software darf von jedem genutzt, beliebig verändert und weiterverbreitet werden. Oft unterliegt dieses Recht gewissen Einschränkungen, wie zum Beispiel der Nennung des Autors oder die Verpflichtung, veränderte Versionen unter die gleiche Lizenz zu stellen (GPL). Software, die nicht zu dieser Gruppe zählt, wird proprietär genannt.

Zwischen den oben genannten Hauptformen der Softwareverbreitung gibt es zahlreiche Zwischen- und Mischstufen.

Siehe auch: Lizenzen der freien Software und Lizenzmanagement

Freie Software und Open Source

, Freie Software’ ist eine soziale Bewegung, die unfreie Software als gesellschaftliches

Problem begreift. Wobei„frei“ hier nicht„kostenlos“ bedeutet (, Freie Software’ ist nicht dasselbe wie , Freeware’), sondern die Freiheiten für die Gesellschaft meint, die ein derart lizenziertes (auch kommerzielles) Produkt bietet. In den Augen der von Richard Stallman 1985 gegründeten Free Software Foundation (FSF) ist die Entscheidung für oder gegen freie Software deshalb primär eine ethische und soziale Entschei- düng.

Dagegen begreift die 1998 gegründete Open Source Initiative (OSI) quellofFene Software als bloßes Entwicklungsmodell, wobei die Frage, ob Software quelloffen sein sollte, dort eine rein praktische und keine ethische Frage ist. Die FSF wirft der OSI daher eine Ablenkung von den wesentlichen Punkten vor. Eric S. Raymond hat den Begriff ,Open Source’ in der Annahme eingeführt, dass das unpopuläre Thema , Freiheit’ Geldgeber für solche Projekte abschrecken könne.

Auch wenn es sich heute um zwei unterschiedliche Bewegungen mit unterschiedlichen Ansichten und Zielen handelt, verbindet sie die gemeinsame Wertschätzung für quelloffenen Code, was in zahlreichen Projekten mündet, in denen sie Zusammenarbeiten.

7. Anwendungssoftware

Als Anwendungssoftware (auch Anwendungsprogramm, kurz Anwendung oder Appli- kation; englisch application Software, kurz App) werden Computerprogramme bezeichnet, die genutzt werden, um eine nützliche oder gewünschte nicht systemtechnische Funktionalität zu bearbeiten oder zu unterstützen. Sie dienen der„Lösung von Benutzerproblemen“. Beispiele für Anwendungsgebiete sind: Bildbearbeitung, E-Mail- Programme, Webbrowser, Textverarbeitung, Tabellenkalkulation oder Computerspiele. Aus dem englischen Begriff application hat sich in der Alltagssprache auch die Bezeichnung Applikation, kurz App, eingebürgert. Im deutschen Sprachraum wird die Abkürzung App seit dem Erscheinen des iOS App Store (2008) fast ausschließlich mit mobiler App gleichgesetzt, also Anwendungssoftware für Mobilgeräte wie Smartpho- nes und Tabletcomputer. Allerdings wird inzwischen auch teilweise Desktop- Anwendungssoftware App genannt, zum Beispiel bei Microsofts Betriebssystem Win- dows seit Windows 8 (Windows-Apps), das sowohl auf Desktop- PCs als auch Tablets eingesetzt wird, oder bei Apples Betriebssystem macOS mit dem Mac App Store.

In Unternehmen

Anwendungssoftware wird in erheblichem Umfang zur Unterstützung der Verwaltung in Behörden und Unternehmen eingesetzt. Anwendungssoftware ist zum Teil Standardsoftware, zu großen Teilen werden auf den jeweiligen Anwendungsfall zugeschnittene Branchenlösungen als Individualsoftware eingesetzt. Im Bereich der strategischen und wirtschaftlichen Anwendungssoftware innerhalb eines Unternehmens (wie Enterprise- Resource-Planning-Systeme oder Portal-Software) spricht man auch von Business- Anwendungen, Business Software oder Unternehmenssoftware.

Auf Mobilgeräten

Mobile Apps können über einen in das mobile Betriebssystem integrierten App Store bezogen und direkt auf dem Gerät installiert werden. Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und müssen nicht installiert werden.

In Webbrowsern

Eine besondere Form von Anwendungssoftware sind Webanwendungen. Auf diese wird vom Arbeitsplatzrechner oder Mobilgerät über einen Webbrowser zugegriffen und sie laufen im Browser ab. Webanwendungen erfordern im Gegensatz zu Desktop- Anwendungen kein spezielles Betriebssystem, teilweise jedoch spezielle Laufzeitumgebungen.

Abgrenzung zu systemnaher Software

Anwendungssoftware steht (nach ISO/IEC 2382) im Gegensatz zu Systemsoftware und Dienstprogrammen. Dazu„zählen die Programme, die für den korrekten Ablauf einer Rechenanlage erforderlich sind, sowie alle Programme, die die Programmerstellung unterstützen, z. B. Übersetzer und Testwerkzeuge und allgemeine Dienstleistungen bereitstellen (Formatierung, Dateiverwaltung, Datentransfer) die aber keinen Endbenutzer- bezogenen r Nutzen ! bringen. Beispiele sind das Betriebssystem, Compiler für verschiedene Programmiersprachen oder Datenbanksysteme.

Anwendungssoftware kann sowohl lokal auf einem Desktop-Computer (Desktop- An- wendung) bzw. auf einem Mobilgerät installiert sein oder auf einem Server laufen, auf den vom Desktop-Computer bzw. Mobilgerät zugegriffen wird (Client-Server- bzw. Webanwendung). Sie kann, abhängig von der technischen Implementierung, im Modus Stapelverarbeitung oder im Dialogmodus (mit direkter Benutzer-Interaktion) ausgeführt werden. Diese beiden Unterscheidungen gelten aber für alle Computerprogramme, grundsätzlich auch für Systemsoftware.

8. Mobile App

Als Mobile App (auf Deutsch meist in der Kurzform die App [er], eine Abkürzung für den Fachbegriff Applikation; teils auch das App [ 1 ] ; auf engl [aep] als Kurzform für englisch application) wird eine Anwendungssoftware für Mobilgeräte beziehungsweise mobile Betriebssysteme bezeichnet. Obwohl sich der Begriff App auf jegliche Art von Anwendungssoftware bezieht, wird er im deutschen Sprachraum oft mit Anwendungssoftware für Smartphones und Tablets gleichgesetzt. Bei mobilen Apps wird zwischen nativen Apps, die nur auf einer Plattform funktionieren, und plattformunabhängigen Web-, Hybrid- und Cross-Plattform-Apps unterschieden.

Es gibt sie für die verschiedensten Bereiche, diese reichen von einfachsten Dienstprogrammen und Spaßanwendungen mit nur einer Funktion bis hin zu Programmpaketen mit umfangreicher Funktionalität. So zum Beispiel Office-Anwendungen, Spiele, Rat- geber, Fitness-Apps, zur Emulation älterer Heimcomputer und programmierbarer Taschenrechner, als Hilfestellung für Diabetiker und vieles mehr. Mithilfe von mobilen Remote-Apps werden zunehmend digitale Geräte ferngesteuert, wie zum Beispiel Kameras, Action-Camcorder oder Quadrocopter. Der Großteil dieser Apps ist kostenlos, ein kleinerer Teil muss, für meist geringe Beträge, im jeweiligen App Store gekauft werden. Mit Webbrowsern, wie z. B. dem Dolphin Browser, ist das Surfen im Internet auf einem Mobilgerät möglich

Schon die ersten Mobiltelefone enthielten oft kleine Anwendungen wie etwa Kalender, Taschenrechner oder kleine Spiele. Diese waren vom Hersteller für das jeweilige Betriebssystem konzipiert, fest installiert und nur mit Root-Rechten löschbar. Mit dem Erscheinen von Java auf Mobiltelefonen (Java ME) bekamen Anwender die Möglichkeit, einfache Anwendungen und Spiele von ihrem Mobilfunknetzbetreiber oder aus dem Internet über WAP (MIDlets) herunterzu laden, die häufig schon plattformunabhängig wa- ren. Es entwickelte sich eine Hobby- Programmiererszene, aber auch professionelle Softwarehäuser boten solche Anwendungen kostenpflichtig an. Auch auf diversen PDAs konnten Anwendungen installiert werden. Als Vorläufer von Smartphone-Apps können die Palm-OS-PDA- Anwendungen gelten, die meist nur aus einer Datei bestehen und nach dem Transfer direkt nutzbar sind. Auf Psion-Organisern konnten Pro- gramme mit dem Gerät selbst erstellt werden.

Für Mobiltelefone mit eigenem Betriebssystem und der Möglichkeit, entsprechende Apps zu installieren, setzte sich um das Jahr 2000] der Begriff Smartphone durch. Dieser Begriff wurde der im Mobilbereich erstmals von Ericsson für den Prototypen GS88 verwendet. Weite Verbreitung fand um dieselbe Zeit die Communicator-Serie von Nokia, auf deren späteren Modellen das Betriebssystem Symbian lief. Zu den ersten im Massenmarkt verfügbaren Smartphones zählten 2002 das Siemens S55 und das Nokia 7650, auf denen sich Java-Programme manuell übertragen und ausführen ließen. Erst mit dem Erscheinen des Apple iPhone 2007 und später der Android-Mobiltelefone und weiteren Smartphones wurde die Möglichkeit der Installation von Anwendungen auf mobilen Geräten breiten Bevölkerungskreisen geläufiger, unterstützt durch entsprechend verstärktes Marketing der Hersteller. Auf den meisten Smartphones sind einige Apps, wie zum Beispiel ein Webbrowser, ein E-Mail-Programm und ein Kalender, bereits vorinstalliert. Im Juni 2016 wurden allein für iOS über zwei Millionen Apps ange- boten. Weltweit wurden im Jahr 2016 über 90 Milliarden Apps heruntergeladen (iOS-App- Store und Google-Play-Store). In Deutschland stieg der Umsatz im Vergleich zum Vorjahr um 40 Prozent auf 750 Millionen Dollar. Durchschnittlich verbrachte ein Android- Smartphone-Nutzer mehr als 1 ,5 Stunden am Tag in Apps. Die Liste der beliebtesten Apps (die meisten Downloads) in Deutschland fuhrt 2016 WhatsApp an, gefolgt von Facebook Messenger und Facebook-App. Den vierten Platz belegt Snapchat und auf Rang fünf folgt Instagram. Die umsatzstärksten Apps waren Lovoo, Spotify und Tinder.

Native Apps

Native Apps zeichnen sich dadurch aus, dass sie speziell an die Zielplattform angepasst sind. Da eine native App die Programmierschnittstellen (APIs) der Zielplattform direkt benutzt, ist die Bandbreite der Anwendungen sehr hoch. Zudem kann auf alle plattformspezifischen Hard- und Software-Funktionen zugegriffen werden, wie Dateien, GPS, Beschleunigungssensoren, Mikrofon und Kamera. Durch die verschiedenen Software- Plattformen ist es jedoch nicht möglich, etwa eine Android-App auf einem iPhone aufzuspielen oder umgekehrt. Somit muss ein Softwareunternehmen die Anwendung für jedes Endgerät einzeln entwickeln. Jede mobile Plattform besitzt ihr eigenes Software Development Kit (SDK) und ihre eigene integrierte Entwicklungsumgebung (z. B. Android Studio oder Xcode), welche von Entwicklern genutzt werden können. Die bevor- zugten Programmiersprachen für die größten Systeme sind:

-Java und Kotlin für Googles Android

-Objective-C und Swift für Apples iOS

-C#, C und C++ für Microsofts Windows Mit nativen Apps können die verschiedensten Typen von Geräten auf einmal bedient werden, wenn alle auf einer Plattform basieren. So ist es mit der Universal Windows Platform möglich, auf einmal native Windows-Apps für Desktop-PCs, Laptops, Tablets, Smartphones und die Xbox One zu schreiben.

Plattformunabhängige Apps

Die rasante Entwicklung unterschiedlicher Betriebssysteme, wie Android, Windows, iOS und mobiler Endgeräte, von Smartphones, über Tablets bis zu Notebooks und Smart-TVs, bringt Unternehmen zum Umdenken. Laut einer Studie des Marktforschungsinstitutes GfK nutzen mehr als 60 % der Erwachsenen in den USA mindestens zwei Geräte täglich und etwa 25 % mindestens drei Geräte. Daher ist es wichtig, dass die App auf allen unterschiedlichen Geräten verfügbar ist und problemlos funktioniert. Diese Erwartungshaltung hat den Bedarf nach plattformunabhängige Hybrid- und Cross-Plattform- Anwendungen erhöht.

Plattformunabhängige Apps werden gerade in Unternehmen, die unterschiedliche Geräte benötigen, immer wichtiger. Vor allem durch das Aufkommen des Phänomens Bring your own device (kurz: BYOD, auf Deutsch in etwa:„Bring Dein eigenes Gerät mit“) werden Unternehmen vor die Aufgabe gestellt, firmeninterne Programme und Anwendungen für alle Betriebssysteme und Gerätearten bereitzustellen. Auch spielt Mobilität, beziehungsweise Flexibilität eine tragende Rolle. Eine Anwendung, die auf Desktop- Computern läuft, soll z. B. auch bei dem externen Kundenbesuch auf dem Tablet funk- tionieren oder unterwegs auf dem Smartphone. Dabei wird versucht, möglichst einfach für mehrere Plattformen gleichzeitig zu entwickeln. Google portiert dazu große Teile des Quellcodes von Inbox, mit Hilfe der Software„J20bjC“, von Java nach Objective- C. Auch Microsoft bietet mit der„Windows Bridge“ eine Möglichkeit, Windows Apps mit iOS APIs zu entwickeln.

Web Apps

Mit einem Webbrowser können Web-Apps (z. B. Büroprogramme) aufgerufen werden, z.B. Google Docs.

Siehe auch: Webanwendung und Progressive Web App

Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und bedürfen keiner Installation. Sie benutzen Webstandards wie HTML5 oder JavaScript, damit sie auf beliebigen Endgeräten betrieben werden können. Im Gegensatz zu mobilen Apps, die für jede Plattform neu implementiert werden müssen, kann eine Implementierung von Web-Apps auf vielen verschiedenen Plattformen genutzt werden. Eine mobile Web-App verhält sich im Idealfall genau so wie eine native App, wird also vom Nutzer nicht wie eine Webseite wahrgenommen, sondern bietet stattdessen eine Benutzerober- fläche, die sich in das mobile Endgerät optisch und ergonomisch integriert. Nachteile von Web-Apps sind, dass sie nicht auf alle Hardware-Komponenten zugreifen können und dass die zur Verfügung stehende Datenübertragungsgeschwindigkeit eine wichtige Rolle spielt. Eine langsame Internetverbindung (beispielsweise bedingt durch schlech- ten Netzempfang) kann zu spürbaren Verzögerungen in der Interaktivität führen.

Bei der Nutzung von Web-Apps müssen meist mehr Daten übertragen werden als bei der Nutzung einer nativen App. Somit können höhere Übertragungs-Gebühren (besonders Roaming-Gebühren im Ausland) für den entstehenden Datenverkehr ein Hindernis für viele Nutzer darstellen, mobile Web-Apps z. B. im Urlaub zu nutzen.

Das Zwischenspeichern der benötigten Daten in einem lokalen Speicher (Cache) stellt einen praktikablen Ausweg dar, um diese auch im Offline-Betrieb zur Verfügung zu stellen. Allerdings ist die im Gerät mit Hilfe von Web-Storage-Technik zu speichernde Datenmenge meist stark begrenzt.

Mobile Web-Apps können, im Gegensatz zu allen anderen Typen von mobilen Apps, nicht in App Stores angeboten werden. Hybrid-Apps

Hybrid- Apps stellen eine Sonderform einer mobilen App dar. Sie vereinen die Vorteile von nativen und Web-Apps, indem sie auf viele Hard- und Software-Komponenten des mobilen Endgeräts zugreifen und gleichzeitig unterschiedliche Plattformen bedienen können. Sie können sowohl auf unterschiedlichen Mobilgeräten (Smartphone & Tablet) und PCs als auch auf unterschiedlichen Betriebssystemen laufen.

Hybrid-Apps vereinen die Vorteile von nativen Apps und Webanwendungen, indem Quellcode plattformübergreifend verwendet werden kann. Der Code wird in Webtechnologien wie HTML-, CSS- und JavaScript geschrieben. Hybrid-Apps laufen - für den Nutzer nicht sichtbar - innerhalb des nativen Webbrowsers der jeweiligen Plattform, z. B. Safari oder Google Chrome. Durch das genutzte Framework werden alle Bedienele- mente des Browsers, wie beispielsweise die Menüleiste mit URL- oder Lesezeichen- Leiste unterdrückt.

Für die Entwicklung von Hybrid-Apps stehen verschiedenen Frameworks zur Verfü- gung. Eine der größten Entwicklungsplattformen ist Cordova der Apache Software Foundation und das darauf basierende PhoneGap von Adobe. Es bieten weitere Unternehmen wie Ansca Mobile mit dem Corona SDK und Drifty mit Ionic Lösungen zur Entwicklung von Hybrid-Apps an. Es gibt verschiedene Entwicklungsumgebungen, wie zum Beispiel Microsofts Visual Studio, die die Entwicklung von Hybrid-Apps unter- stützen.

Das Framework lädt eine Bibliothek, die die Kommunikation zwischen JavaScript und der jeweiligen betriebssystemspezifischen Sprache herstellt. Dadurch können Hybrid- Apps auf diverse Hard- und Software-Komponenten des mobilen Endgerätes zugreifen. Ein Zugriff ist unter anderem auf Kontakte, Kamera, Bewegungssensor, GPS und Da teien möglich. Moderne Render-Engines erhöhen die Berechnungsgeschwindigkeit der Interpretation des HTML5-, CSS3- und JavaScript- Codes. Dadurch kann die Ausführungsgeschwindigkeit um ein Vielfaches erhöht werden. Durch Technologie wie WebGL werden komplexe 3D-Grafiken ohne zusätzliche Erweiterungen durch die Hardware beschleunigt.

Ein wesentlicher Vorteil der Hybrid-Apps liegt darin, dass mit einer Entwicklung viele

Plattformen abgedeckt werden können und keine teurere parallele Entwicklungen für die jeweiligen Ökosysteme stattfinden muss. Infolgedessen sinkt der Entwicklungsauf- wand auf Seiten des Softwareunternehmens erheblich, dadurch kann die Benutzeroberfläche und Funktionalität über mehrere Plattformen hinweg auf den gleichen Stand gehalten werden. Jedoch können nicht alle Geräte- beziehungsweise Betriebssystemspezifischen Eigenschaften benutzt werden und bei der Umsetzung der Hybrid-App können plattformspezifische Interaktionsdesigns und das Look and Feel der jeweiligen Platt- form nur beschränkt beachtet werden. Zudem sind stark verlangsamte Ladezeiten und eine viel schlechtere Rechenleistung, beispielsweise bei komplexen Spielen, möglich, da sie mit der Zwischenschicht des Webbrowsers agieren.

Cross-Plattform- Apps

Eine Cross-Plattform- App ist, ähnlich einer Hybrid-App, eine Anwendung, die unabhängig von der Plattform auf verschiedenen Betriebssystemen und Endgeräten ausge führt werden kann. Im Gegensatz zur Hybrid-App wird die Benutzeroberfläche meist mit den nativen APIs des jeweiligen Betriebssystems gebaut und nicht in einem Webbrowser angezeigt. So lassen sich bis zu 75 % des Quellcodes zwischen den ver- schiedenen Plattformen teilen, ohne dass es zu starken Einbußen bei der Performance kommt. [19] Der Quellcode wird meist in C#, C++ oder JavaScript geschrieben.

Frameworks für die Cross-Plattform-Entwicklung sind die„Xamarin Plattform“ von Xamarin, Appcelerators„Titanium Mobile“ und React Native von Facebook. Alle drei Frameworks unterstützen die Entwicklung von Cross-Plattform- Apps für Android, iOS und Windows. Mit„Xamarin. Forms“ lassen sich auch große Teile des Benutzeroberflä- chen-Codes zwischen den Plattformen teilen, dabei wird bei Laufzeit das plattform- übergreifende Platzhalter-Bedienelement in ein natives Bedienelement verwandelt. Googles Flutter SDK ermöglicht die Entwicklung von Cross-Plattform-Apps für iOS und Android in der Programmiersprache Dart. Flutter nutzt keine nativen Bedienelemente, sondern mit einer eigenen Rendering-Engine Gezeichnete.

Es lässt sich aber auch Model-Layer-Code in C++ zwischen diesen Plattformen teilen, ohne dass ein Framework genutzt werden muss.

Entwicklung

Siehe auch: Programmierung

Bei der Entwicklung von mobilen Apps müssen einige Einschränkungen im Vergleich zu Anwendungen für Desktop-Computer beachtet werden, so sind z. B. die Prozessoren von Smartphones leistungsschwächer und laufen mit Akkubetrieb. Zudem gibt es eine große Anzahl an verschiedenen Bildschirmgrößen, Hardwarekonfigurationen und Softwareversionen. Mobile Apps werden meist mit Hilfe einer integrierten Entwicklungsumgebung und dem Software Development Kit der entsprechenden Plattform entwickelt. Die Software kann mit einem Emulator getestet werden, bevor sie auf echten Geräten ausprobiert wird.

Viele Entwickler setzen mittlerweile auf Sprachdialogsysteme, im Gegensatz zu „normalen“ mobilen Benutzerschnittstellen. Diese können entweder in der Form von Spracherkennung, wie z. B. mit Siri, oder in Form von Chatbots, z. B. in Skype oder Facebook Messenger, umgesetzt werden. Diese Form von Interaktionen mit Anwendungen wächst, da viele Nutzer von der Vielzahl an Apps überwältigt werden. Microsofts CEO Satya Nadella sieht Chatbots "als nächstes großes Ding", welches so tiefgreifende Änderungen wie zuvor das iPhone für Touchscreens oder die Nutzung von grafischen Benutzeroberflächen bringen wird.

Der Beschäftigungsbereich für Softwareentwickler von Apps für mobile Plattformen wächst immer weiter, bis 2012 wurden, laut einem Bericht von„TechNet“, allein in den USA 466.000 neue Jobs geschaffen. In Europa sollen es, laut einem Bericht des„Progressive Policy Institute“, Anfang 2016 1 ,64 Millionen Arbeitsplätze sein, die von mo- bilen Apps abhängen. Die Hersteller von mobilen Betriebssystemen versuchen mit verschiedenen Methoden, Softwareentwickler für ihre Plattform zu gewinnen. So will Apple im Oktober 2016 ein„iOS App Development Center“ in Neapel, Italien eröffnen, in dem Entwickler geschult werden. Google will in Indien zwei Millionen Entwickler schulen und bietet über Udacity verschiedene Kurse im Bereich der Android- Entwicklung an.

Vertrieb

Apps können meist über eine in das Betriebssystem integrierte Internet- Vertriebsplatt- form bezogen und direkt auf dem Gerät installiert werden in Folge des großen Markterfolgs von Smartphones und Tablets haben praktisch alle Hersteller mobiler Betriebssy- steme eigene Plattformen entwickelt, um die für ihre jeweiligen Geräte entwickelten Apps zu vermarkten. Die Apps können dort von Kunden kostenlos oder kostenpflichtig herunterge laden werden. Die Vertriebsplattform mit der größten Anzahl an Programmen ist der Google Play Store für Android-Geräte, [34] gefolgt vom App Store für iOS. Daneben gibt es auch für Geräte mit anderen Betriebssystem eigene App Stores. Einnahmen gehen zum größten Teil an die Entwickler, der Betreiber des Vertriebsportals ist an den Gewinnen ebenfalls beteiligt. So behalten Apple, Google und Microsoft 30 Prozent des Kaufpreises einer App als Provision ein. Im Regelfall werden Apps durch die Portalbetreiber technisch geprüft, teilweise findet zusätzlich eine inhaltliche Über- prüfung statt.

Es gibt grundsätzlich verschiedene Wege, wie eine App auf ein Gerät gelangt: direkt über die mobile Intemetverbindung oder WLAN des Geräts oder mit Hilfe eines PC, mit dem über entsprechende Software (wie etwa iTunes) bei Anbindung des Mobilge- räts Apps installiert werden können. Manche App-Plattformen ermöglichen es auch, die App über den PC zu kaufen und automatisch auf allen synchronisierten Geräten zu installieren, wobei die App von den Geräten automatisch heruntergeladen wird. [35] Sofern die Hersteller ihr mobiles Betriebssystem auch für externe Quellen zur Installation von Anwendungssoftware zugänglich halten, gibt es darüber hinaus weitere, oft plattformübergreifende Angebote durch Shops verschiedener Anbieter im Internet, sowie die Möglichkeit des direkten Bezugs auf den Webseiten der App- Entwickler.

Datenschutz

Viele mobile Apps werden von Verbraucherschützern kritisiert, weil sie ohne das Wis- sen des Benutzers oder dessen Zustimmung Daten versenden, die für die Funktion der App gar nicht erforderlich sind oder die unverschlüsselt oder nicht anonymisiert sind, und daher leicht ausspioniert werden können. Die Betreiber von Plattformen im Internet, wie zum Beispiel soziale Netzwerke oder Einkaufsportale, werden mit Apps in die Lage versetzt, Daten zu sammeln und für gezielte und effiziente Werbezwecke einzu- setzen oder an Dritte weiterzuieiten. Besonders kritisch ist es, wenn zum Beispiel bei Shopping-Apps sensible persönliche Daten, wie Kontodaten oder Kreditkarteninforma- tionen, ausspioniert werden können. Viele Apps sammeln zudem Daten über automatisierte Analytics-Dienste, wie Google Analytics oder Twitters Fabric.

Native Apps können wie alle anderen Programme Sicherheitslücken enthalten. Es be- darf daher grundsätzlich der Sicherstellung der Aktualisierungen des Endgeräts sowie der Softwarepflege durch den Anbieter. Native Apps laufen als eigenständiges Programm auf dem jeweiligen Gerät und haben damit erweiterten Zugriff auf Ressourcen. Diesem Problem wird durch die Verwendung einer Sandbox begegnet, wodurch der Zugriff auf vom Hersteller bereitgestellte Programmschnittstellen beschränkt wird, und somit reguliert werden kann.

Einsatz in Unternehmen

In Unternehmen werden Mobile Apps in verschiedenen Bereichen eingesetzt. Dabei werden Anwendungen, die im Unternehmen von den Mitarbeitern an PCs genutzt wer- den, z. B. Enterprise-Resource-Planning (ERP), Customer-Relationship- Management (CRM) oder Microsoft Outlook, auch auf den Mobilgeräten verfügbar, so dass ortsunabhängig gearbeitet werden kann. Ein anderer Anwendungsbereich ist der Einsatz im Marketing. Apps werden dort zum Beispiel zur Unterstützung der Vertriebsmitarbeiter eingesetzt, etwa durch Bereitstellen von internen Produktkatalogen oder Ersatzteillisten mit direkter Online-Bestellmöglichkeit, auch verbunden mit der vorherigen Abfrage von Lager beständen und/oder Prognosen zur momentanen Lieferzeit eines Produkts.

Sicherheit

Mobile Apps bedeuten für Unternehmen im Bring-your-own-device-Kontext oft ein hohes Sicherheitsrisiko, da sie zum Teil ohne Wissen und Zustimmung der Nutzer ungeschützt sensible Daten übertragen. Das bedeutet nicht nur den Verlust vertraulicher Informationen, sondern macht Unternehmen angreif- und erpressbar. Im Untemeh- menseinsatz sorgen sogenannte Mobile-Device-Management-Systeme dafür, dass erwünschte Apps zentral auf die Geräte verteilt werden können, zum Teil durch ein eige- nes Bezugsportal. Im Fall reiner Firmen-Smartphones oder Tablets wird die Installation anderer Apps durch den Anwender aus Sicherheitsgründen technisch häufig unterbun- den, da andernfalls ein möglicher Angriffspunkt für Industriespionage und andere Risiken durch Schadprogramme geschaffen würde.

Zur sauberen Trennung von Apps auf Unternehmens-Mobilgeräten mit teilweiser priva- ter Nutzung können sogenannte Persona zur Trennung der jeweiligen Daten und Anwendungen genutzt werden. Sofern im Unternehmenseinsatz nicht auf interne IT- und Sicherheitsrichtlinien verzichtet wird, kommt der herkömmliche Vertriebsweg über ei nen App Store in der Regel nicht in Frage, denn darüber wären die - oft selbstentwik- kelten - mobilen Apps des Unternehmens auch öffentlich zugänglich. Stattdessen wer- den solche Apps durch einen Systemadministrator des Unternehmens zentral über Mobile- Device-Management-Lösungen dem Anwender zur Verfügung gestellt bezie hungsweise auch automatisch auf das Smartphone installiert.

App Wrapping

Eine Möglichkeit zur Absicherung von Unternehmensdaten ist App Wrapping. Beim App Wrapping werden unternehmensrelevante Anwendungen in einer weiteren App verschlüsselt. So wird gewährleistet, dass im Unternehmen nur sichere und zugelassene Anwendungen zum Einsatz kommen. Das hat aber auch Nachteile, es kann zu Urheberrechtsverletzungen bis hin zum Verlust von Gewährleistungsrechten kommen.

Natives App Management

Alternativ gibt es die Möglichkeit durch Mobile-Device-Management native Apps sicher anzubieten, ohne dass die native Benutzererfahrung leidet. Diese Funktion bietet unter anderem Apple seit iOS 7, Google mit„Android for Work“ und Samsung mit Knox.

9. Internet

Das Internet (von englisch internetwork, zusammengesetzt aus dem Präfix inter und network , Netzwerk 4 oder kurz net ,Netz‘), umgangssprachlich auch Netz, ist ein weltweiter Verbund von Rechnernetzwerken, den autonomen Systemen. Es ermöglicht die Nutzung von Intemetdiensten wie WWW, E-Mail, Telnet, SSH, XMPP, MQTT und FTP. Dabei kann sich jeder Rechner mit jedem anderen Rechner verbinden. Der Datenaustausch zwischen den über das Internet verbundenen Rechnern erfolgt über die technisch normierten Intemetprotokolle. Die Technik des Internets wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben.

Die Verbreitung des Internets hat zu umfassenden Umwälzungen in vielen Lebensbe reichen geführt. Es trug zu einem Modemisierungsschub in vielen Wirtschaftsbereichen sowie zur Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des Kommunikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich geführt. Die kulturelle Bedeutung dieser Entwicklung wird manchmal mit der Erfindung des Buchdrucks gleichgesetzt.

Die Übertragung von Daten im Internet unabhängig von ihrem Inhalt, dem Absender und dem Empfänger wird als Netzneutralität bezeichnet.

Infrastruktur

Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, die zusammengeschaltet sind. Darunter sind hauptsächlich

-Providemetzwerke, an die die Rechner der Kunden eines Intemetproviders angeschlos sen sind,

-Firmennetzwerke (Intranets), die die Computer einer Firma verbinden, sowie

-Universitäts- und Forschungsnetzwerke. Physikalisch besteht das Internet im Kembereich, also bei Verbindungen zwischen den oben genannten Netzwerken und in den Backbones großer Netzwerke, kontinental und interkontinental hauptsächlich aus Glasfaserkabeln, die durch den Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr- Wachstums verlegt. Da sich die physikalisch mögliche Übertra gungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber im- mens vergrößerte, besitzt das Internet hier zurzeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur drei Prozent der zwischen europäischen oder US- amerikanischen Städten verlegten Glasfasern benutzt. [17] Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen ge- ringen Anteil.

Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupfer leitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder UMTS, eines Intemetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet ver- bunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder - immer häufiger - Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.

In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer be- reitstellen und nicht dauerhaft erreichbar sind. Solche Rechner werden als Client- Rechner bezeichnet. Server dagegen sind Rechner, die in erster Linie Intemetdienste anbieten. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und in klimatisierten Räumlichkeiten gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client - Rechner in die Lage, zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen. So wird hier die strenge Unterscheidung des Client-Server- Modells aufgelöst.

An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht.

Am DE-CIX in Frankfurt am Main, dem größten Austauschpunkt dieser Art, sind bei- spielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten auto nomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist je doch wirtschaftlich sinnvoller, dies gebündelt an verschiedenen Internet- Knoten vorzunehmen. Da in der Regel ein autonomes System, wie ein Internetprovider, nicht alle an- deren auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt.

Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog.Upstream- oder Transitprovider dem Kundenprovider alle via Internet verfügbaren Erreichbarkeitsin- formationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier- 1 -Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwik- keln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen. Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner geben soll, also keinen Ort, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for As- signed Names and Numbers (ICANN) ist als hierarchisch höchste Organisation zustän- dig für die Vergabe von IP-Adressbereichen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver- Infrastruktur sowie für die Festlegung anderer Parameter der Intemetprotokollfamilie, die weltweite Eindeutigkeit verlangen. Sie untersteht formal dem US- Handelsministerium. Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Aus fallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen, und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete beziehungsweise eine Anfrage und die Antwort je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kembereich des Internets meistens keine schwerwiegenden Auswirkungen; nur ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich nicht ausgleichen.

Intemetprotokoll und Domain Name System

Das Internet basiert auf der Internetprotokollfamilie, die die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in dem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird, heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie beim Telefon, son- dern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP- Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, die jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.

Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Pa- ketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, ähnlich wie ein ISO-Container im Güterverkehr nacheinander per Schiff, Bahn und Lastwagen transportiert werden kann, um an sein Ziel zu gelangen. Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der Version IPv4 um vier Byte (32 Bit), die als vier Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als acht durch Doppelpunkt getrennte Blöcke aus je vier hexadezimalen Ziffern angegeben werden, z.B. 2001 :0db8:85a3:08d3: 1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.

Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele admini- strative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel„wikipedia.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht - vom Nutzer unbemerkt - immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, die in den Namen durch die Punkte er- kennbar wird, bilden die Root- Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht.Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.

Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, die über den kürzesten Weg zur Ziel-IP- Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden; so wird automatisch auf ausge- fallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP- Adressen mit Hilfe von Netzmasken - bei IPv6 spricht man von Präfixlängen - zu Ziel- netzen zusammengefasst, und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. « Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines auto nomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default - Route, oft auch Standard- oder Default-Gateway genannt, die für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich einem Wegweiser„Alle Richtungen“ im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 540.000 Zielnetzen für IPv4 und 21.000 für IPv6.

In den Nutzdaten des Intemetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und für verschlüsselte Seiten das Hypertext Transfer Protocol Secure (HTTPS). E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), eben falls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt. Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige IP- Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zuge- griffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und die Filterung des Datenverkehrs hat mehr Möglichkeiten. Datenaufkommen

Im Jahr 2012 betrug das Datenaufkommen im festverkabelten, öffentlich zugänglichen Internet mehr als 26,7 Exabyte (1 Exabyte = 1 Mrd. Gigabyte) pro Monat, was einem täglichen Datenaufkommen von annähernd einem Exabyte entspricht. Die Datenmenge von einem Exabyte ist vergleichbar mit der mehr als 2500-fachen Datenmenge aller Bücher, die je geschrieben wurden. Das mobile Datenaufkommen (Datenaustausch über Mobilfunknetze) beläuft sich im Jahr 2012 auf über 1 ,1 Exabyte Daten monatlich. Bis zum Jahr 2015 wird das Datenaufkommen im festverkabelten Internet voraussichtlich auf annähernd 60 Exabyte pro Monat wachsen. Im mobilen Internet wird ein Da- tenaufkommen von mehr als 6,2 Exabyte monatlich prognostiziert. Über die Hälfte der übertragenen Daten machen Videodienste (Video-on-Demand) aus.

Weltweit wird der IP-Datenverkehr für 2017 auf 1,4 Zettabyte angenommen, allein in Deutschland werden 38 Exabyte angenommen, gegenüber einem Aufkommen im Jahre 2012 von 17 Exabyte. Dabei wird eine Steigerung im mobilen Datenverkehr mit Smart- phones und Tablets bis 2017 um jährlich 60 % auf dann 13,6 Exabyte erwartet.

10. Intemetzugang

Ein Intemetzugang (auch Intemetanschluss, Internetverbindung) bezeichnet im Allge- meinen die Nachrichtenverbindung eines Computers oder eines Netzwerkes mit dem Internet.

Grundsätzlich wird unterschieden zwischen der Breitband-Datenfernübertragung (in der Regel per DSL- oder Kabelmodem) und den herkömmlichen Schmalband- Verbindun- gen per Telefonmodem oder per ISDN sowie den mobilen Verbindungen über LTE, HSDPA, UMTS, EDGE oder GPRS.

Voraussetzungen

Intemetverbindungen für private Teilnehmer sind in der Regel nur mit einem Dienstlei- stungsvertrag mit einem Intemetdienstanbieter (Internet Service Provider, ISP), der gleichzeitig Zugangsdienste anbietet oder einem Internetzugangsanbieter (Internet Ac- cess Provider, 1AP) möglich (auch bei einer Intemet-by-Call-Verbindung besteht ein Dienstleistungsvertrag). Die Verbindung wird über einen Einwahlknoten bzw. einen Breitband-PoP und ein kundenseitig installiertes Modem oder ISDN- Endgerät aufgebaut, im Fall von leitungsgebundenem Zugang regelmäßig über die Teilnehmeran- Schlussleitung oder das TV-Kabelnetz.

Das Endgerät muss weiter mit dem einzelnen Rechner oder dem lokalen Rechnemetz verbunden werden - per Kabel (LAN, d. h. drahtgebunden), Wireless LAN, Bluetooth (Funk) oder über das Stromnetz. Ferner ist für das Modem ein Gerätetreiber notwendig. Der Datendurchsatz des Datenaustausche wird mit Bit pro Sekunde (bit/s oder b/s) bemessen, im weitverbreiteten DSL-Standard werden im Allgemeinen mindestens 1024 kbit/s (kilobit/s) in Download- und 128 kbit/s in Uploadrichtung übertragen.

Eine Verbindung kann über GMDSS, UMTS oder anders mobiles Internet oder einen Surfstick aufgebaut werden. Die SIM-Karten müssen zuvor für das Internet ffeigeschal- tet werden.

Zusammenfassend sind die folgenden telekommunikativen Verbindungen denkbar: Dial-up, ISDN, DSL-Varianten (ADSL, SDSL, VDSL, PortableDSL, Intemetzugang über Satellit), Kabelmodem, WLAN, WiBro, WiMAX, Mobilfunk (LTE, CSD, und HSCSD, GPRS, EDGE, UMTS mit HSDPA, WAP), Glasfasernetz, Trägerif equenzan- lage (Powerline Communication) und xMax (nur in Nordamerika).

Nutzung und Technik

Modem (V.34-Standard) nach ISA-Standard, obsolet seit den 1990er Jahren

-IP-Telefonie und ISDN over IP

-Intemetsurfen (Ansteuern von Dateien, die über Server erreichbar sind, bei- spielsweise Homepages/Websites/Netzpublikationen, E-Mails (sofern via POP3), Webcam) -Datenübertragung zwischen Server und Client, oder dezentral zwischen vielen Clients untereinander, etwa durch FTP oder Peer to Peer

-IPTV (Fernsehen)

-Internet Protocol -Intemetprotokollfamilie

-WAP und I-mode (jeweils für moderne Mobiltelefone)

Eine Internetverbindung besteht ab der Einwahl in das Netz des ISP, nicht zwingend durch das Aktivieren des Browser-Fensters.

Nach 24 Stunden Online-Zeit wird bei vielen Providern eine Zwangstrennung vorgenommen.

Vertragsrecht

Die Bereitstellung der Intemetleitung ist in Deutschland gemeinhin ein Dienstvertrag. Die Abschaltung des Anschlusses erfolgt in Deutschland gern. § 45k Telekommunikationsgesetz, nicht nur nach jeweiliger AGB. Hierzu gibt es zahlreiche Entscheidungen in der Rechtsprechung. 1 1. World Wide Web

Das World Wide Web [ , w3:ld , waid'w6b] (englisch für„weltweites Netz“, kurz Web, WWW, selten und vor allem in der Anfangszeit und den USA auch W3) ist ein über das Internet abrufbares System von elektronischen Hypertext-Dokumenten, sogenannten Webseiten. Sie sind durch Hyperlinks untereinander verknüpft und werden im Internet über die Protokolle HTTP oder HTTPS übertragen. Die Webseiten enthalten meist Texte, oft mit Bildern und grafischen Elementen illustriert. Häufig sind auch Videos, Tondokumente und Musikstücke eingebettet.

Allgemeines

Umgangssprachlich wird das World Wide Web oft mit dem Internet gleichgesetzt, es ist jedoch jünger und stellt nur eine von mehreren möglichen Nutzungen des Internets dar. Andere Internet-Dienste wie E-Mail, IRC oder Telnet sind nicht in das World Wide Web integriert. Zum Aufrufen von Inhalten aus dem World Wide Web wird ein Webbrowser benötigt, der z. B. auf einem PC oder einem Smartphone läuft. Mit ihm kann der Benutzer die auf einem beliebigen, von ihm ausgewählten Webserver bereitgestellten Daten herunterladen und auf einem geeigneten Ausgabegerät wie einem Bildschirm oder einer Braillezeile anzeigen lassen. Der Benutzer kann dann den Hyperlinks auf der angezeigten Webseite folgen, die auf andere Webseiten verweisen, gleichgültig ob diese auf dem- selben Webserver oder einem anderen gespeichert sind. So ergibt sich ein weltweites Netz aus Webseiten. Das Verfolgen der Hyperlinks wird auch als„Surfen im Internet“ bezeichnet.

Mit dem so genannten Web 2.0 wurden ab etwa den 2000er Jahren Webseiten populär, deren Inhalt der Nutzer nicht nur wie etwa bei Nachrichten-Seiten passiv ansehen, sondern selbst ändern und ergänzen kann, z. B. um eigene Inhalte zu veröffentlichen oder mit anderen Nutzern zu kommunizieren. Dazu zählen Blogs als private Meinungsseiten, von einer losen Autorengemeinschaft geschaffene Seiten nach dem Wiki-Prinzip und Soziale Netzwerke. Serverseitige Techniken und (Skript-)Sprachen, die diese Interakti- vität umsetzen, sind vor allem CGI, Python, ASP, Apache Wicket, JSF, ColdFusion, Ruby und SSI. Zu clientseitigen Techniken, die z. B. über Filter die Inhalte individualisieren, gehören unter anderem CSS, JavaScript oder Java, wobei Java hauptsächlich zur plattformneutralen Ausführung von Programmen dient, die oft als Webanwendungen über das Internet geladen werden und mit internetbasierenden Datenbanken (z. B. SAP- Clients) kommunizieren. Mit der Interaktivität wurde der Einsatz von Suchmaschinen möglich, die die bis dato vorhandenen Webverzeichnisse ergänzten und bis heute weitgehend verdrängten.

Mit der zunehmenden Komplexität von Formaten, Protokollen und Techniken entstan- den neue Berufsbilder, wie z. B. Webdesigner und Mediamatiker. Zu ihren Aufgaben gehört neben der Programmierung von Inhalten auch die Auswertung von Nutzerverhalten im Rahmen der Logdateianalyse.

Das WWW wurde unter Weiterentwicklung bekannter ähnlicher Konzepte 1989 von Tim Berners-Lee und Robert Cailliau am europäischen Forschungszentrum CERN in Genf entwickelt. Berners-Lee entwickelte dazu das HTTP-Netzwerkprotokoll und die Textauszeichnungssprache HTML. Zudem programmierte er den ersten Web- Browser und die erste Webserver-Software. Er betrieb auch den ersten Webserver der Welt auf seinem Entwicklungsrechner vom Typ NeXTcube. Das Gesamtkonzept wurde der Öffentlichkeit 1991 unter Verzicht auf jegliche Patentierung oder Lizenzzahlungen zur freien Verfügung gestellt, was erheblich zur heutigen Bedeutung beitrug.

Die weltweit erste Webseite info.cern.ch wurde am 6. August 1991 veröffentlicht. Eine Nachbildung dieser Seite ist über nachfolgenden Link erreichbar:

http://info.cern.ch/hypertext/WWW/TheProject.html

Das WWW führte zu umfassenden, oft als revolutionär beschriebenen Umwälzungen in vielen Lebensbereichen, zur Entstehung neuer Wirtschaftszweige und zu einem grundlegenden Wandel des Kommunikationsverhaltens und der Mediennutzung. Es wird in seiner kulturellen Bedeutung, zusammen mit anderen Internet-Diensten wie E-Mail, teilweise mit der Erfindung des Buchdrucks gleichgesetzt.

Funktionsweise

Das WWW basiert auf drei Kernstandards:

-HTTP als Protokoll, mit dem der Browser Informationen vom Webserver anfor- dem kann.

-HTML als Auszeichnungssprache, die festlegt, wie die Information gegliedert ist und wie die Dokumente verknüpft sind (Hyperlinks).

-URLs als eindeutige Bezeichnung einer Ressource, die in Hyperlinks verwen- det wird.

Folgende Standards kamen später dazu:

-Cascading Style Sheets (CSS) legen das Aussehen der Elemente einer Web- seite fest, wobei Darstellung und Inhalt getrennt werden.

-Hypertext Transfer Protocol Secure (HTTPS) ist eine Weiterentwicklung von HTTP, bei dem das Protokoll SSL zwischen TCP und HTTP geschoben wird und in der Folge der Datentransfer komplett verschlüsselt wird. -Document Object Model (DOM) als Programmierschnittstelle für externe Pro- gramme oder Skriptsprachen von Webbrowsern.

Das World Wide Web Consortium (W3C), das heute vom Erfinder des WWW Tim Berners-Lee geleitet wird, und andere entwickeln den HTML- und den CSS- Standard; andere Standards kommen von der Internet Engineering Task Force, der ECMA und Herstellern wie Sun Microsystems. Nicht vom W3 -Konsortium standardisiert ist die am weitesten verbreitete Skript- oder Makrosprache von Webbrowsern:

JavaScript ist eine Skriptsprache mit Anweisungen für den Browser, mit der Program- me (Skripte) eingebettet werden können. Dadurch können Webseiten mit Hilfe des Document Object Models (DOM) dynamisch geändert werden. Skripte sind üblicher weise kleine Programme, können aber auch als Client Manager mit Hilfe des DOM die vollständige Kontrolle über die Anzeige über- nehmen. Eine von Microsoft entwickelte Variante von JavaScript heißt JScript. Beide Sprachen sind ähnlich, allerdings nicht kompatibel zueinander. Diese Inkompatibilität war ein entscheidender Teil des sogenannten Browserkriegs.

Das WWW wurde und wird durch andere Techniken ergänzt. Schon früh wurden Bilder zur Illustration benutzt; man verwendete die Formate GIF für Grafiken und Animatio- nen und JPEG für Fotos. Später wurde GIF mehr und mehr von PNG verdrängt, da für dessen Verwendung - im Gegensatz zu GIF - keine Lizenzgebühren anfielen.

Zudem konnten in Browsern zahlreiche weitere Dateitypen durch Browsererweiterungen, so genannte Plug-ins, dargestellt werden. Dadurch ließen sich Multimediainhalte von Animationen bis hin zu Musik und Videos oder ganze Anwendungen wie zum Bei spiel Versicherungsrechner oder Navigationsoberflächen darstellen. Beispielsweise ermöglichten Java-Applets das Einbetten von Programmen, die lokal auf dem Computer des WWW-Benutzers ablaufen und Flash wurde für interaktive Inhalte oder Animationen verwendet. Mit der Einführung von HTML5 und weiteren standardisierten Webtechnologien wurden Plug-ins schnell vom Markt verdrängt, da die Funktionen für Animationen und Multimediainhalte o. ä. jetzt direkt in die Browser eingebaut waren und somit ohne externe Abhängigkeiten umgesetzt werden konnten. Aus Sicherheits- und Stabil itätsgrün- den deaktivieren die meisten größeren Browser meist große Teile bzw. die gesamte NPAPI-Schnittstelle, die für diese Plug-ins genutzt wurde. Weiterhin beliebt sind allerdings beispielsweise Formate wie PDF zum Anzeigen von Dokumenten, die meist mittlerweile auch durch in den Browser eingebaute PDF- Reader angezeigt werden können. Dynamische Webseiten und Webanwendungen

Mit Hilfe der dynamischen WWW-Seiten kann das WWW als Oberfläche für verteilte Programme dienen: Ein Programm wird nicht mehr konventionell lokal auf dem Rechner gestartet, sondern ist eine Menge von dynamischen WWW-Seiten, die durch einen Webbrowser betrachtet und bedient werden können. Vorteilhaft ist hier

dass die Programme nicht mehr auf den einzelnen Rechnern verteilt sind und dort (dezentral) administriert werden müssen.

Dynamische Webanwendungen werden entweder am Webserver oder direkt im Browser ausgeführt.

-Ausführen von Webanwendungen am Webserver: Der Inhalt wird durch in Skriptsprachen (wie PHP oder Perl) oder kompilierte Anwendungen (wie JSP, Servlets oder ASP.NET) geschriebene Webanwendungen erzeugt und an den Browser geliefert. -Dynamische Websites am Client: Der Browser erzeugt oder ändert Inhalt mit- tels JavaScript.

-Gemischte Ausführung: Eine gemischte Ausführung stellt AJAX dar - hier sen- det der Browser mittels JavaScript einen Request, der vom Webserver bear- beitet wird und so dynamisch Teile der HTML-Struktur erneuert.

Nachteilig sind die begrenzten Ausdrucksmöglichkeiten von WWW-Seiten, so dass Programme in Form von Internetseiten im Allgemeinen nicht so einfach bedient werden können wie konventionelle Programme. Ein Trend, der versucht, beides in Einklang zu bekommen, sind Rieh Internet Applications. Zurzeit ist zu beobachten, dass immer mehr Dienste, die ursprünglich vom WWW getrennt waren und als eigenes Programm liefen, über das WWW angeboten werden und mittels eines Browsers genutzt werden können:

So wird Webmail oft als E-Mail-Client oder WebFTP als FTP-Client genutzt; Webfo- ren ersetzen das Usenet und Webchats den IRC.

Kompatibilität und Zugänglichkeit

Oft führten Browser-Hersteller neue Möglichkeiten ein, ohne auf eine Standardisierung zu warten. Umgekehrt werden jedoch immer noch nicht alle Teile von Standards wie HTML oder CSS korrekt implementiert. Das führt zu Inkompatibilitäten zwischen bestimmten Webseiten und manchen Browsern. Besonders„hervorgetan“ durch solche Inkompatibilitäten hatte sich zu Beginn des Internet-Booms die Firma Netscape, heute vor allem das Unternehmen Microsoft mit seinem Internet Explorer. Außerdem ging durch die Vielzahl der Ad-hoc-Erweiterungen von HTML ein wesentlicher Vorteil dieser Sprache verloren - die Trennung von Inhalt und Darstellung. Durch diese Trennung können die in HTML ausgezeichneten Inhalte optimal für das jeweilige Ausgabegerät - ob Bildschirm, Display des Mobiltelefons oder Sprachausgabe (für Benutzer mit Sehschwierigkeiten) - aufbereitet werden.

Das W3C und andere Initiativen treiben daher die Entwicklung in die Richtung einer Standardisierung und browserübergreifenden Vereinheitlichung von HTML/XHTML und CSS voran, um diese Vorteile von HTML wiederzuerlangen. Auch der zunehmende Verzicht auf Plug-ins, wie Flash, unterstützen diesen Trend und führten zu einer bes- seren Barriereffeiheit. XHTML wurde später zugunsten von HTML5 aufgegeben, welches auch explizite Features zur Verbesserung der Barrierefreiheit und Maschinenlesbarkeit einbaute, die visuell nicht sichtbar sind.

12. Cloud Computing (deutsch Rechnerwolke oder Datenwolke) beschreibt die Bereitstellung von IT- Infrastruktur wie beispielsweise Speicherplatz, Rechenleistung oder Anwendungssoftware als Dienstleistung über das Internet. Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT- Infrastrukturen über ein Rechnernetz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen.

Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich durch technische Schnittstellen und Protokolle, etwa mittels eines Webbrowsers. Die Spannweite der im Rahmen des Cloud Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Infrastruktur, Plattformen und Software. Begriffsbestimmung

201 1 veröffentlichte das National Institute of Standards and Technology (NIST) eine Definition, die auf weitgehende Akzeptanz stieß und unterschiedliche Definitionsansätze bündelt:

Servicemodelle

Cloud Computing enthält drei verschiedene Servicemodelle:

Software as a Service (SaaS)

Clouds bieten Nutzungszugang von Software-Sammlungen und Anwendungsprogrammen. SaaS-Diensteanbieter offerieren spezielle Auswahlen von Software, die auf ihrer Infrastruktur läuft. SaaS wird auch als Software on demand (Software bei Bedarf) bezeichnet.

Platform as a Service (PaaS)

Clouds bieten Nutzungszugang von Programmierungs- oder Laufzeitumgebungen mit flexiblen, dynamisch anpassbaren Rechen- und Datenkapazitäten. Mit PaaS entwickeln Nutzer ihre eigenen Software- Anwendungen oder lassen diese hier ausfuhren, inner- halb einer Softwareumgebung, die vom Dienstanbieter (Service Provider) bereitgestellt und unterhalten wird.

Inffastructure as a Service (IaaS)

Clouds bieten Nutzungszugang von virtualisierten Computerhardware- Ressourcen wie Rechnern, Netzen und Speicher. Mit IaaS gestalten sich Nutzer frei ihre eigenen virtuel len Computer-Cluster und sind daher für die Auswahl, die Installation, den Betrieb und das Funktionieren ihrer Software selbst verantwortlich. Liefermodelle

Darstellung von Cloud-Liefermodellen

Zudem enthält die Definition des National Institute for Standards and Technology (NIST) vier Liefermodelle: Public Cloud - die öffentliche Rechnerwolke

Bietet Zugang zu abstrahierten IT-Infrastrukturen für die breite Öffentlichkeit über das Internet. Public-Cloud-Diensteanbieter erlauben ihren Kunden, IT- Infrastruktur zu mieten auf einer flexiblen Basis des Bezahlens für den tatsächlichen Nutzungsgrad bzw. Verbrauch (pay-as-you-go), ohne Kapital in Rechner- und Datenzentrumsinfrastruktur investieren zu müssen.

Private Cloud - die private Rechnerwolke

Eine Private Cloud ist eine Cloud-Umgebung, die ausschließlich für eine Organisation betrieben wird. Das Hosten und Verwalten der Cloud-Plattform kann intern (beispiels- weise durch firmeneigene Rechenzentren), aber auch durch Dritte erfolgen.

Hybrid Cloud - die hybride Rechnerwolke

Bietet kombinierten Zugang zu abstrahierten IT-Infrastrukturen aus den Bereichen von Public Clouds und Private Clouds, nach den Bedürfnissen ihrer Nutzer.

Community Cloud - die gemeinschaftliche Rechnerwolke Bietet Zugang zu abstrahierten IT-Infrastrukturen wie bei der Public Cloud - jedoch für einen kleineren Nutzerkreis, der sich, meist örtlich verteilt, die Kosten teilt (z. B. meh rere städtische Behörden, Universitäten, Betriebe oder Firmen mit ähnlichen Interessen, Forschungsgemeinschaften, Genossenschaften).

Weiterhin gibt es Mischformen der oben genannten Cloud-Typen:

Virtual Private Cloud - eine private Rechnerwolke auf prinzipiell öffentlich- zugänglichen IT-Infrastrukturen

Die Abschottung der„virtuell privaten“ Bereiche auf der öffentlichen Infrastruktur wird durch geeignete Sicherheitsmaßnahmen (z. B. VPN) gewährleistet.

Multi Cloud - Bündelung verschiedener Cloud-Computing-Dienste

Weiterentwicklung der Hybrid Cloud, bei der mehrere Cloud-Computing- Dienste in einer heterogenen Systemarchitektur gleichzeitig genutzt werden können.

Essenzielle Charakteristika

Das NIST listet fünf essenzielle Charakteristika für Cloud Computing:

On-demand self-service

Selbstzuweisung von Leistungen aus der Cloud durch den oder die Nutzer, die bei Bedarf bereitstehen soll.

Broad network access

Leistungen aus der Cloud sind über Standardmechanismen über das Netzwerk erreich- bar.

Resource pooling

Ressourcen wie Rechenleistung, Netzwerk oder Storage werden zwischen unterschiedlichen Projekten und Kunden geteilt.

Rapid elasticity Virtuelle Ressourcen skalieren schnell und aus Nutzersicht nahezu unbegrenzt und können auch automatisiert auf Laständerungen angepasst werden.

Measured Service

Ressourcennutzung kann gemessen und überwacht werden. Zum Beispiel für Abrechnung oder auch automatische Skalierung.

Demzufolge geht Cloud Computing über andere gegenwärtig diskutierte Ansätze (z. B. Virtualisierung) hinaus. Unter der Bedingung einer öffentlichen Verfügbarkeit, ähnlich beispielsweise dem öffentlichen Telefonnetz, kann man Cloud Computing je nach Architektur auch als Summe von SaaS und Utility Computing ansehen.

Abgrenzung von anderen Techniken

Bei„Grid-Computing“ geht es um die gemeinschaftliche Nutzung der gemeinsamen Ressourcen und es gibt keine zentrale Steuerung. Im Fall von Cloud Computing hat man einen Anbieter der Ressourcen und einen Nutzer. Die Steuerung der Ressourcen ist zentralisiert.

Fog Computing stellt die dezentralisierte Erweiterung des Cloud Computings dar. Res- sourcen wie Speicher, Rechenleistung und Software-Anwendungen werden näher an den Endgeräten platziert, um durch eine optimiert Aufteilung eine bessere Effizienz und geringere Latenzzeiten zu erreichen. An die zentralen Systeme werden dann nur noch relevante und gegebenenfalls komprimierte Daten geleitet. Fog Computing steht in engem Zusammenhang mit Edge Computing, wo beispielsweise Sensordaten direkt im Sensorsystem aufbereitet werden, um sie dann an Fog und Cloud weiterzuleiten. Zwischen Fog und Edge Computing gibt es große Überschneidungen, weshalb sie teilweise synonym benutzt werden.

Architektur

Da Clouds primär durch den Skalierungsgedanken entstanden sind, finden sich dort auch die stärksten Unterscheidungsmerkmale. Um sich der Architektur zu nähern, kann man sich einen einfachen Rechner vorstellen. Er hat Prozessorkeme, Arbeitsspeicher, eine Festplatte und Programme. Diese Komponenten finden sich auch in einer Cloud, nur in einer Form, die massive Skalierung ermöglicht.

Demzufolge lesen sich die Kenndaten einer„Cloud-Festplatte“ dann auch anders als die einer klassischen Festplatte im Computer. Amazon sagt über seine Persistenzschicht (S3) :„Die Anzahl der speicherbaren Objekte ist unbegrenzt.“ Google hat seine Persistenzschicht Google File System auf etwa 15.000 einzelne Rechner verteilt (Stand 2009).

Für die anderen Komponenten wie Programme oder Prozessorkeme gelten ähnliche große Maße. Warum dies so ist, erklärt sich allein durch die Zahlen. Im Jahr 2008 gibt Google bekannt, 10 Milliarden Datensätze, die über 1000 physische Computer verteilt sind, innerhalb von 68 Sekunden sortieren zu können.

“We are excited to announce we were able to sort 1 TB (stored on the Google File System as 10 billion 100-byte records in uncompressed text flies) on 1,000 Computers in 68 seconds.” „Wir freuen uns, bekanntzugeben, dass wir in der Lage waren, 1 TB (gespeichert im Google File System in 10 Milliarden Dokumenten mit je 100 Bytes Datensatzgröße in unkomprimierten Textdateien), verteilt auf 1000 Computer, innerhalb von

68 Sekunden zu sortieren.“ Technische Realisierungen von Cloud Computing

Es gibt unterschiedliche Arten von Cloud Computing. Eine mögliche Gliederung ist der sogenannte technische Cloud-Stack mit drei Schichten, in der obere Schichten auf den unteren Schichten aufbauen können, es aber nicht müssen:

Cloud-Computing-Architektur

-Anwendung

-Plattform -Infrastruktur

Jede Schicht stellt hier einen Grad an Abstraktion dar. Auf diese Art können auch die unterschiedlichen Typen von„Clouds“ klassifiziert werden.

Anwendung (SaaS) Software as a Service

Die Anwendungsschicht stellt die abstrakteste Schicht auf Cloud-Dienste dar. Hierbei bringt der Benutzer seine Applikation weder in eine Cloud-Plattform ein, noch muss er sich um Skalierbarkeit oder Datenhaltung kümmern. Er nutzt eine bestehende Applika- tion, die ihm die Cloud nach außen hin anbietet. Dieser Anwendungsfall inkludiert die beiden darunterliegenden Ebenen, da die Cloud-Funktionalitäten wie hochskalierender, verteilter Speicher, ausfallsichere Infrastruktur und üblicherweise ein hochskalierendes Queuingsystem zwar die Grundlage der benutzten Anwendung sind, der Nutzer des SaaS-Dienstes damit allerdings nicht in Kontakt kommt.

Eine„Cloud-Anwendung“ im SaaS-Modell berücksichtigt typischerweise die folgenden Aspekte:

-Das Design soll modular und serviceorientiert sein (Aufsetzbarkeit auf dem PaaS- Szenario).

-Die Last ist nicht vorhersehbar, denn über Nutzungsintensität und Nutzerzahl einer Anwendung kann oft keine zuverlässige Aussage gemacht werden.

-Die Anwendung soll dynamisch, verteilt und mandantenfähig sein.

Bekannte Beispiele für Cloud-Anwendungen sind Apple iCloud, Google Drive, Microsoft OneDrive, ownCloud, Nextcloud oder Salesforce.com.

Plattform (PaaS)

Ein Entwickler erstellt eine Anwendung und lädt diese in eine Cloud-Plattform. Diese kümmert sich dann selbst um die Aufteilung auf die eigentlichen Verarbeitungseinheiten. Im Unterschied zu IaaS hat der Benutzer hier keinen direkten Zugriff auf die Re- cheninstanzen. Er betreibt auch keine virtuellen Server. Im PaaS-Szenario bringt er aus- schließlich seine Programmlogik in die Cloud-Plattform ein, die ihm gegenüber als Programmierschnittstelle auftritt.

Die Infrastruktur der Cloud selbst kümmert sich hierbei um die erforderliche Instanziie- rung der Verarbeitungseinheiten und das Verteilen der zu verarbeitenden Daten.

Als Beispiel können hier die Produkte Windows Azure von Microsoft,„App Engine“ von Google oder„force.com“ von Salesforce.com der Plattform-Schicht zugeordnet werden.

Dadurch, dass der Benutzer hier nur seine Applikationslogik liefert, kann die Cloud- Plattform die Anzahl der tatsächlich arbeitenden Instanzen nach Belieben erhöhen oder reduzieren. Die Abstraktion von jeglicher technischen Komponente ist hierbei explizit gewünscht, da der Benutzer der Cloud in erster Linie Daten verarbeiten, nicht aber das System administrieren möchte.

Infrastruktur (IaaS) Infrastructure as a Service

Die Infrastruktur oder„Cloud Foundation“ stellt die unterste Schicht im Cloud Compu ting dar. Der Benutzer greift hier auf bestehende Dienste innerhalb des Systems zu, verwaltet seine Recheninstanzen (siehevirtueller Server) allerdings weitestgehend selbst. Dienste innerhalb des IaaS-Konzeptes sind typischerweise verteilte Persistenz

(siehe Amazons Simple Storage Service) und ein Nachrichtendienst (siehe Message

Oriented Middleware). Sind die Cloud-Dienste selbst noch hochskalierend ausgelegt, trifft dies nicht zwingend auf die Programme zu, die auf den vom Benutzer eingebrach- ten Recheninstanzen laufen.

Der Vorteil gegenüber traditionellen Datencentern ist die Skalierbarkeit: Die Recheninstanzen können je nach Anforderungen beliebig um weitere Instanzen erweitert oder verkleinert werden. Der Benutzer hat dabei vollen Zugriff auf die Instanzen mit der Eigenschaft, dass er für die Instanzen ab der Betriebssystemebene selbst verantwortlich ist. Die größten Beispiele hierfür sind Amazon Web Services und die Open Telekom Cloud.

Organisatorische Arten von Clouds

Man kann neben dem technischen Cloudstack auch zwischen verschiedenen Organisationsformen von„Clouds“ unterscheiden, die je nach Anwendungsfall ihre Berechtigung haben. Die Definitionen für die Begriffe„private“,„public“ usw. wurden vom NIST geprägt, werden in gleicher Art von den Wirtschaftsprüfern verwendet (führend hierzu sei für die Definition der Standards die ISACA angeführt) und sind seit 2014 auch in ISO/IEC 17788 verfügbar. Die Definitionen durch diese Gremien sind von hohem Erkenntniswert, da hier die korrekten Definitionen der Deployment Models international gültig festgelegt sind.

Zusammenfassend lässt sich sagen, dass die Definitionen sich auf den möglichen Nut- zerkreis beziehen und nichts damit zu tun haben, wo„die Cloud“ betrieben wird oder wie Eigentumsverhältnisse aussehen. Unter„Private Cloud“ ist demnach eine Cloud zu verstehen, bei der die Ressourcen durch einen vordefinierten Benutzerkreis angesprochen wird und wo die Verwaltung durch ausgezeichnete User erfolgt. Am anderen Ende der Skala ist dann die„Public Cloud“ zu finden, bei der a priori keinerlei Information über die möglichen Nutzer vorhanden ist. Mischformen dazwischen sind möglich (z. B. „Hybrid Cloud“), beziehen sich aber ebenfalls auf den Nutzerkreis und nicht auf die technische Ausgestaltung.

Die Begrifflichkeiten, wie sie teilweise gemeinhin anzutreffen sind, und im Rahmen de- ren Verwendung„Public Cloud“ mit„off premise“ und„Private Cloud“ mit„on premi- se“ gleichgesetzt werden, sind irreführend und entsprechen in dieser Verwendung weder der Grundidee der ISO/IEC Normen noch der anderer Gremien.

Cloud Computing in der Wirtschaft

Cloud Computing verlagert die Investition für Anwendungsprogramme auf den Anbieter der Dienste und eine der tatsächlichen Leistung entsprechende Gebühr. Das erlaubt es, schwerfällige Entscheidungsprozesse in dem Unternehmen des Bestellers der Dienste abzulösen.

Vorteile und Probleme

Ebenso wie die Virtualisierung ermöglicht Cloud Computing Kostenvorteile gegenüber konventionellen Systemen. Dies ist der Fall, wenn sich beispielsweise die Bezahlung nach der Dauer der Nutzung des Dienstes richtet und der Dienst nur gelegentlich genutzt wird. Lokale Ressourcen (Software und Hardware) lassen sich einsparen. Zunehmend wird diese Ressourceneffizienz auch in Verbindung mit der nachhaltigen Nutzung von IKT-Systemen gebracht, wobei entsprechende Überlegungen keineswegs neu sind. Ein häufig zitiertes Beispiel ist die Realisierung von E-Mail-Systemen auf Ba sis von Cloud Computing, denn hier nimmt die Komplexität der Anwendung durch Maßnahmen zur Unterbindung von Kompromittierungsversuchen kontinuierlich zu, so dass kleinere Unternehmen von einer Auslagerung profitieren können. Vorteile ergeben sich auch im Fall von stark schwankender Nachfrage: Normalerweise müsste man genug Kapazität Vorhalten, um Lastspitzen bedienen zu können. Bei Nutzung von Cloud Computing lässt sich die genutzte Kapazität variabel an den tatsächlichen Bedarf kurzfristig anpassen.

Das gilt besonders für volatile Geschäftsfelder, die externen Anforderungen umgehend entsprechen müssen, wie beispielsweise die Logistik. Ständig schwankende und vom Markt abhängige Warenvolumina erfordern zeitnahes Reagieren und die durchgehende Verfügbarkeit der zur Ausführung benötigten Kapazitäten. Dank der Flexibilität und der Skalierbarkeit der Cloud wäre die Bereitstellung benötigter Ressourcen für logistische Software (wie zum Beispiel WMS, TMS, ERP usw.) wesentlich günstiger und einfa cher zu bewerkstelligen, als es momentan mit statischen Systemen der Fall ist. Laut einer aktuellen Studie des Fraunhofer-Instituts für Materialfluss und Logistik IML ist eine Kostenreduktion im Bereich Warehouse Management um bis zu 56 Prozent im ersten Jahr und 48 Prozent in den Folgejahren machbar. Konzepte zur praktischen Umsetzung existieren und befinden sich bereits in der Anwendung. Weitere Kostenvorteile ergeben sich für den Servicenutzer bei Public Cloud Angeboten beispielsweise bei der IT-Govemance (etwa durch (Teil-)Auslagerung bei der IT-Prüfung an den Dienstleister), durch den geringeren Investitionsbedarf und dem (steuerlichen und handelsrechtlichen) Ansatz der monatlichen Gebühren in voller Höhe.

Problematisch stellt sich Datensicherheit beim Cloud Computing dar: Eines der Grund probleme, nämlich die Absicherung des Zugriffs auf die Anwendungsdaten beim Transfer zwischen lokalem Client und entferntem Server, kann heute befriedigend gelöst werden. Es existieren zahlreiche Entwicklungen im Bereich der sicheren Übertragung, wie beispielsweise SSL/TLS-Verschlüsselung. Ein weiteres Grundproblem ist die Verschlüsselung der Daten, die in Datenbanken und Datei-Systemen der Cloud gespeichert werden. Auch dieses Problem ist grundsätzlich technisch gelöst und wird von State-of- the-Art-Cloud-Anbietern angewandt (Kryptographie). Jedoch findet man (Stand 2012) hierauf noch keine Hinweise in den Datenschutzerklärungen der großen Cloud- Anbieter.

Das dritte Grundproblem, nämlich dass Administratoren des Cloud-Anbieters und der Dienste Zugriff auf die Nutzerdaten während der Verarbeitung haben, ist hingegen grundsätzlich ohne ein komplexes Management des verteilten Authentisierens und des dynamischen Autorisierens sowie der Kryptografie nicht zu lösen.

Kritiker behaupten, dass die Kontrolle der privaten Daten von Benutzern durch die marktdominanten Anbieter, wie etwa Google, hierdurch überhandnähme. Allerdings gibt es mittlerweile Algorithmen, die Berechnungen so auf einzelne Instanzen aufteilen können, dass es selbst allen Instanzen gemeinsam nicht möglich ist, Rückschlüsse auf die verarbeiteten Daten zu ziehen.

Dies ist lediglich der ausführenden Instanz möglich, da nur sie den genauen Algorith- mus kennt, mit dem die Teilergebnisse wieder zusammengeführt werden. Ein weiterer Ansatz, der sich zur Behebung dieses Problems eignet, ist die Anwendung einer voll homomorphen Verschlüsselung. Dabei wird innerhalb der Cloud ausschließlich auf verschlüsselten Daten gerechnet, die im privaten Bereich dann wieder entschlüsselt werden können. Die Herausforderung liegt hier jedoch darin, Verschlüsselungsalgorithmen zu finden, die für einen massiven, großflächigen Einsatz beim Cloud Computing effizient genug arbeiten.

Ein alternativer Ansatz, der ebenfalls die Daten in der Cloud unzugänglich macht, ist das Konzept der Sealed Cloud. Dabei kommt eine Schlüsselverteilung zum Einsatz, die zwar eine Verschlüsselung der Daten, jedoch nicht deren Entschlüsselung durch die Schlüssel zulässt, die den Administratoren zugänglich sind, und es erfolgt eine geordne te Sicherung und anschließende Löschung von unverschlüsselten Daten, bevor ein Administrator, beispielsweise zu Wartungszwecken, Zugriff zur Computing- Infrastruktur erhält. Eine weitere Herausforderung in der Cloud ist die Abhängigkeit (Lock-in-Effekt) vom jeweiligen Cloud-Anbieter, da die angebotenen Schnittstellen meist sehr herstellerspezifisch sind. Privatanwender stehen zudem vor der hypothetischen Frage, was mit ihren Daten in der Cloud passiert, wenn der Anbieter eines Cloud- Dienstes Insolvenz anmeldet. Daher bieten neue Anbieter die Rücksicherung der Daten auf dem eigenen Compu- ter an.

Kosten

Es gibt verschiedene Untersuchungen über die Kosten von Cloud Computing. Nach ei- ner Untersuchung von Dachyuk (2018) ist Colocationing ab etwa 150 großen AWS- Instanzen (m4.2xlarge) günstiger als Cloud Computing.

Ersatzlösungen

Da viele Privatanwender zunehmend Bedenken haben, ihre Daten bei großen Unter- nehmen zu speichern, wenn diese beispielsweise ihre Geschäftsbedingungen jederzeit ändern könnten, stellen viele NAS-Systeme für zu Hause Funktionen bereit, wie man sie von Cloud-Speicher-Betreibem kennt. In diesem Fall spricht man von einer Personal Cloud, da die Infrastruktur der Datenspeicherung vollständig vom Anwender selbst betrieben wird. NAS-Lösungen übernehmen jedoch kein Verarbeiten von Daten. Abgrenzung von anderen Dienstleistungsformen

Cloud Computing ist in einigen Elementen mit dem klassischen Online Outsourcing verwandt. Es grenzt sich jedoch in wesentlichen Punkten von diesem ab. In der Regel wird im Bereich der Infrastructure as a Service-Anbieter die IT-Infrastruktur von mehreren Kunden genutzt, so dass Kapazitätsspitzen leichter verteilt werden können und Reserven gemeinsam genutzt werden. So können Cloud-Dienstleistungen kurzfristig angepasst werden und unterscheiden sich dadurch vom klassischen Modell, in dem Kunden Rechnerinfrastruktur„exklusiv“ nutzen. Weiterhin erfolgt die Steuerung und Administration der Dienste durch den Nutzer via Webinterface selbst. Rechtliche Fragen

Rechtlich müssen sowohl die Beziehungen zwischen Cloud-Anbietem und ihren Kunden als auch die Rechte betroffener Dritter betrachtet werden.

Datensicherheit

Es ist zu berücksichtigen, dass der gesetzlich geforderte Datenschutz grundsätzlich ohne technische Datensicherheit nicht erreicht werden kann. Die Datensicherheit wird durch die verwendete Technik des Anbieters und durch die verwendeten Anwendungen des Anbieters bestimmt. Datenschutz

Nach Urteil des Europäischen Gerichtshofs dürfen nur eingeschränkt Daten in die USA gelangen, wo sich über 90 % der Cloud-Computing-Infrastruktur befinden.[26] Nationale Datenschutzagenturen stützen sich auf Arbeiten der ENISA, wenn sie darlegen, warum Cloud Computing trotz Safe Harbor beispielsweise für Schulen unzulässig ist. Auch die Datenschutzbeauftragten der Schweiz warnen insbesondere vor Verletzung des Datenschutzrechts bei Verwendung von Rechenzentren im Ausland. Wenn personenbezogene Daten Dritter online gespeichert werden, müssen sich beispielsweise deutsche Auftraggeber vorab und anschließend regelmäßig nachvollziehbar vor Ort davon überzeugen, dass die Vorgaben des Bundesdatenschutzgesetzes eingehal ten werden. Weil namhafte Cloud-Anbieter Datenbestände ihrer Kunden weitergeben, drohen den Kunden Bußgelder. Cloud- Betreiber mit Sitz in den USA unterliegen dem US-Recht und demnach dem Patriot Act. Unternehmen mit Sitz in den USA sind deshalb gezwungen, auch Daten an amerikanische Behörden auszuliefem, die sich auf Servern in fremdem Hoheitsbereich befinden. Dies ist beispielsweise von Amazon, Microsoft und Google bestätigt worden.

Nicht zuletzt wegen dieser Problemlagen im Datenschutz sowie in der Frage, inwieweit der Einzelne die Verfügungsgewalt über seine Daten tatsächlich behält, erhielt die Cloud bzw. Cloud Computing als Technik 2012 den Negativpreis Big Brother Award in der Kategorie„Kommunikation“, die Laudatio hielt Rena Tangens vom FoeBuD

Leistungsschuld

Bei den Cloud-spezifischen Leistungen werden in der Regel Web- oder Filespace, Datenbanken, Applikationen und Hostingservices zur Verfügung gestellt. Beim Webhosting (ggf. auch für das Storage-Management), bei dem Daten auf den Host des Hosting-Providers gespeichert werden, wird vertreten, dass es sich hierbei nicht um ei nen Mietvertrag nach §§ 535 ff. BGB handelt, sondern um einen Werkvertrag nach §§ 631 ff. BGB. Der Hosting-Provider schuldet als Leistung lediglich, dass die Website des Kunden bei ihm irgendwo gespeichert wird und dass sie im Internet aufgerufen werden kann. Eigentliche Leistung ist daher die Aufbewahrung der Information und ihr Zurverfügunghalten für den Abruf im Internet. Für den Kunden ist vor allem wichtig, dass die Inhalte dauernd abrufbar sind. Wie der Hosting-Provider oder Cloudanbieter diese Leistung erbringt, ist dem Kunden gleichgültig. Damit wird nicht primär Speicherplatz überlassen, sondern primär ein Erfolg, nämlich die Abrufbarkeit im Internet geschuldet. Das Einspeichem der Website ist nur technische Voraussetzung des ge- schuldeten Erfolgs. Bei der Zurverfügungstellung von Applikationen wird in der Regel ein Software-as-a- Service- (SaaS) oder„Application-Service-Providing“-Modell (ASP) gewählt. Hierbei wird vom ASP-Anbieter einem Kunden die temporäre Nutzung von Applikationen zur Verfügung gestellt. Der Bundesgerichtshof hat entschieden, dass auf Application- Ser- vice-Providing-Verträge grundsätzlich die mietrechtlichen Vorschriften Anwendung finden. Auch wenn diese Entscheidung sicherlich bedeutsam gewesen ist, bedarf es doch einer erheblichen vertraglichen Gestaltung, insbesondere bei der Gestaltung der Service-Levels, da hier die mietrechtlichen Regelungen des §§ 535 ff. BGB allein nicht ausreichend sein dürften.

Die Einordnung von Hosting- Verträgen für Datenbanken in die vertragstypologische Einordnung des BGB richtet sich nach der vertraglich geschuldeten Leistung. Hierbei ist grundsätzlich zu unterscheiden, ob wie weiter oben beschrieben Filespace zur Speicherung der Datenbank vom Provider zur Verfügung gestellt wird (sogenanntes Daten- bank-Hosting) oder eine Applikation wie eine Oracle-Datenbank (zur zeitweiligen Nut zung) zur Verfügung gestellt wird. Schuldet der Cloud-IT-Anbieter über die Hosting- Leistung hinaus Leistungen, wie z. B. bei der Gestaltung der Datenbanken, sind ggf. die Regelungen von §§ 87a bis 87e UrhG zu berücksichtigen.

Urheberrecht

Zu beachten sind auch urheberrechtliche Fragestellungen, wenn urheberrechtlich geschützte Daten online gespeichert werden. Der Upload von Daten stellt rechtlich gesehen nichts anderes als eine Vervielfältigung gern. § 16 UrhG dar, die der Zustimmung des Urhebers bedarf. Nur wenn der Upload zu rein privaten Zwecken geschieht und die Datei nicht öffentlich zugänglich gemacht wird, kann der Upload als Privatkopie gern. § 53 UrhG zulässig sein. Die öffentliche Zugänglichmachung von Dateien der Cloud (§ 19a UrhG) ist jedoch ohne Zustimmung des Urhebers immer rechtswidrig. Hinzu kommt, dass nach Marcel Bisges durch Cloud Computing das derzeitige System der Urhebervergütung ausgehebelt werden kann, indem dem Urheber der Anspruch auf angemessene Vergütung (für Privatkopien) vermindert wird. Aus urheberrechtlicher Sicht ist Cloudcomputing andererseits, so Bisges, für die Hersteller von Software von Vorteil, da im Gegensatz zu herkömmlicher Softwareüberlassung die Schäden durch illegale Kopien vermieden werden.

Cloud Services Made in Germany

In Deutschland wurde 2010 die Initiative Cloud Services Made in Germany ins Leben gerufen. Dabei geht es um die Rechtssicherheit beim Einsatz von Cloud-Computing- Lösungen. Denn bei den Unternehmen, die daran beteiligt sind, liegen die Kundendaten ausschließlich in Deutschland und unterliegen damit dem deutschen Recht und Datenschutz. Folgende Aspekte sind bei der Initiative wichtig:

-Das Unternehmen des Cloud-Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.

-Das Unternehmen schließt mit seinen Cloud-Service-Kunden Verträge mit Service- Level-Agreement (SLA) nach deutschem Recht.

-Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.

-Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutsch- sprachigen Service und Support zur Verfügung.

13. Cloud Commerce

Cloud Commerce ist eine Verbindung der Bereiche E-Commerce und Cloud Computing. Konkret befasst sich das Thema Cloud-Commerce nur mit dem Teilbereich Soft- wäre as a Service des Cloud-Computing, kurz SaaS. Die im SaaS- Model angebotene Software ist in diesem Fall ein eCommerce-System (primär ein Shop-System).

Analog dem SaaS-Modell, basiert Cloud-Commerce auf dem Grundsatz, dass das eCommerce-System und die IT-Infrastruktur bei einem externen IT-Dienstleister, dem Hersteller der Software, betrieben und vom Kunden als Service genutzt werden. Der Servicegeber übernimmt die komplette IT-Administration und weitere Dienstleistungen wie Wartungsarbeiten und Updates. Zu diesem Zweck wird die gesamte IT- Infrastruktur, einschließlich aller administrativen Aufgaben, ausgelagert, und der Servicenehmer kann sich auf sein Kerngeschäft konzentrieren.

SaaS-Modellen, wie dem Cloud-Commerce, werden eine immer größere Bedeutung eingeräumt. Das Marktforschungsunternehmen Gärtner prognostizierte für 201 1 einen Umsatz von 12,1 Milliarden US-Dollar. Dies bedeutet einen Anstieg um 20,7 Prozent im Vergleich zum Vorjahr (2010: 10 Mrd. Dollar). Der nordamerikanische Markt stellt dabei die größte Nachfrageballung dar (201 1 : 7,7 Mrd. Dollar). Cloud-Commerce bietet klein- und mittelständischen Unternehmen eine Vielzahl von Vorteilen gegenüber dem traditionellen Lizenzkauf und dem eigenen Betrieb einer IT- Inffastruktur.

Vorteile

-Geringes Investitionsrisiko

-Transparente IT-Kosten

-Beschleunigte Implementierung

-Verringerung der IT-Prozesskomplexität

-Mobilität

-Konzentration auf das Kerngeschäft

Der Servicenehmer hat ein geringeres Investitionsrisiko, da er für die Softwareeinfüh rung keinerlei IT-Hardware benötigt. Zwei Studien der McKinsey Consulting und Yankee Group besagen, dass die Investitionskosten einer SaaS- Lösung, wie dem Cloud- Commerce, im Vergleich zu einer On-Premise-Lösung um 30 Prozent gesenkt werden können, unabhängig von der Benutzeranzahl. Ein weiterer Vorteil ist die Auslagerung der Prozesskomplexität, indem Wartungsarbeiten, Updates und weitere IT-Aufgaben durch den Servicegeber übernommen werden. Der Softwarezugriff über das Internet sorgt für eine hohe Mobilität, da der Servicenehmer zeit- und ortsunabhängig auf das System zugreifen kann. Mit einer ausgelagerten IT-Inffastruktur können sich Unter- nehmen auf ihr Kemgeschäft bzw. die Wertschöpfung konzentrieren und somit die lä stigen IT- Aufgaben umgehen. Damit ist die IT ein leicht zu handhabendes Gebrauchs- gut, um Wachstum, Flexibilität, Wettbewerbsfähigkeit und somit auch die Existenz des Unternehmens zu sichern.

Nachteile

-Abhängigkeit vom Servicegeber

-Geringere Anpassungsmöglichkeiten

-Daten- und Transaktionssicherheit

Als Nachteil von Cloud-Commerce-Software ist zu werten, dass sich die Servicenehmer in einem Abhängigkeitsverhältnis befinden, da der Kunde nicht Eigentümer der Software ist. Es besteht die Gefahr, dass der Servicegeber das System aus einem bestimm- ten Grund (z. B. bei Insolvenz) abschaltet. Die SaaS- Lösungen sind meist standardisiert, sodass es wenige Anpassungsmöglichkeiten des Funktionsumfangs gibt.

Aus Sicht des Servicegebers

Auch für den Servicegeber ergeben sich durch Cloud-Commerce Vor- und Nachteile, die nachfolgend beschrieben werden:

Vorteile

-Erweiterung des IT-Leistungsangebots und Erzielung zusätzlicher Umsatzer- löse -Längerfristig gesicherte Einnahmen und bessere Liquiditätsplanungsoption

-Geringere Wahrscheinlichkeit des Auftretens von Softwarepiraterie

Der Servicegeber hat die Möglichkeit, sein IT-Leistungsangebot zu erweitern und somit weitere Erlöse zu generieren. Da der Servicenehmer meist monatliche Gebühren für die Nutzung der Software zahlt, können längerfristiger Einnahmen gesichert und somit auch die Liquidität besser geplant werden. Außerdem werden weniger Verluste durch die Software-Piraterie erzielt, da die Software zentral beim Servicegeber verwaltet wird. Nachteile

-Investitionsrisiko

-Akzeptanzprobleme auf dem IT-Markt

-Möglicher Imageschaden und Umsatzverluste Der Cloud-Commerce- Anbieter hat das Problem des hohen Investitionsrisikos, sollte die Software vom Kunden nicht wie erwartet angenommen werden. Zudem muss er beim Kunden Überzeugungsarbeit leisten, da derzeitige Akzeptanzprobleme oft mit den Nachteilen begründet werden.

Datenschutz

Bei Cloud-Commerce liegen die Kunden- oder Umsatzdaten des Kunden nicht mehr auf eigenen Rechnern, sondern beim jeweiligen Systemanbieter. Zwischen dem Anbieter und seinem Kunden liegt regelmäßig ein Fall der Auftragsdatenverarbeitung nach § 1 1 Bundesdatenschutzgesetz (BDSG) vor. Der Kunde ist verpflichtet, den Anbieter sorgfältig auszuwählen, regelmäßig zu kontrollieren und das Ergebnis der Kontrollen zu dokumentieren. Der Kunde bleibt für die Rechtmäßigkeit der Datenverarbeitung verantwortlich. Cloud-Commerce-Unternehmen

Beispiele für Cloud-Commerce-Angebote sind z. B. Magento Go, Amazon Webstore und Shopify in den USA; Big Cartel in Großbritannien; Big Commerce in Australien; Supr.com sowie XSITE, Jimdo und Onshop.de in Deutschland.

14. Online-Datensicherung

Als Online-Datensicherung, Online-Backup oder Web-Backup bezeichnet man eine Datensicherung über das Internet. Diese erfolgt auf Datenspeichern eines Intemetdienstan- bieters in einem Rechenzentrum.

Das Verfahren entlastet den Anwender, selbst zuverlässige Datenspeicher zu beschaf fen, regelmäßig zu prüfen, zu verwalten und vor Verlust zu sichern.

Vorgehensweise

Der Kunde erhält nach Anmeldung einen Benutzernamen und ein Kennwort für den Zugang zur Datensicherung. Technische Voraussetzung ist ein Intemetzugang. Die Software für eine Datensicherung oder auch der Upload über eine Webseite sollten eine sichere Verschlüsselung gewährleisten, um die übertragenen Daten vor fremdem Zugriff zu schützen.

Weil die Datenübertragungsrate von Intemetzugängen meist nur einen Bruchteil derer von Laufwerken und Local Area Networks beträgt, kann die Software eine Datenkompression durchfuhren, soweit das möglich ist. Schon komprimiert gespeicherte Daten - zum Beispiel in den Dateiformaten ZIP, JPEG, MPEG oder MP3 - kann sie kaum wei ter komprimieren. Über einen Internetzugang mit einer Datenübertragungsrate von 1 Mbit/s können theoretisch 450 MB pro Stunde beziehungsweise 10,5 GB pro Tag übertragen werden. Dies ist beispielsweise eine mögliche Datenübertragungsrate beim Hochladen über ADSL 6000 in Deutschland. Mit schnelleren Internet -Zugängen wiez. B. per VDSL sind noch höhere Datenübertragungsgeschwindigkeiten möglich. Einige Dienstleister bieten an, größere Datenmengen mittels Festplatte oder DVDs auf dem Postweg auszutauschen, was sich insbesondere für eine größere Erst- Sicherung anbietet.

Wegen der relativ niedrigen Datenübertragungsrate kommt dem Verfahren der inkrementeilen Datensicherung, bei dem nur neue und geänderte Daten kopiert werden, be- sondere Bedeutung zu. Einige Anbieter durchsuchen mit ihrer Software Dateien nach geänderten Teilen und übertragen nur die veränderten Datenblöcke an den Datenspeicher (Block-Level). Einige erkennen, wenn Dateien nur umbenannt wurden und übertragen sie nicht erneut. Umbenannte Dateiordner und verschobene Dateien können nicht immer wiedererkannt werden, was zu erneuten Dateiübertragungen führen kann.

Manche Lösungen wie z. B. Netzdrive, Novell iFolder, Dropbox, Fabasoft Folio Cloud oder Recovery Guard bieten Merkmale wie eine Verschlüsselung von Daten auf dem Server, die Vergabe von Datei-Zugriffsrechten an bestimmte andere Nutzer oder Nutzergruppen, die Replikation von Daten auf mehrere Server und eine Versionskontrolle von Änderungen an, wodurch ähnliche Eigenschaften wie von sogenannten verteilten Dateisystemen erreicht werden. Sofern eine Einschränkbarkeit des Zugriffs besteht, überschneidet sich die Funktionalität dieser Software teilweise mit solcher zum Filesharing.

Einige Lösungen unterhalten Ihre Serverstruktur ausschließlich in Deutschland, weshalb der gesamte Datenverkehr den strengen deutschen Datenschutzgesetzen untersteht, mit der Folge zusätzlicher Sicherung gegen nicht autorisierten Zugriff.

Wenige Lösungen bieten darüber hinaus noch eine Ende-zu-Ende-Verschlüsselung, durch welche die Daten bereits lokal auf dem eigenen Rechner verschlüsselt werden und somit bereits auf dem Weg zum Server hin sicher verschlüsselt sind.

Moderne Anbieter bieten in ihrer Software nicht nur Online Backup an, sondern auch die parallele Sicherung auf lokale Medien, wie ein Bandlaufwerk oder USB Peripherie. Firmen sollten darauf achten, dass SQL-Datenbanken wie z. B. Microsoft SQL Server unterstützt werden und eine komplette Systemwiederherstellung Disaster Recovery im Fall eines Serverausfalls enthalten ist. Nützlich ist auch ein direkter, in der Online Backup Software integrierter Virenscanner, welcher die zu sichernden oder wiederherzustellenden Daten überprüft und somit die Sicherheit des Backups erhöht.

15. Blockchain

Eine Blockchain ist eine dezentrale Datenbank, die eine stetig wachsende Liste von Transaktionsdatensätzen vorhält. Die Datenbank wird chronologisch linear erweitert, vergleichbar einer Kette, der am unteren Ende ständig neue Elemente hinufügt werden (daher auch der Begriff "Blockchain" = "Blockkette"). Ist ein Block vollständig, wird der nächste erzeugt. Jeder Block enthält eine Prüfsumme des vorhergehenden Blocks.

Entwickelt wurde das technische Modell der Blockchain im Rahmen der Kryptowäh- rung Bitcoin - als webbasiertes, dezentralisiertes, öffentliches Buchhaltungssystem aller Bitcoin-Transaktionen, die jemals getätigt wurden. Die Bitcoin-Blockchain wächst stetig, da ständig neue Blöcke mit neu abgeschlossenen Bitcoin-Transaktionen hinzu- kommen. Jeder Computer, der an das Bitcoin-Netz angeschlossen ist, neue Bitcoins er- zeugt und/oder die bisher erzeugten verwaltet, verwaltet eine l :l-Kopie der vollständigen Blockchain, die Ende 2015 bereits rund 50 Gigabyte groß war. Noch ausführlichere technische Informationen zur Bitcoin-Blockchain gibt es bei Wikipedia.

Was ist was bei Blockchain, Bitcoin und Co.?

Ethereum

Eine weitere Kryptowährung, die auf dem Blockchain-Prinzip basiert. Bietet eine Plattform für programmierbare Smart Contracts. Die "Ether" werden von Fans als legitime Nachfolger der Bitcoins angesehen. Ethereum.org

Was ist überhaupt Bitcoin?

Bitcoin ist eine rein digitale Währung - begründet 2009 -, die auf einem dezentralen

Bezahl-Netzwerk basiert und die eine Blockchain als Rückgrat benötigt. Wer im Web mit Bitcoins bezahlt, zahlt geringere Transaktionsgebühren als bei traditionellen On- line-Payment-Anbietem. Ein weiterer möglicher Vorteil von Bitcoin ist, dass die Währung nicht durch eine zentrale Staatsbank oder ähnliche Einrichtung gesteuert wird. Nachteile sind die überschaubare Zahl von Akzeptanzstellen und der mittlerweile sehr hohe Aufwand, neue Bitcoins zu berechnen - entsprechend stark steigt ihr Wert.

Es existieren keine physikalischen Bitcoins, sondern nur Kontostände, die mit öffentlichen und privaten Schlüsseln verbunden sind. Diese Kontostände werden in einem öffentlichen Buchhaltungssystem abgelegt - der Blockchain -, zusammen mit allen jemals getätigten Bitcoin-Transaktionen. Die für die Verwaltung dieser massiven Datenmenge notwendige Rechenpower wird durch ein großes Netz von Computern bereitgestellt.

Was macht die Blockchain so besonders?

Die Blockchain ist die wohl größte technologische Erfindung des Bitcoin-Universums. Ohne Blockchain würde das Bitcoin-System nicht funktionieren, weil neue Bitcoins nur auf Grundlage der bisher erzeugten Bitcoins errechnet werden können und deshalb nachgehalten werden muss, was in der Vergangenheit schon passiert ist.

Dennoch muss das Blockchain-Prinzip losgelöst von Bitcoin betrachtet werden. Stellen Sie sich die Blockchain als Rohrleitung vor und Bitcoin als das Wasser, das dort durch- fließt. Oder Blockchain als Straße und Bitcoin als Auto. Der daraus folgende Clou: Auf der Grundlage der Blockchain-Technologie lassen sich neue Applikationen entwickeln und komplett neue Ökosysteme begründen.

Welche Vor- und Nachteile hat eine dezentrale Technologie wie Blockchain?

Die Dezentralisierung der IT im Allgemeinen und Blockchain im Speziellen bringt einige Vor- und Nachteile mit. Als Vorteile lassen sich anführen:

-Schutz großer Datenmengen mittels Verschlüsselung und Zugriffsverwaltung;

-Möglichkeit, große Datenmengen untemehmensübergreifend zu sammeln und analysieren;

-einfachere Verifzierung von Datenbezugspunkten;

-automatische Aufspüren von Schwachstellen in der Lieferkette, im Zahlungsverkehr und anderen Geschäftsprozessen;

-Reduktion oder Vermeidung von unnötigen Kosten für die IT-Inffastrukur;

-Reduktion der Kosten für interne und externe Finanztransaktionen, Finanzreporting und Verwaltung;

-Schaffung eines Mechanismus zur Verbesserung des Vorstandsreportings und des regulatorischen Reportings;

-Beschleunigung des Jahresabschlusses. Als Nachteile sind zu nennen:

-noch wenig individuelle Skalierbarkeit;

-geringer Datendurchsatz;

-Einschränkungen beim Speicherplatz;

-schwer zu verwaltende Berechtigungen;

-schwierige Integration mit bestehender Legacy im Unternehmen.

Wie kommt die Blockchain in der Finanzbranche schon zum Einsatz?

Schon heute ist vieles in der IT dezentralisiert - dem Internet und der Cloud sei Dank. Mit Anwendungen, die auf dem Blockchain-Prinzip basieren, kommen weiter neue Entwicklungen dazu, die dafür sorgen werden, die aufgefuhrten Nachteile nach und nach abzubauen. So basiert auch die Krypto Währung Ethereum auf dem Blockchain- Prinzip der dezentralen Rechenleistung und kann als eine Art Brücke zwischen Block- chain und Unternehmens-Systemen gesehen werden.

Die "skalierbare Blockchain-Datenbank" BigchainDB kann bis zu einer Millionen Schreibvorgänge pro Sekunde verwalten, Petabytes an Daten speichern und wartet trotzdem mit einer Latenzzeit von unter einer Sekunde auf - das alles dezentralisiert verwaltet und bei höchster Datenintegrität.

Blockchain-Anwendungsplattformen für die Finanzindustrie, die sich noch in der Ent- wicklung befinden - wie ERIS oder R3CEV - sollen die "Business-Regeln" der Block- chain-Technologie aufstellen und neue transparente, sichere und nachprüfbare Geschäftsmodelle in die IT, insbesondere der Finanzbranche, bringen. Für den CIO heißt ein solcher neuer dezentralisierter Technologiestack samt wachsendem Ökosystem, dass er seinen Aufgaben besser nachkommen kann: schnellere Fertigstellung für den Geschäftsbetrieb, eine sicherere Transaktionsabwicklung, Kostenreduzierung und engere Orientierung an regulatorischen Vorschriften.

Die Integration mit bereits bestehenden Systemen stellt noch eine Herausforderung dar, ist aber nicht unüberwindbar und lässt sich mit den durch Blockchain zu erwartenden Vorteilen sowohl für die IT als auch fürs Business sehr gut rechtfertigen.

Warum können auch andere Industrien von der Blockchain profitieren?

Die IT entwickelt zunehmend dezentrale Strukturen, weil die Anwender ihre digitalen Daten selbst im Auge behalten möchten. Durch dezentrale Systeme können Informatio- nen in einem Netz von mehreren Rechnern gespeichert werden, die über das Internet zugänglich sind. Mit dem Internet begann die Dezentralisierung der Kommunikation und jeder Mensch erhielt mehr Verfügungsgewalt über die Informationen, die er konsumiert. Im nächsten Schritt werden neben der Kommunikation auch Rechenleistung und Speicher dezentralisiert (Cloud Computing), und mit der Blockchain kommt nun ein weiteres Element hinzu. Die Blockchain befeuert Ideen, nicht nur Kryptowährungen wie Bitcoin über dezentrale Netze zu steuern, sondern auch andere digitale Inhalte wie Kunst, Musik, Texte oder Fotos.

Erste konkrete Praxisbeispiele für den Einsatz von Blockchains in verschiedenen Indu- strien haben wir im im Artikel "Blockchain im Einsatz" zusammengestellt.

Wie sehen die Blockchain- Angebote der großen IT-Konzeme aus?

Große IT-Konzeme springen auf den Blockchain-Zug auf und basteln derzeit an Software- und Service-Ökosystemen rund um die Technologie. So bietet IBM- sowieso schon länger in der Bitcoin-Initiative der Linux Foundation aktiv - innerhalb seiner Cloud Entwicklern die Möglichkeit, eigene Blockchains aufzusetzen. Dazu hat Big Blue auf seiner Entwicklerplattform Bluemix den der Bitcoin-Blockchain zugrundelie genden Hyperledger-Code zur Verfügung gestellt.

Durch die gleichzeitige Integration des Container-Dienstes Docker sei es "für Entwick- 1er mm in zwölf Sekunden möglich, eine eigene Mini-Blockchain innerhalb einer Sandbox zum Laufen zu bekommen", wie Jerry Cuomo, bei IBM für die Blockchain- Angebote zuständig, im Rahmen der Vorstellung der Services im Februar 2016 unterstrich. "Und nur eine Minute später ist dann die erste vollständige Blockchain- Applikation live."

Auch Microsoft hat den Nutzen von Blockchain erkannt und unter dem Dach von "Ethereum Blockchain as a Service" in der Azure Cloud das "Project Bletchley" gestar tet. In nächster Zeit sollen verschiedene Middleware-Tools gelauncht werden, die den Business-Nutzen von Blockchain erweitern. So spricht man beispielsweise mit "Block- chain as a Service"in erster Linie Entwickler an. Als technisches Werkzeug der Lösun gen dienen sogenannte "Cryptlets", mit deren Hilfe Anwender externe Daten in eine Blockchain einpflegen können, ohne ihre Sicherheit und Integrität zu zerstören.

Diese Cryptlets lassen sich in jeder beliebigen Prorammiersprache entwickeln und laufen analog zum IBM-Angebot innerhalb eines sicheren Containers. Microsoft sieht den Nutzen der Blockchain-Technologie vor allem in Security-relevanten Themen wie Iden- titäts-Management und Verschlüsselung und hat entsprechende Services bereits in Pro- ject Bletchley integriert.

Weitere große IT-Player wie SAP oder HPE haben die Technologie ebenfalls schon länger unter Beobachtung und evaluieren eigenen Aussagen zufolge noch die Möglichkeiten, Angebote rund um Blockchain zu entwickeln.

Eine Blockchain (auch Block Chain, englisch für Blockkette) ist eine kontinuierlich erweiterbare Liste von Datensätzen, genannt„Blöcke“, welche mittels kryptographischer Verfahren miteinander verkettet sind. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, [6] einen Zeitstempel und Transaktionsdaten.

Der Begriff Blockchain wird auch genutzt, wenn ein Buchführungssystem dezentral ge- führt wird und der jeweils richtige Zustand dokumentiert werden muss, weil viele Teilnehmer an der Buchführung beteiligt sind. Dieses Konzept wird als Distributed- Led- ger-Technologie (dezentral geführte Kontobuchtechnologie) oder DLT. bezeichnet.

Was dokumentiert werden soll, ist für den Begriff der Blockchain unerheblich. Ent- scheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen beweisen. Damit wird es unmöglich gemacht, Existenz oder Inhalt der früheren Transaktionen zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu zerstören. Andere Teilnehmer der dezentralen Buchführung, die noch Kenntnis der spä- teren Transaktionen haben, würden eine manipulierte Kopie der Blockchain daran erkennen, dass sie Inkonsistenzen in den Berechnungen aufweist.

Das Verfahren der kryptografischen Verkettung in einem dezentral geführten Buchführungssystem ist die technische Basis für Kryptowährungen, kann aber darüber hinaus in verteilten Systemen zur Verbesserung bzw. Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Systemen beitragen. Eine der ersten Anwendungen von B locke hain ist die Krypto Währung Bitcoin.

Die Funktionsweise ähnelt dem Journal der Buchführung. Es wird daher auch als „Internet der Werte“ (Internet of value) bezeichnet. Eine Blockchain ermöglicht es, dass in einem dezentralen Netzwerk eine Einigkeit zwischen den Knoten erzielt werden kann. (Siehe auch: Byzantinischer Fehler.)

Geschichte

Erste Grundlagen zur kryptografisch abgesicherten Verkettung einzelner Blöcke wurden 1991 von Stuart Haber und W. Scott Stometta, 1996 von Ross J. Anderson und 1998 von Bruce Schneier & John Kelsey beschrieben. 1998 arbeitete auch Nick Szabo an einem Mechanismus für eine dezentralisierte digitale Währung, die er„Bit Gold“ nannte Im Jahr 2000 entwickelte Stefan Konst eine allgemeine Theorie zu kryptogra- fisch abgesicherten Verkettungen und leitete daraus verschiedene Lösungen zur Umsetzung ab.

Das Konzept der Blockchain als verteiltes Datenbankmanagementsystem wurde erstmals 2008 von Satoshi Nakamoto im White Paper zu Bitcoin beschrieben. Im Jahr dar- auf veröffentlichte er die erste Implementierung der Bitcoin-Software und startete dadurch die erste öffentlich verteilte Blockchain.

Eigenschaften

Neue Blöcke werden über ein Konsensverfahren geschaffen und anschließend an die Blockchain angehängt. Das populärste Konsensverfahren ist hierbei die Proof- of- Work-Methode; es bestehen jedoch zahlreiche andere Formen, Konsens herzustellen (Proof of Stake, Proof of Capacity, Proof of Burn, Proof of Activity).

Durch die aufeinander aufbauende Speicherung von Daten in einer Blockchain können diese nicht nachträglich geändert werden, ohne die Integrität des Gesamtsystems zu be- schädigen. Hierdurch wird die Manipulation von Daten erheblich erschwert. Der dezen- trale Konsensmechanismus ersetzt die Notwendigkeit einer vertrauenswürdigen dritten Instanz zur Integritätsbestätigung von Transaktionen.

-Verkettungsprinzip: Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.

-Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort.

-Konsensmechanismus: Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin„Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsensprotokoll, ein algorithmisches Verfahren zur Abstimmung.

-Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, falschungs- und manipulationssicher.

-Transparenz / Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestaltung des Vertraulichkeitsgrads.

-Nichtabstreitbarkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die falschungssicher nachweisen, dass Teilnehmende unab- streitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben. Bei Bitcoin besteht eine Blockchain aus einer Reihe von Datenblöcken, in denen jeweils eine oder mehrere Transaktionen zusammengefasst und mit einer Prüfsumme versehen sind, d. h., sie werden jeweils paarweise zu einem Hash-Baum zusammengefasst. Die Wurzel des Baumes (auch Merkle-Root, bzw. Top-Hash genannt) wird dann im zu- gehörigen Header gespeichert. Der gesamte Header wird dann ebenfalls gehasht; dieser Wert wird im nachfolgenden Header abgespeichert.

So wird sichergestellt, dass keine Transaktion verändert werden kann, ohne den zugehörigen Header und alle nachfolgenden Blöcke ebenfalls zu ändern.

Die Blockchain von Bitcoin ist die älteste Blockchain. Sie startete im Januar 2009, hatte Anfang Dezember 2017 eine Größe von ca. 144,5 GB und lag am

9. Dezember 2017 auf ca. 1 1.900 Knoten redundant und öffentlich zugriffsbereit vor.

Anwendungsbeispiel Auditing

Beim Auditing in der Informationstechnik geht es darum, sicherheitskritische Operationen von Softwareprozessen aufzuzeichnen. Dies betrifft insbesondere den Zugriff auf und die Veränderung von vertraulichen oder kritischen Informationen. Das Auditing eignet sich hierbei deshalb fiir eine Blockchain, weil es relativ geringe Datenmengen produziert und gleichzeitig hohe Sicherheitsanforderungen aufweist.

Eine Blockchain kann hierbei das Audit-Log (auch als Audit-Trail bezeichnet) vor Veränderung schützen. Zudem sollten die einzelnen Einträge mit einer digitalen Signatur versehen werden, um die Echtheit zu gewährleisten. Ein dezentraler Konsensmecha nismus, wie bei Bitcoin, wird nicht zwingend benötigt.

Da einerseits vertrauliche Informationen gespeichert werden und andererseits kein Element der Blockchain gelöscht werden kann, ohne diese ungültig zu machen, kann zu dem eine Verschlüsselung der einzelnen Einträge erfolgen. Da die Implementierung von Blockchains derzeit (Stand Mai 2017) mangels einfach zu verwendender Implementierungen sehr aufwändig ist, empfiehlt sich der Einsatz nur für besonders schüt- zenswerte Informationen. Einsatzbeispiele sind das Auditing bei Systemen für medizinische Informationen (z. B. Elektronische Gesundheitsakte), Verträgen und Geldtransaktionen mit hohem finanziellen Wert, militärischen Geheimnissen, der Gesetzgebung und der elektronischen Stimmabgabe, dem Sicherheitsmanagement kritischer Anlagen oder Daten von Großun- temehmen, welche unter den Sarbanes-Oxley Act oder ähnlichen Richtlinien fallen.

Wie im Juli 2018 bekannt wurde, testen die vier Wirtschaftsprüfungsgesellschaften Deloitte, KPMG, PricewaterhouseCoopers International und Emst & Young einen Blockchain-Dienst zur Prüfling der Zwischenberichte von Aktiengesellschaften. Ziel ist es, den Wirtschaftsprüfiingsunternehmen die Möglichkeit zu geben, die Geschäftsvorgänge durch eine nachvollziehbare und manipulationssichere Datenkette auf dezentrale Weise zu verfolgen, wodurch der Bestätigungsprozess optimiert und automatisiert wird.

Anwendungsbeispiel Kapitalmärkte

Die Blockchain wird auch als Anwendung in den Kapitalmärkten in Betracht gezogen. Das R3 Konsortium hat mit mehreren Finanzinstitutionen die Plattform Corda veröffentlicht, welche einen Unterbau für Blockchain- Anwendungen für Kapitalmärkte darstellen soll.

Die größten Anwendungsgebiete für Kapitalmärkte bestehen im Bereich des Settlement von Aktien und anderen Finanzinstrumenten, der Ausgabe von Konsortialkrediten und der Finanzierung von Unternehmen mit Eigenkapital.

Anwendungsbeispiel Lieferketten für Lebensmittel

Der Einsatz einer Blockchain, in der die Beteiligten die Transaktionen der Lieferkette gemeinsam dokumentieren, kann hier deutliche Kosten- und Zeiteinsparungen ermöglichen. Eine Blockchain könnte das Misstrauen gegenüber einem zentralen registerführenden Akteur aufheben, da ein Blockchain-Register für alle Teilnehmenden zugänglich ist. Die Buchführungs- und Leserechte können dabei gestuft verteilt werden, angepasst an die unterschiedlichen Nutzergruppen und deren Bedürfnisse, wie zum Beispiel Her- steiier, Spediteure, Zoii und verschiedene Verbraucherinnen und Verbraucher. Somit herrscht keine vollständige Transparenz, die Wettbewerber ausnutzen könnten. Für Endverbraucherinnen und -Verbraucher können zum Beispiel lediglich Leserechte eingeräumt werden, anhand derer die Herkunft und die gesamte Lieferkette von der Ernte über Verarbeitung, Logistik, Verzollung, Zertifizierung, Lebensmittelüberwachung, den Großhändler bis zum Einzelhandel transparent und überprüfbar nachvollzogen werden können.

Zudem gibt es Automatisierungspotenziale für die einzuhaltenden Dokumentationspflichten: So könnte beispielsweise ein im Container angebrachter Sensor die Temperatur von Lebensmitteln messen, die Messdaten in die Blockchain schreiben und so eine lückenlose Einhaltung der Kühlkette dokumentieren. Würde sie nicht eingehalten, könnte ein entsprechend aufgesetzter Smart Contract automatisch Alarm schlagen.

16. Informationelle Selbstbestimmung

Das Recht auf informationelle Selbstbestimmung ist im Recht Deutschlands das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner personenbezogenen Daten zu bestimmen. Es ist nach der Rechtsprechung des Bundesverfassungsgerichts ein Datenschutz-Grundrecht, das im Grundgesetz für die Bundesrepublik Deutschland nicht ausdrücklich erwähnt wird. Der Vorschlag, ein Datenschutz- Grundrecht in das Grundgesetz einzufügen, fand bisher nicht dieerforder liehe Mehrheit. Personenbezogene Daten sind jedoch nach Datenschutz- Grundverordnung und nach Art. 8 der EU-Grundrechtecharta geschützt.

Allgemeines

Der Begriff des informationeilen Selbstbestimmungsrechts geht zurück auf ein Gutach ten von Wilhelm Steinmüller und Bernd Lutterbeck aus dem Jahr 1971. Das informationelle Selbstbestimmungsrecht ist eine Ausprägung des allgemeinen Persönlichkeitsrechts und wurde vom Bundesverfassungsgericht im sogenannten Volkszählungsurteil 1983 als Grundrecht anerkannt. Ausgangspunkt für das Bundesverfassungsgericht ist das sogenannte allgemeine Persönlichkeitsrecht (APR), also Art. 2 Abs. 1 GG in Verbindung mit Art. 1 Abs. 1 GG. Die Selbstbestimmung bei der freien Entfaltung der Persönlichkeit werde gefährdet durch die Bedingungen der modernen Datenverarbeitung. Wer nicht wisse oder beein flussen könne, welche Informationen bezüglich seines Verhaltens gespeichert und vor- rätig gehalten werden, werde aus Vorsicht sein Verhalten anpassen (siehe auch: Panop- tismus). Dies beeinträchtige nicht nur die individuelle Handlungsfreiheit, sondern auch das Gemeinwohl, da ein freiheitlich demokratisches Gemeinwesen der selbstbestimmten Mitwirkung seiner Bürger bedürfe.„Mit dem Recht auf informationeile Selbstbestimmung wären eine Gesellschaftsordnung und eine diese ermöglichende Rechtsord- nung nicht vereinbar, in der Bürger nicht mehr wissen können, wer was wann und bei welcher Gelegenheit über sie weiß.“ [Referenz benötigt]

Das Recht auf informationelle Selbstbestimmung leitet sich nach Ansicht des Europäischen Parlamentes auch aus Art. 8 Abs. 1 der Europäischen Menschenrechtskonvention ab:„Jede Person hat das Recht auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung und ihrer Korrespondenz.“- EMRK Art. 8 Abs. 1

Aufbauend auf dieser Begründung hatte das EU-Parlament gegen die EU- Kommission Klage erhoben, weil die verbindliche Speicherung der Verkehrsdaten der EU-Bürger gegen diese Regelung verstoße.

Schutzbereich

Das Recht auf informationeile Selbstbestimmung ist weit gefasst. Es wird nicht unterschieden, ob mehr oder weniger sensible Daten des Einzelnen betroffen sind. Das Bun desverfassungsgericht stellte fest, dass unter den Verarbeitungs- und Verknüpfungs- möglichkeiten der Informationstechnologie auch ein für sich gesehen belangloses Datum einen neuen Stellenwert bekommen könne und es insoweit keine belanglosen Daten gebe.

Eingriffe

Einschränkungen des Grundrechts seien zwar möglich, bedürften aber einer gesetzlichen Grundlage. Dabei habe der Gesetzgeber abzuwägen zwischen dem Geheimhal- tungsinteresse des Betroffenen und dem öffentlichen Informationsinteresse der verar beitenden Stelle.

Einschränkungen sind nur zulässig im überwiegenden Allgemeininteresse. Sie bedürfen einer gesetzlichen Grundlage, die dem Gebot der Normenklarheit entsprechen muss.

Es wird differenziert zwischen Maßnahmen, die ohne oder gegen den Willen des Betroffenen vorgenommen werden, und solchen, die freiwillig erfolgen. Für erstere muss die gesetzliche Ermächtigung auch„bereichsspezifisch, präzise und amtshilfefest“ sein (Volkszählungsurteil, BVerfGE 65, 1 )

Zudem kann man unterscheiden zwischen anonymisierten Daten, die keinen Rückschluss auf den Betroffenen zulassen (z. B. für statistische Erhebungen), und Daten, die personalisierbar sind. Bei anonymisierten Daten ist die Zweckbindung gelockert, für Daten, die personalisierbar sind, gilt eine strenge Zweckbindung. Der Gesetzgeber muss Vorkehrungen treffen, um Datenmissbrauch zu verhindern (Verfahrensvorschriften, Datenschutzbeauftragte, ...).

Auswirkungen

Das informationeile Selbstbestimmungsrecht wurde die Grundlage für die bestehenden Datenschutzgesetze wie das Bundesdatenschutzgesetz oder die Landesdatenschutzgesetze und beeinflusste auch die Entwicklung der Richtlinie 95/46/EG (Datenschutzrichtlinie).

Auch in jüngerer Zeit hat das Recht auf informationelle Selbstbestimmung in der ver- fassungsgerichtlichen Rechtsprechung eine große Rolle gespielt. So wurde die Rasterfahndung in Nordrhein- Westfalen für verfassungswidrig erklärt, sofern sie nur auf Grundlage einer„allgemeinen Bedrohungslage“ geschieht; die § 100c und

§ lOOd StPO (der sogenannte Große Lauschangriff) mussten um einen Straftatenkatalog und um explizite Löschungsvorschriften ergänzt werden (BVerfGE 109, 279). Das Recht auf Nichtwissen gilt als„negative Variante des Rechts auf informationelle Selbstbestimmung“.

Ausspähen

Das Ausspähen privater Daten aus einem staatlichen Interesse heraus ist strengen Beschränkungen unterworfen. Es bedarf nach dem Legalitätsprinzip generell der gesetzlichen Regelung und nach den Grundsätzen der Gewaltenteilung der richterlichen Anordnung. Nach bestimmter Frist muss dem Ausgespähten zudem Kenntnis über den Vorgang gegeben werden. Eine beabsichtigte Ausspähung auf Vorrat wird damit kaum in Gesetzesrang kommen.

Zuletzt hat das Bundesverfassungsgericht die gesetzlichen Regelungen des Landes Nordrhein- Westfalen als verfassungswidrig gekippt. [5] Klarstellungen des Bundesministeriums des Innern werden für die entsprechenden bundesgesetzlichen Regelungen erwartet. Siehe auch: Ausspähen von Daten

Vereinbarungen

Unter der Maßgabe der aktuellen Rechtsprechung (s. o.) bedarf jede Verknüpfung personenbezogener Daten für Zwecke Dritter der Zustimmung, wenn der Rechtsanspruch der Beteiligten nicht eingeschränkt sein soll. Dazu sind Vereinbarungen möglich, die zwischen den Beteiligten getroffen werden und damit die ausdrückliche Zustimmung der Beteiligten dokumentieren. Es kann nicht durch Vereinbarung zweier Parteien eine Gültigkeit für Dritte erreicht werden. Im Umkehrschluss kann ebenso eine Vereinbarung zwischen zwei Parteien nicht durch eine Vereinbarung mit Dritten aufgehoben oder unwirksam werden.

Insoweit ist im Zusammenhang mit neuen Techniken und Verfahrensweisen (Technologien) davon auszugehen, dass eine Verletzung der Rechte der informationellen Selbstbestimmung beispielsweise durch Einrichtungen zur Ortsbestimmung technisch möglich ist. Diese technische Möglichkeit aber generellals gesetzeswidrig auszuschlie- ßen, ist keine haltbare Position. Dies wird allein durch die bekannten Einrichtungen der Mobilfunktechnik bestätigt. Verstöße

Nutzt ein Unternehmen für den Betroffenen erkennbar persönliche Daten, hat der Betroffene generell einen Rechtsanspruch auf Auskunft über die Speicherung dieser Daten und den Verwendungszweck dieser Daten. Geht die Speicherung über einfache Adress- daten hinaus, hat der Betroffene generell einen Rechtsanspruch auf Löschung der Speicherung dieser Daten, wenn er mit dem Unternehmen keine Vertragsbeziehungen hat (siehe auch: Bundesdatenschutzgesetz: Rechte der Betroffenen).

Wird ein Unternehmen beispielsweise durch Werbeaktionen lästig, kann der Betroffene in jedem Einzelfall durch Formschreiben unter Angabe der Adresse Auskunft einholen. Erfolgt keine Auskunft durch das Unternehmen, kann der Betroffene rechtliche Mittel nutzen, um per Abmahnung durch einen Rechtsanwalt oder per Klage bei Gericht Auskunft und Löschung durchzusetzen. Die Kosten trägt zunächst der Betroffene. 17. Informationssicherheit

Information (oder Daten) sind schützenswerte Güter. Der Zugriff auf diese sollte beschränkt und kontrolliert sein. Nur autorisierte Benutzer oder Programme dürfen auf die Information zugreifen. Schutzziele werden zum Erreichen bzw. Einhalten der Informationssicherheit und damit zum Schutz der Daten vor beabsichtigten Angriffen von IT- Systemen definiert.

Allgemeine Schutzziele:

-Vertraulichkeit (englisch: confidentiality): Daten dürfen lediglich von au- torisierten Benutzern gelesen bzw. modifiziert werden, dies gilt sowohl beim Zugriff auf gespeicherte Daten, wie auch während der Datenüber- tragung.

-Integrität (englisch: integrity): Daten dürfen nicht unbemerkt verändert werden. Alle Änderungen müssen nachvollziehbar sein. -Verfügbarkeit (englisch: availability): Verhinderung von Systemausfal- len; der Zugriff auf Daten muss innerhalb eines vereinbarten Zeitrah- mens gewährleistet sein.

Weitere Schutzziele der Informationssicherheit:

-Authentizität (englisch: authenticity) bezeichnet die Eigenschaften der Echtheit, Überprüfbarkeit und Vertrauenswürdigkeit eines Objekts.

-Verbindlichkeit/Nichtabstreitbarkeit (englisch: non repudiation): Sie er- fordert, dass „kein unzulässiges Abstreiten durchgeführter Handlungen“ möglich ist. [4] Sie ist unter anderem wichtig beim elektronischen Ab- Schluss von Verträgen. Erreichbar ist sie beispielsweise durch elektronische Signaturen.

-Zurechenbarkeit (englisch: accountability):„Eine durchgeführte Hand- lung kann ei- ne Kommunikationspartner eindeutig zugeordnet werden.

-in bestimmtem Kontext (zum Beispiel im Internet) auch Anonymität

Jedes noch so gut geplante und umgesetzte IT-System kann Schwachstellen besitzen. Sind bestimmte Angriffe zum Umgehen der vorhandenen Sicherheitsvorkehrungen möglich, ist das System verwundbar. Nutzt ein Angreifer eine Schwachstelle oder eine Verwundbarkeit zum Eindringen in ein IT-System, sind die Vertraulichkeit, Dateninte grität und Verfügbarkeit bedroht (englisch: threat).

Angriffe auf die Schutzziele bedeuten für Unternehmen Angriffe auf reale Unterneh- menswerte, im Regelfall das Abgreifen oder Verändern von unternehmensinternen In formationen. Jede mögliche Bedrohung ist ein Risiko (englisch: risk) für das Unter nehmen. Unternehmungen versuchen durch die Verwendung eines Risiko managements (englisch: risk management) die Wahrscheinlichkeit des Eintretens eines Schadens und die daraus resultierende Schadenshöhe zu bestimmen. Nach einer Risikoanalyse und Bewertung der unternehmensspezifischen IT- Systeme, können entsprechende Schutzziele definiert werden. Anschließend folgt die Auswahl von IT-Sicherheitsmaßnahmen für die jeweiligen Geschäftsprozesse eines Unternehmens. Dieser Vorgang zählt zu den Tätigkeiten des IT- Sicherheitsmanagements. Eine genormte Vorgehensweise wird durch das Verwenden von IT-Standards ermöglicht.

Im Rahmen des IT-Sicherheitsmanagements findet die Auswahl und Umsetzung entsprechender IT-Sicherheitsstandards statt. Zu diesem Zweck existieren im Bereich IT- Sicherheitsmanagement verschiedene Standards. Mit Hilfe des ISO/IEC 27001- oder des IT-Grundschutz-Standards wird mit anerkannten Regeln versucht, die Komplexität soziotechnischer Systeme für den Bereich des IT- Sicherheitsmanagements zu reduzieren und ein geeignetes Maß an Informationssicherheit zu finden.

Bedeutung der Informationssicherheit

In den frühen Kindertagen des (Personal-)Computers verstand man unter Computersi cherheit die Sicherstellung der korrekten Funktionalität von Hardware (Ausfall von zum Beispiel Bandlaufwerken oder anderen mechanischen Bauteilen) und Software (richtige Installation und Wartung von Programmen). Mit der Zeit änderten sich die Anforderungen an die Computer (Internet, Speichermedien); die Aufgaben zur Computersicherheit mussten anders gestaltet werden. Somit bleibt der Begriff der Computersicherheit wandelbar.

18. Inter- und supranationales Datenschutzrecht

Vereinte Nationen

Bereits die Allgemeine Erklärung der Menschenrechte, verkündet am 10. Dezember 1948 von der Generalversammlung der Vereinten Nationen, maß der Privatsphäre der Menschen Bedeutung zu. In Art. 12 der Menschenrechtserklärung heißt es:

„Niemand darf willkürlichen Eingriffen in sein Privatleben, seine Familie, seine Wohnung und seinen Schriftverkehr [...] ausgesetzt werden. Jeder hat Anspruch auf rechtli- chen Schutz gegen solche Eingriffe oder Beeinträchtigungen.“ Obgleich die Erklärung rechtlich nicht verbindlich war und ist und die in ihr statuierten Rechte ausschließlich deklaratorischer Art sind, kann sie doch zu den Vorläufern oder gar Grundpfeilern des supranationalen Datenschutzrechts gezählt werden. Im September 2005 forderte die 27. Internationale Konferenz der Beauftragten iur den Datenschutz und den Schutz der Privatsphäre die Vereinten Nationen auf, die Rechte auf Privatsphäre („privacy“) und auf Datenschutz als Menschenrechte inhaltlich weiter auszugestalten. Europarat

Nicht zuletzt im Hinblick auf die kurz zuvor verkündete UN-Menschenrechtserklärung enthielt auch die 1950 Unterzeichnete und 1953 in Kraft getretene Europäische Menschenrechtskonvention des Europarats eine Regelung zum Datenschutz - auch wenn der Begriff damals noch nicht gebräuchlich war. Gemäß Art. 8 Abs. 1 der Europäischen Menschenrechtskonvention hat Jedermann [...] Anspruch auf Achtung seines Privat- und Familienlebens, seiner Wohnung und seines Briefverkehrs“.

Dieser - eher deklaratorisch und programmatisch zu verstehende - Satz ist noch heute gültig; in Deutschland steht er im Rang einem Bundesgesetz gleich. Nachdem die elektronische Datenverarbeitung und damit der Datenschutz in den 1970er Jahren immer mehr an Bedeutung gewannen, bereitete der Europarat eine eigene Konvention zum Datenschutz vor, die 1981 als Übereinkommen zum Schutz des Menschen bei der automatischen Verarbeitung personenbezogener Daten vereinbart wurde. Die Europäische Datenschutzkonvention, wie das Übereinkommen umgangssprachlich ge- nannt wurde, trat 1985 in Kraft. Durch die Konvention verpflichten sich die ihr beige tretenen Staaten, bei der automatisierten Datenverarbeitung bestimmte elementare Da tenschutzprinzipien zu beachten und diese im eigenen Hoheitsgebiet auch gegenüber Dritten durchzusetzen. OECD Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) formulierte 1980 Leitlinien für den Schutz des Persönlichkeitsbereichs und den grenzüberschreitenden Verkehr personenbezogener Daten. Die Leitlinien sollen insbesondere den grenzüberschreitenden Datenaustausch erleichtern. Sie stellen jedoch nur unverbindli- che Empfehlungen dar und können mittlerweile als inhaltlich überholt gelten. Praktische Bedeutung haben die OECD-Empfehlungen nicht.

Europäische Union

Das Datenschutzrecht der Europäischen Union stand bis zum Jahr 2000 vornehmlich unter dem Gedanken der Schaffung und Stärkung des gemeinsamen Europäischen Binnenmarktes. Unterschiedliche nationale Datenschutzgesetze werden dabei als mögliche Handelshemmnisse angesehen. Erst mit der Verabschiedung der Charta der Grundrechte der Europäischen Union wurde der Datenschutz als Grundrecht anerkannt.

Grundrechtecharta

Im Jahr 2000 proklamierten die Staats- und Regierungschefs der EU-Mitgliedstaaten die Charta der Grundrechte der Europäischen Union. Art. 7 der Charta gewährleistet jeder Person„das Recht auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung sowie ihrer Kommunikation“. Art. 8 der Charta statuiert darüber hinaus ein Recht auf Schutz von personenbezogenen Daten. Der Datenschutz wurde damit auf Ebene der Europäischen Union ausdrücklich als Grundrecht anerkannt. Durch den Vertrag von Lissabon wurde die Grundrechtecharta für die EU und ihre Mitgliedstaaten verbindliches Recht. Art. 16 Abs. 1 des Vertrags über die Arbeitsweise der Europäischen Union legt fest, dass jede Person das Recht auf Schutz der sie betreffenden personenbezogenen Daten hat.

Private und öffentliche Unternehmen sind heute in allen Bereichen ihrer Geschäftstätig- keit, Privatpersonen in den meisten Belangen des täglichen Lebens auf IT-Systeme angewiesen. Da neben der Abhängigkeit auch die Risiken für IT- Systeme in Unterneh- mungen in der Regel größer sind als für Computer und Netzwerke in privaten Haushalten, ist Informationssicherheit überwiegend Aufgabe von Unternehmen.

Entsprechende Verpflichtungen lassen sich im gesamten deutschsprachigen Raum aus den verschiedenen Gesetzen zum Gesellschaftsrecht, Haftungsrecht, Datenschutz, Bankenrecht usw. herleiten. Dort stellt Informationssicherheit einen Baustein des Risikomanagements dar. International spielen Vorschriften wie Basel II und der Sarbanes- Oxley Act eine wichtige Rolle. Kritik am Datenschutzrecht

Das geltende Datenschutzrecht kann seinen Zweck heute nur noch unvollkommen erfüllen. Es beruht in seinen grundsätzlichen Strukturen auf dem Datenschutzkonzept der 1970er Jahre, das sich wiederum an der elektronischen Datenverarbeitung der damaligen Zeit orientiert. Diese war durch die zentrale Datenspeicherung auf Großrechnern, beschränkte Speicherkapazitäten und einen relativ kleinen Kreis von

- meist staatlichen - Datenverarbeitern gekennzeichnet.

Die technische Entwicklung der letzten 30 Jahre hat das staatliche Datenschutzrecht nur zum Teil und mit erheblicher Verzögerung berücksichtigt. Technische Neuerungen, die den Datenschutz beeinträchtigen können - beispielsweise Internet, Videoüberwachung, Biometrie, RFID - sind gesetzlich nicht oder nur unzureichend geregelt. Daran haben auch zahlreiche Gesetznovellierungen nichts ändern können.

Zudem gilt insbesondere das deutsche Datenschutzrecht als„überreguliert, zersplittert, unübersichtlich und widersprüchlich“ (Alexander Roßnagel). Heute können selbst Fachleute das Datenschutzrecht nicht mehr in ihrer Gesamtheit überblicken. Hinzu kommt ein„massives Vollzugsdefizit im Datenschutz“ (Johann Bizer): Verstöße gegen Datenschutzregelungen haben meist keine Konsequenzen, weil die betroffenen Personen von einer missbräuchlichen Datenverarbeitung in der Regel keine Kenntnis haben und die staatlichen Datenschutzbehörden nicht über die notwendigen personellen Ressourcen verfugen, um die Datenverar beiter effektiv zu kontrollieren. 19. Intemetkriminalität

Intemetkriminalität sind Straftaten, die auf dem Internet basieren oder mit den Techniken des Internets geschehen. Dies ist nicht zu verwechseln mit Computerkriminalität, bei der primär der Computer, auch ohne Internetnutzung, als Tatwaffe eingesetzt wird. Den Schutz vor Internetkriminalität nennt man auch Onlinesicherheit. Dieser Begriff ist zu unterscheiden von Internetsicherheit, zu dem auch der Schutz der Infrastruktur selber gehört, also auch der Schutz vor Straftaten gegen das Internet selbst, online oder materiell, aber auch vor sonstigen Gefahren, als Teil der IT-Sicherheit. Erscheinungsformen

Die Erscheinungsformen sind sehr vielfältig; Beispiele sind Internetbetrug, das Ausspähen von Daten, Verstöße gegen das Verbreitungsverbot oder den Jugendmedienschutz, Identitätsdiebstahl, Urheberrechtsverletzung, CyberTerrorismus, Cyber-Mobbing, Volksverhetzung sowie das Verbreiten von Kinderpornographie.

Der Übergang zu Methoden und Verfahren des Cyberwar („Netzkrieg“) ist mittlerweile fließend geworden; im Einzelfall ist durchaus nicht ohne weiteres auszumachen, ob ein Angriff im Netz einschlägig kriminellen Zielen dient oder militärisch bzw. politisch intendiert ist (etwa bei einer weitreichenden Sabotage des stark ITK-abhängigen Finanz- Systems oder der Webpräsenzen öffentlicher Einrichtungen im weitesten Sinn). Den Beobachtungen zufolge professionalisiert sich die„Malware-Branche“ zunehmend, die Angriffe auf Rechner und Rechnernetze werden immer ausgefeilter.

Laut Antivirensoftware-Entwickler stieg z. B. die Infektion von Rechnern mit Schad- Software, die zum Identitätsdiebstahl dient (etwa der Ausspähung von Bankkontendaten), vom ersten zum zweiten Halbjahr 2008 um 800 Prozent.

Im Bankenbereich nehmen neben Online- Attacken auf die Konten von Privatkunden vor allem die Angriffe direkt auf das Interbankengeschäft mit Hilfe gefälschter Versio- nen von Zahlungsaufträgen zu. Die dabei verwendete Schadsoftware dringt dabei in das Netz der angebundenen Institute ein und verursacht jährliche Schäden von zig Millio nen Dollar.

Zielobjekt des CEO Fraud sind Firmen, die laut einer FBI-Verlautbarung von 2015 um über 740 Mio. Dollar geprellt wurden.

Technischer Fortschritt

Beinahe schon seit der allgemeinen Etablierung des Internets seit den 1990er Jahren und der zunehmenden Elektronisierung weiter Felder des öffentlichen Lebens, vor allem auch auf wirtschaftlichem Gebiet, liefern sich Kriminelle und Sicherheitsexperten einen Hase- und Igel- Wettlauf auf den unterschiedlichsten Feldern, das bislang meist mit einem„positiven Patt“ für die Sicherheit ausging. In jüngster Zeit (2010er Jahre) werden die Methoden der Cyberverbrecher zusehends raffinierter und elaborierter (was z. B. auch für viele Virenprogrammierer gilt, deren Produkte unterdessen ein erstaunliches, im Einzelfall beängstigendes technisches Niveau erreicht haben.

Nach Aussage des US-Telekommunikationsdienstleisters Verizon Business sei es Kriminellen in den Vereinigten Staaten gelungen, die Verschlüsselung beim Übertragen von PIN-Codes zu knacken. Dabei konnten die Hacker sowohl an verschlüsselte als auch an unverschlüsselte PINs gelangen. Fachleute gehen Medienberichten zufolge da- von aus, dass das Problem nur gelöst werden kann, wenn die Finanzindustrie den elektronischen Zahlungsverkehr insgesamt überholt.

Situation in Deutschland

Für seinen von HP Enterprise Security gesponserten Bericht 2014 zu den Kosten von Intemetkriminalität befragte das Ponemon Institute ein repräsentatives branchenüber- greifendes Sample von 46 Betrieben in Deutschland. Die Umfrage ergab eine durch schnittliche Schadenhöhe von 6,1 Mio.€, mit einer Spannbreite von 425 Tsd.€ bis 20,2 Mio.€ pro Jahr. Phishing, Social Engineering und Web-Attacken machten mehr als 35 % der Kosten aus.

Das Bundeskriminalamt (BKA) hat im Jahr 2012 in Deutschland 229.408 Straftaten festgestellt, auf die das Merkmal„Tatmittel Internet“ zutraf. „Phishing“ bildet laut BKA trotz eines Rückgangs der Fallzahlen um 46 % weiterhin „im Hinblick auf das vorhandene Schadenspotenzial und die Lukrativität für die Täterseite weiterhin einen Schwerpunkt im Bereich Cybercrime.“ Knapp 3.500 Fälle will das BKA 2012 ermittelt haben, bei einer durchschnittlichen Schadenshöhe von ca. 4.000 Euro pro Fall. Für den Rückgang wird Sensibilisierung der Anwender, verstärkte Schutzmaßnahmen und effektives IT-Management verantwortlich gemacht.

Aktuell sind Smartphones weiterhin ein interessantes Ziel für Kriminelle. Nutzer setzen diese immer vielfältiger wie z. B. für Onlinebanking, zur Autorisierung von Transaktio- nen, zum unmittelbaren Zugriff auf E-Mail-Konten und Konten sozialer Netzwerke oder gar zur Nutzung geschäftliche Daten ein und seien sich der mobiler Betriebssysteme unzureichend bewusst.

Die Zahl der Straftaten, die mit dem Tatmittel Internet begangen wurden, ist im Jahr 2016 leicht gestiegen. Im Vergleich zum Vorjahr (244.528 Fälle) wurden 2016 insgesamt 253.290 Fälle erfasst. Dazu gehören Delikte wie Waren- und Warenkredit betrug, Computerbetrug, Leistungs- und Leistungskreditbetrug, die Verbreitung pornografischer Schriften und Straftaten gegen die Urheberrechtsbestimmungen. Wie die Infogra- fik der Polizei zeigt, entfielen allein 27,8 Prozent der Fälle auf den Warenbetrug; beach- tenswert ist auch der Anteil von 20,7 Prozent beim Warenkreditbetrug. Waren- und Wa renkreditbetrug machen somit fast die Hälfte aller Fälle aus. Von den 101.654 Tatverdächtigen waren 68,7 Prozent männlich und 31 ,4 Prozent weiblich. Die Aufklärungsquote lag bei 65 Prozent. [13] Die Polizeiliche Kriminalstatistik wies 2007 allerdings auch einen erheblichen Anstieg bei Urheberrechtsverletzungen aus: um 54,6 Prozent auf 32.374 Fälle. Dafür wurde vor allem das verschärfte Vorgehen der Musikindustrie gegen illegales Herunterladen von urheberrechtlich geschützten Daten verantwortlich gemacht.

Es gibt auf Online-Plattformen eine Zunahme von betrügerischen Fakeshops, bei denen bezahlte Ware nicht oder nicht in der bestellten Qualität geliefert wird. Die Kriminalsta- tistik der Polizei für das Jahr 2015 weist für Deutschland fast 75.000 Fälle von Warenbetrug im Internet aus. Das deutsche Bundeskriminalamt nennt dies ein

„Massenphänomen, das die Strafverfolgungsbehörden vor große Herausforderungen stellt“.

Nach einer BITKOM-Studie sind bis Mitte 2008 fast vier Millionen Deutsche schon einmal Opfer von Computer- oder Internetkriminalität geworden. Sieben Prozent aller Computemutzer ab 14 Jahren haben demnach bereits einen finanziellen Schaden etwa durch Viren, bei Online-Auktionen oder durch Datenmissbrauch beim Onlinebanking erlitten. Beklagt wurde gleichwohl das geringe Sicherheitsbewusstsein der Nutzer.[16] In seinem auf der CeBIT vorgestellten Bericht Die Lage der IT- Sicherheit in Deutsch land 2009 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) seine Be sorgnis über die wachsende Internetkriminalität ausgedrückt; die Situation wurde als „überaus ernst“ und„schlimmer als befürchtet“ eingeschätzt.

Der unbesorgte Umgang mit Daten in den„Mitmach“-Anwendungen des Webs, vor allem in den immer beliebter werdenden sozialen Netzwerken, schreckt Sicherheitsexperten demnach besonders auf.„Bedenkenlos geben Anwender in ihren Benutzerprofilen detailliert private Informationen preis. Dabei vergessen sie oft, dass Informationen im Netz praktisch jedermann zugänglich sind und es auch bleiben“, heißt es in der BSI- Studie.

Botnets, mittels derer Cyber-Kriminelle oftmals hunderttausende gekaperter Privat- und Bürorechner ohne Wissen der Benutzer vernetzen und missbrauchen, laut BSI „Teil einer professionell und international aufgestellten Schattenwirtschaft“, haben sich unterdessen zu einer herausragenden Bedrohung entwickelt. Seit 2007 kam es zu einer Reihe prominenter Aufdeckungen (vgl. GhostNet; Trojaner).

Bei einer jüngst veröffentlichten Forsa-Umfrage im Auftrag der Schufa aus dem Jahr 2018 gaben 39 Prozent der Befragten an, selbst schon einmal Opfer von Internetkrimi- nalität geworden zu sein, 12 Prozent wurden dabei konkret Opfer von Identitätsmissbrauch im Internet. Bekämpfung der Internetkriminalität

Wegen der erheblich gestiegenen Gefahren hat die Europäische Kommission Ende März 2009 deshalb einen Fünf-Punkte-Plan zum Schutz kritischer Informationsinffa- Strukturen in den Mitgliedsstaaten der Europäischen Union vorgestellt.

Neben einer forcierten Koordination zwischen den Mitgliedstaaten sieht er vor:

-Prävention und Abwehrbereitschaft

-Erkennung und Reaktion; Einrichtung eines Frühwarn- und Informationsnetzes -Folgenminderung und Wiederherstellung

-Internationale Zusammenarbeit

-Aufstellung von einheitlichen Kriterien für europäische kritische IKT-Infrastrukturen

Die Europäische Agentur für Netz- und Informationssicherheit (ENISA) soll laut EU- Kommission die Initiative vorantreiben. Die Kommission werde zudem zusammen mit den Mitgliedstaaten„einen Fahrplan zur Förderung von Grundsätzen und Leitlinien auf globaler Ebene ausarbeiten. Als Mittel zur globalen Konsensbildung wird die strategische Zusammenarbeit mit Drittstaaten gefordert, vor allem in den Dialogen zu Themen der Informationsgesellschaft.“

Übereinkommen über Computerkriminalität (Cybercrime-Konvention)

Bereits am 23. November 2001 Unterzeichneten die 26 Länder des Europarats neben den USA, Kanada, Japan und Südafrika das„Übereinkommen über Computerkriminalität“, auch „Budapester Konvention gegen Datennetzkriminalität“ oder kurz Cy- bercrime-Konvention genannt, um die länderspezifischen Computerstrafrechtsregelungen anzugleichen. Unter anderem sollen Intemetanwender oder Domain-Besitzer grenzüberschreitend identifiziert oder Web- Sites, deren Inhalte gegen die Konvention verstoßen, grenzüberschreitend aus dem Netz entfernt werden können. Rechte unverdächtiger Dritter sind nicht gesondert geschützt. Rassistische bzw. fremdenfeindliche Inhalte sind auf US- Wunsch mit Hinweis auf die Meinungsfreiheit nicht berücksichtigt. Das Übereinkommen repräsentiere zudem„einen Markstein im Vertragssystem des Eu- roparates zur Bekämpfung von Terrorismus und organisiertem Verbrechen“ (Hans Christian Krüger, damals stellvertretender Generalsekretär des Europarates).

Ein rund um die Uhr tätiges internationales Kontaktnetzwerk zur raschen Amtshilfe wurde eingerichtet.

Deutschland

Zur Bekämpfung der Internetkriminalität wurde in Deutschland beim Bundeskriminalamt das Technische Servicezentrum Informations- und Kommunikationstechnologien (TeSIT) aufgebaut, dessen vornehmliche Aufgabe es nach Angaben des Innenministeri- ums ist,„technische Unterstützung bei Exekutivmaßnahmen und Ermittlungen in Da tennetzen zu leisten“.

Dem TeSIT ist zudem die Anfang 1999 eingerichtete Zentralstelle für anlassunabhängige Recherchen in Datennetzen (ZaRD) zugeordnet. Das Bundeskriminalamt wertet ei- genen Angaben zufolge das Internet„rund um die Uhr systematisch und anlassunabhängig auf polizeilich relevante - insbesondere kinderpornographische - Inhalte aus und fuhrt gegebenenfalls die Beweiserhebung, -Sicherung und - dokumentation durch“. Es wird auf„eine beachtliche Zahl“ von Fahndungserfolgen verwiesen. Hervorgehoben wird auch,„dass die Polizei mit der rasanten technischen Entwicklung Schritt halten muss“. Bei der Verfolgung sei es jedoch ein großes Problem, dass Täter global agieren könnten, Behörden jedoch nur national und regional begrenzt.

Auch die Polizeien der einzelnen Bundesländer sind an der Bekämpfung der Internetkriminalität beteiligt. Beispielsweise besteht seit 2009 beim Landeskriminalamt Nieder sachsen eine„Zentralstelle Internetkriminalität“ mit 20 Mitarbeitern.

Der Bund Deutscher Kriminalbeamter (BDK) und die Stiftung Deutsches Forum für Kriminalprävention (DFK) haben unter Mitarbeit von Vertretern aus Forschung und Wirtschaft im Juni 2009 der Bundesregierung ein fertiges und sofort umsetzbares Konzept für mehr Sicherheit im Internet vorgelegt. Es handelt sich um das Online- Angebot Web Patrol unter dem Motto Der 8. Sinn im Netz. Grund dafür sind ungefilterter Internetzugänge mit Inhalten wie Pornographie, Pädophilie, Islamismus, Rechts- und Linksextremismus, Terrorismus, die für Kinder und Jugendliche frei verfügbar sind. Web Patrol beinhaltet ein Informationsportal das zielgruppenorientiert über Fragen der Sicherheit und des Verhaltens informieren soll und ein Programm, das in der Lage ist verdächtige Inhalte direkt zu melden. Internetnutzer sollen so durch einfaches Anklik- ken eines zusätzlichen Buttons im Browser mittels einer automatisch generierten Meldung Erkenntnisse über suspekte Inhalte, fragwürdige Umtriebe, Datenklau, Übergriffe in Chatrooms und strafrechtlich relevantes Material an eine unabhängige Clearingstelle, die sich aus einem interdisziplinären Team aus Kriminalisten, Psychologen und Soziologen zusammensetzt, übermitteln können.

Diese bewertet eingehende Meldungen gibt eine erste Rückmeldung und leitet den Vorgang an zuständige Institutionen weiter. [26] Da das Internet zunehmend als Medium für die Vorbereitung und die Ausführung abweichenden Verhaltens bis hin zur Durchführung krimineller Taten genutzt werde und nicht sensibilisierte Personen ein leichtes Op- fer für Internetkriminelle würden oder selbst durch die Möglichkeiten des Internets zu kriminellen Taten angeregt würden, fordert der BDK, das Modell noch vor der nächsten Legislaturperiode umzusetzen.

20. Computerkriminalität

Der Begriff Computerkriminalität oder Cyberkriminalität (engl. Cybercrime) umfasst

„alle Straftaten, die unter Ausnutzung der Informations- und Kommunikationstechnik (luK) oder gegen diese begangen werden“.

Definition

Es gibt keine allgemein gültige Definition des Begriffs Computerkriminalität. Gewöhnlich sind darunter alle Straftaten zusammengefasst, die unter Ausnutzung der Informations- und Kommunikationstechnik oder gegen diese begangen werden. Im polizeilichen Bereich wird darüber hinaus zwischen Computerkriminalität im engeren Sinn und Computerkriminalität im weiteren Sinn unterschieden.

Cyberkriminalität lässt sich dabei unterscheiden in: -Computerkriminalität im engeren Sinne, für diese Straftaten wird lediglich ein Computer mit oder ohne Internetnutzung als Tatwaffe eingesetzt

-Intemetkriminalität, diese Straftaten basieren auf dem Internet oder gesche- hen mit den Techniken des Internets

Die Unterscheidung ist, dass unter Internetkriminalität auch viele Straftaten und Verge hen fallen, die auch ohne Internet möglich wären (unter anderem Verbreitung verbotener Inhalte, Belästigung), während Computerkriminalität sich in diesem Sinne speziell auf den Kontext der elektronischen Daten bezieht.

Cybercrime im engeren Sinne bezieht sich gemäß dem Deutschen Bundeskriminalamt (BKA) auf„spezielle Phänomene und Ausprägungen dieser Kriminalitätsform, bei denen Elemente der elektronischen Datenverarbeitung (EDV) wesentlich für die Tatausführung sind“.

Der Begriff Computerkriminalität im weiteren Sinne wird in Deutschland umgangssprachlich auch für im Zusammenhang mit Computern stehende Handlungen verwandt, die zwar keine Straftaten, jedoch rechtswidrige Handlungen darstellen. Dabei hängt die Zuordnung zu den jeweiligen Bereichen insbesondere davon ab, ob am entsprechenden Tatort einschlägige Strafvorschriften existieren.

Formen

Zu Cybercrime im engeren Sinn zählt das Cybercrime Bundeslagebild 2011 des deut schen Bundeskriminalamts:

-Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen

-Computerbetrug, Betrug mit Zugangsberechtigungen zu Kommunikations- diensten -Computersabotage

-Datenveränderung

-Fälschung beweiserheblicher Daten

-Täuschung im Rechtsverkehr bei Datenverarbeitung (§ 270) Das österreichische Bundeskriminalamt fast ebenfalls darunter Straftaten, bei denen Angriffe auf Daten oder Computersysteme unter Ausnutzung der Informations- und Kommunikationstechnik begangen werden (beispielsweise Datenbeschädigung, Hakking, DDoS -Attacken).

Zur Computerkriminalität im weiteren Sinne zählen in Deutschland alle Straftaten, bei denen die EDV zur Planung, Vorbereitung oder Ausführung eingesetzt wird. Diese erstrecken sich mittlerweile auf nahezu alle Deliktsbereiche, in denen das Tatmittel Inter net eingesetzt wird. Beispielsweise:

-alle Ausprägungen digitaler Erpressung

-Urheber- und Markenrechtsverletzung

-unerlaubte Veranstaltung eines Glücksspiels

-der Vertrieb verbotener Substanzen

-der Austausch von kinderpornographischen Darstellungen oder Gewalt ver- herrli- ehender Propaganda oder

-die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen

-die onlinebasierte Anbahnung eines sexuellen Missbrauches von Kindern - dem sog.

Cyber-Grooming Diese Delikte werden in der Polizeilichen Kriminalstatistik (PKS) nicht unter dem Begriff Cybercrime registriert, sondern mit speziellen PKS-Schlüsselnummern.

In Österreich versteht man unter Straftaten der Computerkriminalität im weiteren Sinne, Delikte bei denen die Informations- und Kommunikationstechnik zur Planung, Vorbereitung und Ausführung für herkömmliche Kriminalstraftaten eingesetzt wird, wie bei- spielsweise Betrugsdelikte, Kinderpornografie und Cyber-Mobbing.

Fallzahlen in Deutschland

Gemäß BKA-Lagebild wurden 2012 insgesamt 63.959 Fälle von Cybercrime im engeren Sinn erfasst.

Die Fälle von Computerbetrug (24.817) sind gegenüber 201 1 um 7, 13 % gefallen, auch „Betrug mit Zugangsberechtigung zu Kommunikationsdiensten“ (2.952) haben 2012 um rund 38 % abgenommen. Bei den Delikten„Fälschung beweiserheblicher Daten, Täuschung im Rechtsverkehr bei Datenverarbeitung“ (8.539) ist eine Zunahme um rund 1 1 % zu verzeichnen. Während die„Straftaten durch Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen“ 16.794 Fälle ausmachten. Delikte„Datenver- änderung/ Computersabotage“ (10.857) sind gegenüber 201 1 um fast 140 % gestiegen. Mit einem Anteil von rund 39 % ist Computerbetrug die größte Straftatengruppe aller im Lagebild ausgewiesenen Fälle.

Computerkriminalität im weiteren Sinn bezieht über die unter Cyberkriminalität sub- sumierten Straffalle hinaus auch die Intemetkriminalität ein. Welche Bedeutung das Tatmittel Internet "gewonnen" hat, zeigt sich daran, dass Internetkriminalität mit 229.408 Fällen fast 10-mal so viele Fälle aufweist, wie Cybercrime im engeren Sinn. Allein Phishing in Zusammenhang mit Onlinebanking verursachte 2012 einen Gesamt schaden von 13,8 Mio.€.

Durch Cybercrime verloren bereits 2/3 der deutschen Unternehmen Firmengeheimnisse. Damit steht Deutschland auf Platz 2, hinter den USA und vor Frankreich.

Situation in der Schweiz

Mit der Ratifikation der Europaratskonvention über die Cyberkriminalität beteiligt sich die Schweiz an der verstärkten internationalen Bekämpfung der Computer- und Internetkriminalität. Die Konvention trat für die Schweiz am 1. Januar 2012 in Kraft. Zum gleichen Zeitpunkt hat der Bundesrat die erforderlichen Gesetzesanpassungen in Kraft gesetzt. Der Straftatbestand des unbefugten Eindringens in eine elektronische Datenverarbeitungsanlage (EDV) („Hacking“, Art. 143 bis 147 schweizerisches StGB) liegt nun im Bereich der Strafbarkeit. Auch werden neu bereits das Zugänglichmachen und das in Umlaufbringen bringen von Passwörtern, Programmen und anderen Daten unter Strafe gestellt, wenn der Betreffende weiß oder in guten Glauben davon ausgehen muss, dass diese für das illegale Eindringen in ein geschütztes Computersystem verwendet werden können (Siehe Hackerparagraph, bezogen auf Deutschland § 202c deutsches StGB). In der Schweiz ist es die schweizerische Koordinationsstelle zur Bekämpfung der Internetkriminalität (KOBIK) welche Statistik über verfolgte Computerverbrechen führt und diese in einem jährlichen Rechenschaftsbericht veröffentlicht. Für das Geschäftsjahr 2012 wurden im Mai 2013 die aktuelle Statistik veröffentlicht. Über das Onlineformular auf der Webseite wurden 8242 Meldungen abgegeben, verglichen zum Vorjahr ist das ein Anstieg von 55 %. Zum ersten Mal seit Bestehen von KOBIK überholte die Anzahl der Meldungen über strafbare Handlungen gegen das Vermögen (3260 Meldungen) die der Meldungen über strafbaren Handlungen gegen die sexuelle Integrität (3083 Mel- düngen). In deutlich geringerem Umfang wurden strafbare Handlungen gegen Leib und Leben (99 Meldungen) und strafbare Handlungen gegen den öffentlichen Frieden (85 Meldungen) verübt. Dabei sei zu bemerken, dass die eingegangen Meldungen mit 80 % strafrechtlicher Relevanz von guter Qualität sind. Situation in Österreich

Im Jahr 2013 verzeichnete das österreichische Bundeskriminalamt 1 1.199 angezeigte Fälle von Cybercrime. Aufgeklärt wurden 17,8 %. 421 Fälle davon betreffen Datenverarbeitungsmissbrauch mit Bereicherungsabsicht inklusive gewerbsmäßigem betrügerischem Datenmissbrauch, bei dem Daten eingegeben, verändert, gelöscht, unterdrückt oder auf andere Art der Datenverarbeitungsablauf gestört wird (§ 148a StGB). Unter diesen Paragraphen fallen auch Phishing und Malware-Angriffe. Die Funktionsfähigkeit eines Computersystems gemäß § 126b StGB wurde 2013 in Österreich in 470 Fällen gestört und zur Anzeige gebracht. Unter diesen Paragraphen fallen auch DDoS-Attacken. Der widerrechtliche Zugriff auf Computersysteme ist in Österreich in § 1 18a StGB geregelt. 2013 wurden 391 Fälle angezeigt. 45,6 Prozent der Tatverdächtigen sind zwischen 26 und 40 Jahre alt, 26,9 % der Tatverdacht igen sind über 40. Die Täter stammten zu 58,3 Prozent aus dem österreichischen Inland. 468 Tatverdacht ige wurden in Deutschland geortet, 373 in Serbien, 176 in Nigeria. Man versucht, die Arbeit zur Bekämpfung von Computerkriminalität in Österreich zu professionalisieren, um der zunehmenden Professionalisierung der Täter gegenübertreten zu können. Deshalb wurde im österreichischen Bundeskriminalamt ein Cybercrime- Competence-Center (C4) eingerichtet. Die Ermittler und IT- Forensiker werden auf in- ternationale Schulungen geschickt, wie etwa der International Association for Computer Informations Systems (IACIS) und der European Cybercrime Training and Education Group (ECTEG). Im Sommer 2013 wurde aufgrund eines Hinweises vom FBI im Rahmen der Europol-Operation "BlackShades" 19 tatverdächtige Hacker festgenommen. Schäden

Gemäß Lagebild werden in der deutschen Kriminalstatistik (PKS) nur die Schadens summen bei den Straftaten "Computerbetrug" und "Betrug mit Zugangsberechtigungen zu Kommunikationsdiensten" erfasst. Diese Schäden sind 201 1 um rund 16 % auf rund 71,2 Mio. Euro gestiegen (2010: 61,5 Mio. Euro). Davon entfallen 201 1 rund 50 Mio. Euro auf den Bereich Computerbetrug und rund 21 ,2 Mio. Euro auf den Betrug mit Zugangsdaten zu Kommunikationsdiensten. Für Phishing im Bereich Onlinebanking hat das BKA eine durchschnittliche Schadenssummen errechnet: für 201 1 rund 4.000 Euro pro Fall und insgesamt 25,7 Mio Euro. Vergleicht man die errechnete (ungefähre) Schadenssumme mit der von 15,7 Mio Euro für 2007, so ergibt sich ein Anstieg von 35 %. Angesichts des "vorhandenen Schadenspotenzials und der Lukrativität für die Täterseite" bildetPhishing "weiterhin einen Schwerpunkt im Bereich Cybercrime" (gemeint ist: Computerkriminalität im weiteren Sinn - der Verf.).

Die Schaffung einer europaweiten„European cybercrime Plattform“ gehört zu den Handlungsfeldern der„Digitalen Agenda“. Gemäß Symantec ist Deutschland (2012) "mit einem Schaden durch bösartige Software von 24 Milliarden Euro die Nr. 1 in Europa"; weltweit entstand ein "Schaden von 284 Milliarden Euro", so die Sicherheits-Managerin Orla Cox von Symantec, Dublin. Gegenmaßnahmen

In verschiedenen Ländern wurden inzwischen spezielle Polizeieinheiten mit der Bekämpfung von Computerkriminalität beauftragt. Europol hat seit 2013 eine eigene Abteilung zur Koordination der Zusammenarbeit eingerichtet, das Europäische Zentrum zur Bekämpfung der Cyberkriminalität (EC3). In Deutschland wurden seit 2014 bei den Landeskriminalämtern und beim Bundeskriminalamt sogenannte Zentrale Ansprechstellen Cybercrime (ZAC) eingerichtet.

21. Darknet

Darknet (englisch für„Dunkles Netz“) beschreibt in der Informatik ein Peer-to-Peer- Overlay-Netzwerk, dessen Teilnehmer ihre Verbindungen untereinander manuell her- stellen. Dieses Konzept steht im Gegensatz zu konventionellen Peer-to-Peer- Netzwerken, bei denen zumeist die Verbindungen zu den Clients fremder Personen automatisch und willkürlich initiiert werden. Im Ergebnis bietet ein Darknet ein höheres Maß an Si- cherheit, da einem Angreifer der Zugriff auf das Netzwerk nicht ohne weiteres möglich ist— oder er im Idealfall gar nichts von der Existenz des Netzwerks weiß. Um neue Personen in ein Darknet zu integrieren, müssen diese gewöhnlich von Teilnehmern eingeladen oder akzeptiert werden. Stellenweise ist dies auch nur Teilnehmern möglich, die über Privilegien verfügen.

Überblick

Die Daten werden häufig verschlüsselt übertragen und gespeichert. Ihre Anwendung reicht von normalem Datenaustausch zwischen Privatpersonen über kleine Tauschbör- sen-Netzwerke für Musik und Filme bis hin zur Vernetzung von Regimekritikern. Um dem Vorwurf der Nutzung beispielsweise zur Urheberrechtsverletzung durch Musik- tausch zu begegnen, wird von Darknet- Betreibern betont, dass die Meinungsfreiheit, besonders in Zensurländern wie China, durch solche Netzwerke gestärkt werden kann.

Arbeitsweise

Der Einstieg ins Darknet mit dem Tor Browser

Falls das Netz dem Filesharing dient, bezeichnet Darknet eine Art von Friend-to- ffiend-Netzwerk (F2F). Die meisten Filesharingprogramme sind keine Darknets, da die Knoten (Peers) mit jedem anderen Knoten (öffentliche, ungeprüfte peers) im Netzwerk kommunizieren können.

Ein Freund-zu-Freund-Netzwerk unterscheidet sich von einem Darknet insofern, als ein Freund-zu-Freund-Netzwerk die Weiterleitung von Dateien auch an die Freunde der Freunde unterstützt, die IP-Adressen der Freunde jedoch den Freunden nicht ersichtlich sind. Ein F2F-Netzwerk muss daher dezentral organisiert sein (man kennt die IP- Adressen der Freunde, aber deren Freunde nicht), ein Darknet kann auch zentral organisiert sein (das heißt, auch ein Hub mit allen Freunden könnte ein Darknet sein; hier kennen jedoch alle die IP-Adressen von allen).

Die vielleicht bekannteste Darknet-Software ist WASTE von Nullsoft. Ein echtes F2F- Netzwerk kann über den Instant Messenger Turtle F2F errichtet werden, der auch File sharing über den Client giFT erlaubt. Dabei kennt man als Teilnehmer - anders als WASTE im Broadcasting-Modus - die Freunde der Freunde nicht. In Turtle wird somit ein Schildkröten-Netzwerk gegründet, in dem sich nur Verbindungen etablieren lassen, die von geprüften Freunden kommen. Turtle scheint jedoch nicht weiter entwickelt zu werden, ähnliche Ansätze werden aber auch von RetroShare, HybridShare, OnShare, ExoSee, GigaTribe oder Gazzera verfolgt.

Freenet, ein Netz zum anonymen und zensurfreien Informationsaustausch, arbeitet ab Version 0.7 darauf hin, ein globales Darknet zu bilden, das Millionen Teilnehmer haben kann. Solch ein untypisches Darknet soll durch eine Anwendung des Kleine- Welt- Phänomens möglich sein. Begriffsgeschichte

Bereits in den 1970er Jahren wurde mit dem Begriff Darknet vom ARPANET isolierte Netzwerke bezeichnet[3] und durch den Artikel The Darknet and the Future of Content Distribution aus dem Jahre 2002 weiter popularisiert. Vier Microsoft-Angestellte argumentieren darin, das Vorhandensein von Darknets sei das wesentliche Hindernis in der Entwicklung funktionierender Techniken zur digitalen Rechteverwaltung.

Rezeption

Aufgrund der Eigenschaften des Darknets werden erhebliche Möglichkeiten für kriminelle Aktionen, wie etwa illegalem Drogen- oder Waffenhandel gesehen. Dahingehende kriminalistische Ermittlungen werden in jüngerer Zeit verstärkt durchgefiihrt. Eine Anfang Februar 2016 veröffentlichte Studie des britischen Thinktanks International Institute for Strategie Studies stufte 57 Prozent von 5205 untersuchten aktiven Seiten im Darknet inhaltlich als„illegal“ ein.

Jedoch würde über ein Drittel der Angebote legal genutzt, darunter auch Hidden Services wie jene von Facebook oder Mailbox.org. Constanze Kurz, Sprecherin des Chaos Computer Clubs (CCC), kritisierte auf netzpolitik.org eine einseitige Sicht der Mas- senmedien auf das Darknet; so würden„verschlüsselte Netzwerke genauso von Journalisten, von Menschenrechtsorganisationen, von Whistleblowern oder von Menschen, die sich aus anderen Gründen schützen müssen, verwendet.“ Der Sprecher des CCC Linus Neumann sagte:„Das Darknet ist das Internet, wie man es sich eigentlich wünschen würde.

Ein Netz ohne Zensur und Überwachung, mit all seinen Vor- und Nachteilen“. Die in Deutschland geführte Debatte um Darknet-Kriminalität zeige auch, dass man in einer relativ freien Gesellschaft lebe.„In einem Land wie China landest du schneller im Darknet, weil du deine Kommunikation stärker schützen musst.“ Der Geschäftsführer der Menschenrechtsorganisation Reporter ohne Grenzen (ROG), Christian Mihr, verweist auf die Kommunikation per Darknet in Ländern wie Syrien oder Iran. Jedoch würde gerade das Darknet auch für Deutschland relevant sein, da„auch hier [...] das Internet immer mehr überwacht“ werde. Mit zunehmender Überwachung steige„die Zahl derer, die die Anonymität von Darknets schätzen lernen.“ Man habe ein Recht auf „anonyme Kommunikation“, und eine Gleichsetzung von Kriminalität und Darknet sei „brandgefährlich“.

Besondere Bedeutung hat das Darknet auch für Whistleblower, diesbezüglich haben auch schon bedeutende Zeitungen wie die New York Times Seiten im Darknet eingerichtet, um dort anonymisiert vertrauliche Information erhalten zu können.

Der Telegram Messenger gehört aufgrund seiner Merkmale mit Verschlüsselungund nach dem Verbot von Territorien verschiedener Länder zum Darknet. Aufgrund der Anonymität enthält es verschlüsselte Kanäle für den Verkauf verbotener Substanzen, die Rekrutierung verschiedener Organisationen und die Koordination regierungsfeindli- eher Maßnahmen.

22. Peer-to-Peer

Peer-to-Peer-Modell

Peer-to-Peer (P2P) (von englisch peer„Gleichgestellter“,„Ebenbürtiger“) und Rechner- Rechner- Verbindung sind synonyme Bezeichnungen für eine Kommunikation unter Gleichen, hier bezogen auf ein Rechnernetz. In einigen Kontexten spricht man auch von Querkommunikation. In einem reinen Peer-to-Peer-Netz sind alle Computer gleichberechtigt und können so wohl Dienste in Anspruch nehmen, als auch zur Verfügung stellen. In modernen P2P- Netzwerken werden die Netzwerkteilnehmer jedoch häufig abhängig von ihrer Qualifikation in verschiedene Gruppen eingeteilt, die spezifische Aufgaben übernehmen. Kernkomponente aller modernen Peer-to-Peer-Architekturen, die meist bereits als Overlay-Netz auf dem Internet realisiert werden, ist daher ein zweites internes Overlay- Netz, welches normalerweise aus den besten Computern des Netzwerks besteht und die Organisation der anderen Computer sowie die Bereitstellung der Such-Funktion übernimmt.

Mit der Suchfunktion („lookup“) können Peers im Netzwerk diejenigen Peers identifi- zieren, die für eine bestimmte Objektkennung (Object-ID) zuständig sind. In diesem Fall ist die Verantwortlichkeit für jedes einzelne Objekt mindestens einem Peer fest zugeteilt, man spricht daher von strukturierten Overlays. Mittels der Such- Operation können die Peers nach Objekten im Netzwerk suchen, die gewisse Kriterien erfüllen (z. B. Datei- oder Buddynamen-Übereinstimmung). In diesem Fall gibt es für die Objekte im P2P-System keine Zuordnungsstruktur, man spricht also von unstrukturierten Over lays.

Sobald die Peers, die die gesuchten Objekte halten, in dem P2P-System identifiziert wurden, wird die Datei (in Dateitauschbörsen) direkt, d. h. von Peer zu Peer, übertra- gen. Es existieren unterschiedliche Verteilungsstrategien, welche Teile der Datei von welchem Peer heruntergeladen werden soll, z. B. BitTorrent.

Der Gegensatz zum Peer-to-Peer-Modell ist das Client-Server-Modell. Bei diesem bietet ein Server einen Dienst an und ein Client nutzt diesen Dienst. In Peer-to-Peer- Net- zen ist diese Rollenverteilung aufgehoben. Jeder Teilnehmer ist ein peer, denn er kann einen Dienst gleichermaßen nutzen und selbst anbieten.

Charakterisierung von Peer-to-Peer-Systemen

Typische, aber nicht notwendige Charakteristika von Peer-to-Peer-Systemen sind: -Peers weisen eine hohe Heterogenität bezüglich der Bandbreite, Rechenkraft, Online- Zeit, ... auf.

-Die Verfügbarkeit und Verbindungsqualität der Peers kann nicht vorausgesetzt werden

(„Churn“)·

-Peers bieten Dienste und Ressourcen an und nehmen Dienste anderer Peers in An- spruch (Client-Server-Funktionalität) -Dienste und Ressourcen können zwischen allen teilnehmenden Peers ausgetauscht werden.

-Peers bilden ein Overlay-Netzwerk und stellen damit zusätzliche Such-Funktionen zur Verfügung.

-Peers haben eine signifikante Autonomie (über die Ressourcenbereitstellung).

-Das P2P-System ist selbstorganisierend.

Alle übrigen Systeme bleiben konstant intakt und nicht skaliert.

(nach: Steinmetz, Wehrle 2006) Typen von Peer-to-Peer-Systemen

P2P-Systeme lassen sich in unstrukturierte und strukturierte P2P-Systeme unterteilen. Unstrukturierte P2P-Systeme unterteilen sich nochmals nach der Art ihres Aufbaus. Man untersche idet :

-Zentralisierte P2P-Systeme (Beispiel: Napster), welche einen zentralen Server zur Verwaltung benötigen, um zu funktionieren

-Reine P2P-Systeme ohne zentrale tnstanz (Beispiele: RetroShare, Gnutella 0.4, Free- net) Eine spezielle Art eines reinen, dezentralen Netzwerkes bildet das friend-to-friend- oder Web-of-Trust-Netzwerk, bei dem keinerlei Verbin- düngen zu unbekannten IP- Adressen unterhalten werden, sondern aus- schließlich Verbindungen zu Freunden (tru- sted ffiends) etabliert werden. -Hybride bzw. Hierarchische P2P-Systeme, welche dynamisch mehrere zent- rale Server („Superknoten“) zur Verwaltung bestimmen (Beispiele: Gnutella 0.6, Gnutella2 (G2), JXTA)

Zentralisierte und reine P2P-Systeme bezeichnet man als Systeme erster Generation, während dezentrale Systeme als Systeme zweiter Generation bezeichnet werden. Sy- steme, die Dateien über nicht-direkte Verbindungen weiterreichen, sind Systeme dritter Generation. Siehe dazu auch ausführlich den Begriff Filesharing.

Strukturierte P2P-Systeme verwenden oftmals eine Verteilte Hashtabelle (DHT). In strukturierten Systemen können daher Suchen aus einem verteilten Index heraus beantwortet werden.

Standardisierung und Zukunft

Die Zukunft der Peer-to -Peer-Technik wird vor allem davon abhängen, ob es gelingt, einen Standard zu definieren - eine Art Plattform-Technik, die es ermöglicht, weitere Anwendungen aufzusetzen.

JXTA ist ein solcher Standard, der stark von Sun Microsystems unterstützt wurde und Open Source ist. Sun stellte die zurzeit umfangreichste und stabilste Referenzimple- ment ierung her.

Gnutella ist ein weiterer offener Standard, der umfangreich getestet ist, jedoch bisher fast ausschließlich für Dateiverteilung und dezentrales Suchen von Dateien genutzt wird.

Außerdem ist es denkbar, dass die Netzwerkübertragungsleistung ähnlich der Rechenleistung bei den PCs steigen wird, sodass die Möglichkeit besteht, dass ein Peer noch den„übernächsten“ Peer kennen kann und dass die Sichtweite eines Peer über Datenbestände und andere Peers weiter anwachsen kann.

23. Overlay-Netz

Beispiel eines Overlay-Netzwerks

Ein Overlay-Netz ist ein Rechnernetz, das auf ein bestehendes Netz (Underlay genannt) aufsetzt. Hauptmerkmale eines Overlay-Netzes sind:

-(logisches) Netz oberhalb existierender Infrastruktur -oftmals eigener Adressraum mit eigener Adressierung (unabhängig vom Un- derlay) -ggf. Einsatz eigener Wegewahlverfahren

Das Overlay-Netz wird daher zum Aufbau einer zusätzlichen Topologie (physikalisch, logisch, strukturell,...) genutzt. Mit der neu entstandenen Struktur lassen sich beispielsweise aktuelle Technologien wie IPv6 testen oder alternative Routen für die Daten an- legen. Peer-to-Peer-Netze, wie zum Beispiel Gnutella und Chord, sind ebenfalls auf einer Overlay-Netzstruktur aufgebaut, über die beispielsweise effizientes Suchen und eine gewisse Netzkoordination erst möglich werden. Auch auf diese Overlays können weite- re Overlays aufsetzen, z. B. für das Monitoring des P2P Overlays wird SkyEye genutzt, das einen eigenen Adressraum einführt und eigene Protokolle mitbringt, die die Funktionalität der P2P Overlays voraussetzen.

Das Internet war in seinen Anfängen ein Overlay-Netz über dem bestehenden Telefon- netz. Teilweise ist dies auch heute so, da es noch immer Nutzer gibt, die sich per Modem mit dem Internet verbinden. Mittlerweile wird das Telefonnetz durch VoIP aber zunehmend zu einem Overlay-Netz, das auf dem Internet aufsetzt.

Einige Beispiele für Overlay-Netze sind:

-Content Addressable Network (CAN)

-Chord

-DiffServ (separiert physikalisches Netz in mehrere logische durch Einteilung der Netz- -Ressourcen in verschiedene Dienstklassen)

-Freenet

-Gnutella, Gnutella2

-GNUnet

-I2P

-Kademlia

-Lightning Netzwerk (Virtualisiert den Informationsaustausch über verschie- dene Blockchain-Netzwerke durch Atomic Swaps)

-RetroShare -MBone, 6Bone, ABone

-P-Grid

-Pastry/Tapestry

-PNRP

-RON

-Tor

-XBone

-SkyEye

24. Iriserkennung

Die Iriserkennung ist eine Methode der Biometrie zum Zweck der Authentifizierung oder Identifizierung von Personen. Dafür werden mit speziellen Kameras Bilder der Iris (Regenbogenhaut) des Auges aufgenommen, mit algorithmischen Verfahren die charak- teristischen Merkmale der jeweiligen Iris identifiziert, in einen Satz numerischer Werte (Merkmalsvektor, engl.„Template“) umgerechnet und für die Wiedererkennung durch einen Klassifizierungsalgorithmus wie z. B. ein Neuronales Netz gespeichert bzw. mit einem oder mehreren bereits gespeicherten Templates verglichen. Das derzeit am weitesten verbreitete Verfahren und Template (Stand April 2007) in der kommerziellen Anwendung ist der auf Algorithmen des Mathematikers John Daugman beruhende Iriscode.

Kommerzielle Erkennungsverfahren erfassen etwa 260 individuelle optische Merkmale der Iris. Diese Merkmale entwickeln sich aus einem zufallsgesteuerten, morphogeneti- sehen Prozess in den ersten Lebensmonaten einer Person und bleiben über die restliche Lebenszeit weitgehend unverändert. Auch eineiige Zwillinge haben keine identische Iris-Struktur. Die herausragende Eigenschaft der Iriserkennung in der praktischen Anwendung ist ihre im Vergleich zu anderen Biometrieverfahren äußerst geringe Zahl an falsch positiven Vergleichsergebnissen (engl „false matches“), d. h., die Wahrschein- iichkeit der Verwechslung eines Iriscodes mit dem eines Auges einer anderen Person ist nahezu Null. Dadurch eignet sich die Iriserkennung als zuverlässiges Identifikationsver- fahren auch in großen Datenbanken mit Millionen von Personendatensätzen, sowie für die Identifikation in Zutrittskontrollsituationen ohne primäres Erkennungsmerkmal, also ohne Ausweiskarten oder RFID-Tags. Der Irisscan ist eine wissenschaftlich anerkannte, sichere Methode zur Identifizierung eines Menschen.

Ein weiteres Charakteristikum ist der geringe Bedarf an Rechenressourcen für den Irisvergleich. Daher ist die Iriserkennung und -aufnahme besonders für den mobilen Einsatz in PDA-großen Geräten geeignet.

Falsch negative Ergebnisse (engl „false non-matches“), also Fälle des Nichterkennens einer eigentlich erfassten Person, können sich insbesondere bei ungünstigen Aufnahmebedingungen des Auges einstellen, wenn die Iris beispielsweise aufgrund von Brillenrändern, Reflexionen auf Brillengläsern oder den bei größtenteils Ostasiaten (bzw. Fernostasiaten) typischen engen Augenlidern nur unzureichend sichtbar ist.

Damit wäre eine Erfassung aller in der EU residierenden Personen, um ihnen für staatliche und rechtsgeschäftliche Zwecke eine eindeutige Personenkennziffer zuordnen zu können. Die Iriserkennung würde dabei die Feststellung und Vermeidung von mehrfa- chen oder falschen Identitäten ermöglichen.

Anwendungen bestehen bereits in der Zutrittskontrolle zu Hochsicherheitsbereichen und bei automatisierten Grenzkontrollen (z. B. Flughäfen Frankfurt, Schiphol, Heathrow). Bei der ersten Massenanwendung in der Einwanderungskontrolle der Vereinigten Arabischen Emirate ab 2002 gab es Versuche von illegalen Einreisenden, die Identifikation durch Irisscan zu vermeiden. Mithilfe medizinischer Augentropfen weitet sich die Pu pille und die Iris zieht sich zusammen, so dass vorübergehend die Wiedererkennung verhindert ist. Daraufhin wurde das System so verändert, dass eine erweiterte Iris auto- matisch als solche erkannt wird und der Irisscan an der Person nach einigen Stunden wiederholt wird. Gemeinsam mit der Gesichts- und Fingerabdruckerkennung zählt die Iriserkennung zu den von der ICAO vorgesehenen Biometrieformen fiir den Einsatz in elektronischen Pässen (ePass). Um die weltweite, herstellerunabhängige Interoperabilität der Daten zu gewährleisten, spezifiziert die Norm ISO/IEC 19794-6

„Austauschformat basierend auf Irisbildern“ die hierfür geltenden Erfordernisse an Irisbildaufnahme und -Speicherung.

Für forensische Zwecke ist die Iriserkennung nur eingeschränkt geeignet, da schon wenige Minuten nach dem Ableben einer Person ihre Irisstrukturen zerfallen.

In Mobiltelefonen wird die Iris-Erkennung zum Entsperren des Telefons anstatt eines PIN-Codes oder eines Fingerabdruckes verwendet. Diese Technik wurde erstmals im Fujitsu ARROWS NX F-04G eingesetzt. Auch die Mobiltelefone der Lumia 950 Reihe von Microsoft verwenden diese Technik der Authentifizierung.

Der Chaos Computer Club demonstrierte im Mai 2017, wie leicht die Iris-Erkennung beim Samsung Galaxy S8 überwunden werden kann. Zunächst muss man mit einer handelsüblichen Kompaktkamera ein Foto vom Gesicht des Galaxy-S8-Besitzers machen. Weil der Iris-Scanner im Infrarotbereich arbeitet, muss die Kamera in den Nachtmodus versetzt werden. Anschließend wird das Auge digital vergrößert und das Foto mit einem Laserdrucker ausgedruckt. Nun legt man noch eine Kontaktlinse auf den Ausdruck, fertig ist das Fake-Auge für wenige Euro. Durch die Kontaktlinse gewinnt das Auge Plastizität, dadurch lässt sich der Iris-Scanner austricksen. In der kommenden Flaggschiff-Generation rund um das Galaxy S9 wird die Technik zur Iris-Erkennung stark verbessert. Höhere Auflösung und bessere Software für eine schnellere Erkennung sind die Eckpunkte für Samsungs Entwickler.

Biometrische Methoden zum Entsperren haben sich in den vergangenen Jahren zu ei- nem Quasi-Standard in Smartphones entwickelt, allen voran der Fingerabdrucksensor. Samsung bietet seit diesem Jahr auch das Erkennen der Iris als alternative Methode in seinen Top-Modellen an. Genau da will der Konzern Verbesserungen umsetzen. Laut einem Bericht des Korea Herald will Samsung die Auflösung für den Iris-Scanner von 2 Megapixel auf 3 Megapixel erhöhen, um feinere Details im Auge und der Iris abbilden zu können.

Ein Grund für die gezielte Weiterentwicklung soll die laut Samsungs eigener Aussage führende Rolle im Bereich biometrischer Authentifizierung für Bankgeschäfte sein, heißt es weiter. Schnellere und sicherere Erkennung der Iris sind ein Ziel für das Galaxy S9 Samsung verspricht sich von der verbesserten Linse auch treffsichere Ergebnisse, selbst wenn der Benutzer eine Brille trägt, bei der es zwangsläufig zu Spiegelungen kommen kann. Selbst Bewegungen des Augapfels soll die optimierte Iris-Erkennung des Galaxy S9 (Plus) erheblich besser verkraften als die aktuelle Generation.

Neben der Auflösung des Bildes zum Erkennen der Iris wollen die Techniker aber vor allem die Schnelligkeit massiv erhöhen. Zudem ist die Iris-Erkennung im Dunkeln auf der Liste derjenigen Dinge, die optimiert sowie verbessert werden sollen.

Jedoch ist die Hardware nur ein Teil des großen Ganzen - auch die Software spielt eine entscheidende Rolle. In diesem Punkt will sich Samsung ebenfalls deutlich verbesser- num die Erkennung schneller, genauer und damit vor allem sicherer zu machen. Kon krete Details nannte der Bericht dazu nicht.

Funktionsweise eines Iris-Scanners: Zur Identifikation werden Iris-Scans besonders in der Medizin und Pharmazeutik eingesetzt. Spezielle Kameras nehmen die Iris auf und hinterlegen das Muster im System. Samsung nutzt beim Galaxy S7 Edge eine extra ein gebaute Kamera und Infrarot-Licht. Es soll sich besonders eignen, da es die Muster der Regenbogenhaut sehr deutlich erfassen kann. Sichtbares Licht oder RGB-Bilder sind anfälliger für Einflüsse durch das Umgebungslicht. Details können leichter verloren ge- hen. Die Iris-Informationen werden beim Samsung-Mobilgerät verschlüsselt auf der Knox-Plattform direkt auf dem Gerät abgelegt. Erkennung: Um sich erneut am Gerät anzumelden, liest die Kamera die Iris- Informationen in einem festgelegten Abstand zwischen Gerät und Auge ein und vergleicht sie mit den hinterlegten Daten. Der Vorgang soll sehr schnell gehen und auch bei schlechtem Licht funktionieren, da die Abstrahlung des Displays zur Datenerfassung genutzt wird.

Andere Zugangsmechanismen und Sicherheit: Microsoft bietet mit Hello bei Windows 10 eine Gesichtserkennung an, über die sich der Anwender am System anmelden kann. Das Verfahren setzt eine Tiefenkamera voraus, die zum Pixel auch die Entfernung zur Kamera erfasst. Zertifiziert sind die Realsense-Kamera von Intel und das herstellereigene System Kinect. Im Gegensatz zum integrierten Iris-Scanner müssen Sie hier extra Hardware erwerben.

25. Passwort

Ein Passwort, Kennwort, auch Passphrase, Schlüsselwort Codewort (auch Kodewort), Losung, Losungswort oder Parole (von italienisch la parola ,das Wort ) genannt, dient zur Authentifizierung. Hierzu wird eine Zeichenfolge vereinbart und benutzt, durch die sich jemand, meist eine Person, ausweist und dadurch die eigene Identität bestätigt.

Neben der Rolle Identifizieren von Personen werden Passwörter auch dazu verwendet, um bestimmte Berechtigungen nachzuweisen: Wer das Passwort (den richtigen Code) kennt, gilt als berechtigt. Beispiele: Parole beim Militär oder ein Zugangscode zum Öffnen von Türen.

Die Authentizität des sich so Ausweisenden bleibt nur höchstens so lange gewahrt, wie das Passwort geheim bleibt, das heißt, es Dritten nicht bekannt ist. Der Zusammenhang zwischen Passwort und dessen Nutzer muss gesondert hergestellt und überprüft werden (zum Beispiel durch die Bank auf dem besonders vor Manipulation geschützten Post- weg). Eine Persönliche Identifikationsnummer (PIN) ist ein Passwort, das in der Regel ausschließlich aus Ziffern besteht.

Häufiger Einsatz von Passwörtern findet in der Computer-/ Internetwelt in Verbindung mit einem Benutzernamen statt. Hier ist das Passwort eine vom Nutzer selbstgewählte oder eine automatisch generierte, meist alphanumerische Zeichenfolge.

Passwörter werden in zahlreichen Bereichen verwendet, zum Beispiel als Element der Kindersicherung, um Kindern den Zugriff auf Fernseher, Receiver oder ungeeignete Programminhalte zu verwehren. Nachteil : Password Chaos durch immer neue, geänderte und vergessene Passwörter.

Einmalkennwörter können nur einmal zur Authentifizierung benutzt werden und sind danach ungültig. So entsteht kein Schaden, wenn das Passwort während der Authentifi- zierung ausgespäht wird. Traditionell werden mehrere Einmalkennwörter auf Vorrat festgelegt und in Form einer Liste vermerkt, die sicher verwahrt werden muss. Solche Einmalkennwörter werden zum Beispiel als Transaktionsnummern (TAN) beim Online- Banking verwendet. Sie können aber auch erst kurz vor ihrer Benutzung unter Einbe ziehung der Uhrzeit und einer PIN erzeugt werden und nur zur Benutzung binnen weni- ger Minuten geeignet sein.

Das Passwort sollte lang genug sein, um nicht durch Ausprobieren (Brute-Force- Angriff) ermittelt werden zu können. Das System sollte außerdem einen ausreichend großen Zeichensatz verwenden, mit dem das Passwort gebildet wird

Anstatt Passwörter manuell eingeben zu lassen, können Schlüssel auch in einer Schlüsseldatei abgelegt werden. Bei Anwendungen wie beispielsweise SSH kann neben der Authentifizierung mit einem Passwort auch ein Public-Key- Verfahren eingesetzt werden. Der Vorteil ist dabei, dass die Gegenstelle den geheimen privaten Schlüssel nicht zu sehen bekommt. Auch hier wird der private Schlüssel in einer Datei gehalten und kann gegen unbefugtes Auslesen mit einem Passwort geschützt werden. Die Schlüsseldatei ist eine Alternative zur manuellen Eingabe eines Kennworts. Damit können deutlich längere und komplexere Schlüssel verwendet werden und es besteht nicht mehr die Gefahr, das Kennwort zu vergessen. Allerdings kann die Schlüsseldatei durch Datenverlust verlorengehen. Das Angriffsszenario bei einem Kennwort besteht aus Ausspähen (beispielsweise durch einen Keylogger) oder Erraten (beispielsweise durch einen Wörterbuchangriff); eine Schlüsseldatei ist dagegen vor unbefugtem Zu griff zu schützen, damit sie nicht kopiert wird. Häufig werden Schlüsseldateien deshalb zusätzlich mit einem Masterpasswort verschlüsselt.

26. Die Brute-Force-Methode

Die Brute-Force-Methode (von englisch brüte force ,rohe Gewalt 1 ) bzw. Methode der rohen Gewalt, auch Exhaustionsmethode (kurz Exhaustion von lateinisch exhaurire , ausschöpfen 4 ), ist eine Lösungsmethode für Probleme aus den Bereichen Informatik, Kryptologie und Spieltheorie, die auf dem Ausprobieren aller möglichen (oder zumindest vieler möglicher) Fälle beruht. Auch der Begriff erschöpfende Suche (engl ex- haustive search) ist in Gebrauch.

Für viele Probleme in der Informatik sind keine effizienten Algorithmen bekannt. Der natürlichste und einfachste Ansatz zu einer algorithmischen Lösung eines Problems besteht darin, alle potenziellen Lösungen durchzuprobieren, bis die richtige gefunden ist. Diese Methode nennt man„Brute-Force-Suche“ (englisch brute-force search).

Die Brute-Force-Suche ist einfach zu implementieren und dazu bestimmt, die korrekte Lösung zu finden. Allerdings steigt der Aufwand an Rechenoperationen proportional zur Anzahl der zu probierenden möglichen Lösungen, wobei die Anzahl dieser möglichen Lösungen mit zunehmendem Umfang der Probleme häufig exponentiell rasch wächst.

Ein wichtiger Anwendungsbereich findet sich in der Computersicherheit. Ein oft angeführtes Anwendungsbeispiel für die Brute-Force-Methode ist hier das Brechen oder umgangssprachlich„Knacken“ von Passwörtern. Aus dem oben genannten Zusammenhang zwischen Umfang des Problems und Anzahl der benötigten Rechenoperationen lässt sich für das Beispiel des„Passwortknackens“ der Schluss ziehen, dass mit steigender Passwortlänge oder steigender Anzahl an möglicherweise im Passwort vorhandenen Zeichen (Alphabet ohne Zahlen, mit Zahlen, mit Sonderzeichen) der Aufwand der Brute-Force-Methode schnell ansteigt. Die Methode ist in der Praxis häufig erfolgreich, da die meisten Benutzer kurze und einfache, damit unsichere Passwörter verwenden. Mit entsprechenden Werkzeugen können schon auf handelsüblichen Mittelklasse- Computern Millionen Passwörter je Sekunde ausprobiert werden.

In der Praxis werden Brute-Force-Angriffe auch dadurch erschwert, dass die Zahl der Versuche begrenzt ist und nach einigen erfolglosen Passworteingaben der Zugang gesperrt wird oder weitere Versuche erst nach einer Wartezeit möglich sind. Trotzdem wurde im September 2014 bekannt, dass z. B. Apple in seiner iCloud längere Zeit sol- che einfachen Maßnahmen nicht implementiert hatte und zumindest einfache Brute- Force- Attacken möglich wäre

27. SIM-Karte

Die SIM-Karte (vom englischen subscriber identity module für„Teilnehmer- Identitätsmodul“) ist eine Chipkarte, die in ein Mobiltelefon eingesteckt wird und zur Identifikation des Nutzers im Netz dient. Mit ihr stellen Mobilfünkanbieter Teilnehmern mobile Telefonanschlüsse und Datenanschlüsse zur Verfügung. Das SIM ist ein kleiner Prozessor mit Speicher (üblicherweise im ID-000-Format, das aus einer ID- 1 -Format-Karte herausgebrochen wird). Durch eine veränderbare PIN kann es vor unbefugter Benutzung geschützt werden. Mit Hilfe des SIM wird das Mobile Equipment (also üblicherweise das Mobiltelefon) einem Netz zugeordnet und authentifiziert. Für diese Zwecke ist auf dem SIM die IMSI gespeichert, welche bei Netzsuche und Einbuchung in ein Funknetz unverschlüsselt übertragen wird und ein Mithören von Mobilfunk-Telefonaten und die Eingrenzung des Standorts des Mobiltelefons innerhalb einer Funkzelle erlaubt (IMSI-Catcher). Andere auf dem SIM gespeicherte Zahlenfol gen und Algorithmen dienen der Verschlüsselung der Sprach- und Signalisierungsdaten (Ciphering). Das SIM dient außerdem zum Speichern von temporären, netzbezogenen Daten sowie bevorzugten und gesperrten Netzen.

Darüber hinaus können ein Telefon- und Notizbuch, Speicher für Short-Message- Ser vice-Mitteilungen (SMS) und Speicher der zuletzt gerufenen Telefonnummern integriert sein. SIM und Mobile Equipment bilden zusammen im GSM die Mobile Station. In Deutschland waren 2012 rund 1 15 Millionen SIM-Karten im Umlauf.

SIM-Kartenlesegerät

Die SIM-Karte wird häufig im großen ID- 1 -Format (85,6 mm x 54 mm) ausgeliefert. Der kleinere ID-000-Teil (25 mm x 15 mm) kann herausgebrochen werden. Aufgrund der immer kleineren Mobilgeräte wurde im Lauf der Zeit für D-Netz-Geräte das kleine ID-000-Format eingeführt. Inzwischen gibt es eine Vielzahl von Geräten, die stattdes- sen die noch kleinere Micro-SIM verwenden. In vielen modernen Smartphones wird bereits das kleinste Format, die Nano-SIM verwendet.

Ein SIM-Toolkit ermöglicht es, kleine Programme auf einer SIM-Karte zu hinterlegen, beispielsweise Info-Services, mit denen aktuelle Informationen über Politik, Sport, Wetter zugestellt werden können. Die Mobilfunk-Betreiber 0 2 , E-Plus, T-Mobile und Vodafone benutzen das, um ihren Homezone-Service anzubieten. Mit Hilfe des SIM- Toolkits wird dort angezeigt, ob sich das Mobiltelefon in der Homezone befindet.

Funktionen wie Aufladen oder Abfragen des Guthabens (bei vorbezahlten Prepaid- Kar- ten) sind möglich. Der Vorteil von Anwendungen auf der SIM-Karte besteht darin, dass diese unabhängig vom eingesetzten Gerät benutzt werden können (somit kann ohne ersichtliche Funktionalitätsänderung das Handy gewechselt werden).

Verschiedene Hersteller arbeiten derzeit an der Entwicklung einer SIM-Karte mit grö- ßerem Speicherplatz, ähnlich den bekannten Speicherkarten wie SD-Karten. Dieser Speicher, bislang bis zu 128 GB, kann frei für MP3-Audio oder andere Dokumente genutzt werden.

Als SIM Access Profile wird eine Technik bezeichnet, mit der z. B. im Auto die SIM- Daten eines mit Bluetooth ausgestatteten Mobilgeräts von einem fest installierten Gerät gelesen werden und dieses selbst die Funkverbindung aufbaut. So lässt sich die Datenübertragung durch die festinstallierte Außenantenne verbessern und der Stromverbrauch des Mobiltelefons reduzieren. In Dual-SIM-Handys oder mit Hilfe von Dual-SIM-Adaptem können zwei oder mehr SIM-Karten in einem Gerät untergebracht werden, die entweder simultan (gleichzeitig) oder alternativ (wechselweise) aktiv sind.

Auf einer SIM-Karte befinden sich acht Kontaktflächen. Verschiedene Karten variieren in der Anzahl und Aufteilung, spezifiziert wurden jedoch nur diese acht Kontakte mit folgender Belegung:

Vcc Versorgungsspannung CI C5 GND - Masse

Reset-Reset für SIM CPU C2 C6 Vpp -Programmierspannung

CLK- Takt C3 C7 I/O-Daten

Reserviert C4 C8 Reserviert

Über Vcc und GND wird der SIM-Karte die Betriebsspannung zugeführt. Es gibt SIM- Karten mit einer Betriebsspannung von 1 ,8 Volt, 3 Volt und bei der älteren Kartengene- ration 5 Volt (siehe Tabelle Typen). Die jeweilige Spannung wird in einigen Fällen auf der SIM-Karte aufgedruckt.

Wird eine SIM-Karte mit einer falschen Spannung in einem Mobiltelefon verwendet, kann es zu Fehlermeldungen, Abstürzen oder ungewöhnlich schneller Akku- Entladung kommen. Sollte eine SIM-Karte nicht mehr auf Anfragen des Mobilgerätes reagieren, kann sie über den Reset-Kontakt neu gestartet werden. Über CLK wird der Takt des Mobilgeräts zur Synchronisation des über den I/O-Kontakt stattfindenden Datentransfers übertragen. Die optionale Programmierspannung Vpp wird nur bei der Herstellung benötigt, um die interne Software der Karte zu initialisieren oder zu löschen. Die normalen Lese- und Schreibvorgänge auf den Anwenderbereich einer SIM-Karte (z. B. im Rahmen der Nut zung in einem Mobilgerät) kommen ohne diese Spannung aus.

Die beiden zusätzlichen Kontaktpins sind für derzeit noch rare achtpolige SIM-Karten reserviert, wie sie in zukünftigen mobilen Geräten Verwendung finden sollen - derzeit gibt es mehrere konkurrierende Entwürfe, wofür diese Kontakte verwendet werden sollen, u. a. sind SIM-Karten mit sehr hohen Speicherkapazitäten im Gespräch, die über eine Variante des USB-Protokolls angekoppelt werden könnten. Weitere Ideen betreffen spezielle Verschlüsselungsfunktionen oder Nahfeldkommunikation (NFC).

Aktuelle europäische Mobilfunktelefone verwenden jedoch nach wie vor nur sechspoli- ge SIM-Karten.

Die I/O-Einheit regelt den Zugriff auf die SIM-Karte. Sie ist die Schnittstelle der CPU zum Mobilgerät. Die CPU dient hauptsächlich der Speicherverwaltung, sie kann allerdings kleine Programme ausführen. Der Speicher besteht aus einem ROM, einem RAM und einem EEPROM. Im ROM ist das Betriebssystem der Karte abgelegt. Es werden dort Brandings der Mobilfunkuntemehmen gespeichert (Startlogos). Das RAM beinhaltet die gerade gebrauchten Daten, es ist flüchtig. Im EEPROM werden Benutzerdaten abgelegt.

Lebensdauer

SIM-Karten haben eine begrenzte Lebensdauer. Mit jedem Lösch-Schreibzyklus des nichtflüchtigen Kartenspeichers, beispielsweise bei einer Authentifizierung im Netz al- tert der verwendete Speicher. Ursprünglich garantierten die Hersteller der SIM- Chips 100.000 solcher Zyklen. Bei aktuellen Chips beträgt dieser Wert 500.000 bis eine Mil- lion. Um diesen Prozess zu entschärfen, bauen die SIM-Hersteller im Betriebssystem Schutzmechanismen ein.

Unabhängig davon werden einige ältere SIM-Karten von aktuellen Mobiltelefonen nicht erkannt. Ein Grund kann sein, dass die SIM-Karte mit der vom Gerät zur Verfügung gestellten Spannung nicht mehr funktioniert. Ein anderer Grund kann darin liegen, dass das Gerät eine USIM-Karte benötigt.

Formate

In der technischen Fachwelt wird die Hardware der SIM-Karte Universal Integrated Circuit Card oder kurz UICC genannt

Seit Entwicklung des UMTS-Standards durch das Europäische Institut für Telekommunikationsnormen Ende der 1990er Jahre wird davon ausgegangen, dass mobile Endgeräte in Zukunft kleiner sein oder jedenfalls weniger Platz im Inneren haben werden und daher SIM-Karten mit geringer Größe erforderlich sind.

Full-Size-SIM

Erste GSM-Geräte hatten einen Schlitz, um SIM-Karten im Scheckkartenformat einzu führen. Oft wurden diese SIM-Karten auch unter dem Akku eingelegt, wie z. B. beim Sharp TQ-G700. Ein weiteres Beispiel für ein solches Gerät ist das D-Netz- Mobiltelefon„Siemens S3com“ von 1995. Die Bauform der Geräte war entsprechend mindestens so breit wie eine Scheckkarte.

Da der SIM-Chip keine so große Fläche beanspruchte, hat sich schon Ende der 1990er- Jahre das bedeutend kleinere UICC-Format etabliert. Deshalb kamen nur wenige Geräte mit Full-Size-SIM auf den Markt. In den Anfangszeiten wurde die UICC-SIM-Karte aus der scheckkartengrossen SIM-Karte ausgestanzt; später waren die MINI-SIM- Karten aus der Full-Size-SIM-Karte herausbrechbar. Im umgekehrten Fall (bei einem Gerät mit scheckkartengrosser SIM-Karte) konnte i. d. R. die Originalkarte (aus der die UICC-SIM-Karte ausgestanzt oder heraus gebrochen worden war), als Adapter einge setzt werden.

Mini-SIM (UICC)

Die Mini-SIM-Karte (Abkürzung 2FF für„Second Form Factor“) ist nur 25 mm x 15 mm groß und genau so dick wie die Full-Size-SIM.

SIM-Karten werden teilweise zwar noch im Scheckkartenformat ausgeliefert, die Mini- SIM ist dann aber schon vorgestanzt, so dass sie nur an Sollbruchstellen herausgebrochen werden muss. Anfangs war bei den ausgelieferten Full-Size-SIM die Mini-SIM noch nicht vorgestanzt, deshalb gab es neben Stanzgeräten auch Anleitungen zum Selbstbau (ausschneiden mit Schablone und Schere). Um Material zu sparen, wird die SIM-Karte seit Mitte der 2010er-Jahre oft nur noch im UICC- Format in einer Karton- Schablone ausgeliefert.

Micro-SIM (Mini-UICC)

Die Micro-SIM (Abkürzung 3FF für„Third Form Factor“) ist 52 % kleiner als die der Mini-SIM-Karte. Bei der Micro-SIM betragen die Außenlängen nur 15 mm x 12 mm. Die Dicke beträgt wie auch schon bei der Full-Size-SIM oder Mini-SIM 0,76 mm. Was die technischen Daten der Schaltung anbelangt, gibt es keine Unterschiede. Mit einem speziellen Stanzgerät kann aus einer Full-Size-SIM oder Mini-SIM eine Micro-SIM gemacht werden.

Eines der ersten Geräte, das eine Micro-SIM-Karte verwendete, war das iPad im Jahr 2010, gefolgt vom Apple iPhone 4. Nokia setzt diesen Kartentyp ein, so beim Nokia N9 oder dem Nokia Lumia 800. Motorola setzt beim Motorola Droid Razr auf Micro-SIM- Karten. Viele weitere Hersteller sind dem Trend gefolgt und verwenden bei ihren Smartphones nun Micro-SIM-Karten.

Nano-SIM

Die Nano-SIM (kurz 4FF für„Fourth Form Factor“) ist mit 12,3 mm x 8,8 mm x 0,67 mm nochmals 40 % kleiner aber vor allem 12 % dünner als eine Micro-SIM und soll somit Platz in kompakten Geräten einsparen. Karten im Nano- SIM-Format bieten dieselbe Funktionalität wie größere Karten. Der Standard umfasst eine mechanische Abwärtskompatibilität, wodurch eine vereinfachte Verteilung mög- lieh sein soll.

Apple wie Nokia wollten zunächst ihre Version als jeweils besser standardisieren lassen. Die ETSI entschied sich im Juni 2012 schließlich für den Design-Vorschlag von Apple. Dieser ist kompatibel zu den bereits genutzten Micro-SIM-Karten. Am Markt eingeführt wurde die Nano-SIM-Karte im September 2012 mit dem iPhone 5.

Inzwischen bieten etliche moderne Smartphones einen Nano-SIM-Einschub.

Obwohl eine Umstanzung, wie bei der Micro-SIM beschrieben, zur Nano-SIM unter anderem als nicht möglich beschrieben, davor gewarnt oder gar nicht erwähnt wird, finden sich im World Wide Web zahlreiche Artikel mit Anleitungen[16], Zuschneide- Schablonen, Stanzgeräte und Videos.

Von Mobilfunk-Anbietern wird vor einer Umstanzung gewarnt, wobei meist eine entgeltliche Neubestellung der SIM-Karte angeraten wird. embeddedSIM

Die embeddedSIM (eSIM) ersetzt die klassische physische SIM-Karte. Erste Geräte wie Samsungs Smartwatch Gear S2, Apple Watch Cellular (ab Series 3), neure Apple iPhone verwenden diese. Sie ist kleiner als SIM-Karten, direkt im Gerät verbaut und physisch nicht auswechselbar. Für Hersteller kann in Zukunft die Aufnahmemechanik der SIM-Karte komplett entfallen. Die eSIM ist elektrisch kompatibel mit 2FF- und 3FF- Karten, sie verwendet das SON-8-Format und ist für M2M-Anwendungen (Machine to Machine- Anwendungen) konzipiert.

In Deutschland wird die eSIM von den Netzbetreibern Telekom, Vodafone und Tele- fönica Deutschland unterstützt und angeboten. NFC-SIM

Für die Verwendung der mobilen Zahlfunktionen ist eine NFC-SIM notwendig. Diese verfügt über einen zweiten komplett getrennten und verschlüsselten Bereich (Secure Element), auf den nur die Bank Zugriff hat. Die Karte erhält dabei die Daten für die Bankfunktion aufgespielt, sodass sie beim Wechsel des Gerätes erhalten bleiben. Es ist auch möglich, mehrere Bankkarten auf einer NFC-SIM zu speichern. Äußerlich unterscheiden sich die Karten nicht von solchen ohne NFC. Die Karten gibt es auch in den drei Größen mini, micro und nano. Österreich

Das Bezahlsystem "Digitale Bankomatkarte" wurde in Österreich ab Juni 2015 in einem Feldversuch erprobt und seit Anfang 2016 von allen großen Banken und von den drei großen Mobilfunkanbietern, allerdings nur für Androidgeräte, angeboten. Der Umtausch der SIM beim Mobilfunkanbieter ist notwendig, bis jetzt werden Neukunden noch nicht automatisch mit NFC-SIMs ausgestattet. Danach kann die digitale Bankomatkarte bei der Hausbank bestellt werden.

Byte gibt nicht die Anzahl der auf der SIM speicherbaren Zeichen an, da z. B. pro die Ziffer der Rufnummer nur ein Halbbyte benutzt wird.

Man muss aber beachten, dass nicht alle Mobiltelefone die mögliche Anzahl Zeichen (für den Namen und Rufnummer) nutzen. Der Erweiterungsspeicher kann frei von dem Betriebssystem des Mobiltelefons verwendet werden, was dazu führt, dass die dort hinterlegten Informationen von einem anderen Mobiltelefon nicht oder falsch interpretiert werden. So wurde dieser Speicherbereich z. B. von einigen Geräten (z. B. Siemens A60) dazu benutzt um die Zeichenanzahl für den Namen für die ersten Einträge zu verlängern, bei anderen Geräten wurde dieser dazu benutzt um eine zweite Telefonnummer zu speichern. Länderspezifika

Am 13. Februar 2009 stimmte der deutsche Bundesrat einer Verordnung des Bundesministeriums für Wirtschaft und Technologie zu, nach der zukünftig Notrufe (110 und 112) nicht mehr ohne SIM-Karte gewählt werden können. Da immer häufiger grundlos Notrufe von Mobiltelefonen ohne Karte gemacht worden waren, sollten nun nur noch durch SIM-Karten identifizier bare Kommunikationsteilnehmer diese Möglichkeit haben.

Sicherheit

Neue SIM-Karten besitzen bessere Sicherheitsmerkmale als ältere SIM-Karten. Aus Sicherheitsgründen sollten alle SIM-Karten mit einem Alter über zehn Jahre durch neue SIM-Karten ersetzt werden.

DES-Verschlüsselung

Siehe auch: „SIM-Karten DES-Hack“ im Artikel Karsten Nohl

Auf der Black Hat 2013 beziehungsweise der OHM 2013 demonstrierte Karsten Nohl, dass viele Mobiltelefone noch SIM-Karten mit der bereits seit längerem als unsicher geltenden DES-Verschlüsselung nutzen. In Deutschland reagierten der IT- Branchen verband Bitkom sowie die großen Telekommunikationsanbieter Deutsche

Telekom, Telefönica, E-Plus-Gruppe und Vodafone gelassen, da die unsichere DES- Verschlüsselung nicht mehr eingesetzt wird.

Schlüsseldiebstahl

Gestützt auf veröffentlichte Geheimdokumente des Whistleblowers Edward Snowden berichtete The Intercept im Februar 2015, dass die Nachrichtendienste National Security Agency und Government Communications Headquarters im Jahre 2010 Schlüssel von Gemalto, dem größten Hersteller von SIM-Karten, entwendet hatten.

Sie seien somit in der Lage, einen Großteil der weltweiten mobilen Kommunikation einschließlich Sprachnachrichten und Daten unerkannt abzuhören. In einem der Doku- mente wird die deutsche Firma Giesecke & Devrient als Angriffsziel genannt USIM- Anwendung

Die USIM- Anwendung ermöglicht der Mobilstation die bessere Verschlüsselung der über das Mobilfunknetz übertragenen Gespräche, Mitteilungen und Daten. Die Mobilstation kann die Authentifizierung der Mobilstation beim Mobilfunkanbieter dank der USIM- Anwendung besser absichern. Aus Sicherheitsgründen sollte in allen Mobilstationen SIM-Karten mit der USIM-Anwendung betrieben werden.

Mobilstationen, welche nicht die USIM-Anwendung unterstützen, sollten aus Sicherheitsgründen durch neuere Geräte ersetzt werden.

28. Wireless Local Area Network (W-LAN)

Wireless Local Area Network ['waialis taokl 'eopo 'netw3:k] (Wireless LAN bzw. W- LAN, meist WLAN; deutsch drahtloses lokales Netzwerk) bezeichnet ein lokales Funk netz, wobei meist ein Standard der IEEE-802.1 1 -Familie gemeint ist. Für diese engere Bedeutung ist in manchen Ländern (z. B. USA, Großbritannien, Kanada, Niederlande, Spanien, Frankreich, Italien) weitläufig beziehungsweise auch synonym der Begriff Wi- Fi gebräuchlich. Verwendet wird der Begriff häufig auch irreführend als Synonym für WLAN-Hotspots bzw. kabellosen Intemetzugriff.

Im Gegensatz zum Wireless Personal Area Network (WPAN) haben WLANs größere Sendeleistungen und Reichweiten und bieten im Allgemeinen höhere Datenübertragungsraten. WLANs stellen Anpassungen der Schicht 1 und 2 des OSI- Referenzmodells dar, wohingegen in WPANs z. B. über eine im Netzwerkprotokoll vorgesehene Emulation der seriellen Schnittstelle und PPP beziehungsweise SLIP eine Netzverbindung aufgebaut wird. Bei WLAN wird heute meist das Modulationsverfahren OFDM verwendet.

Betriebsarten

WLANs können - je nach Hardwareausstattung und Bedürfnissen der Betreiber - in verschiedenen Modi betrieben werden: Infrastruktur-Modus

Der Infrastruktur-Modus ähnelt im Aufbau dem Mobilfunknetz: Ein Wireless Access Point, oft in Form eines Routers, übernimmt die Koordination aller Clients und sendet in einstellbaren Intervallen (üblicherweise zehnmal pro Sekunde) kleine Datenpakete, sogenannte„Beacons“ (engl.„Leuchtfeuer“, vgl. dt.„Bake“), an alle Stationen im Empfangsbereich. Die Beacons enthalten u. a. folgende Informationen:

-Netzwerkname („Service Set Identifier“, SSID),

-Liste unterstützter Übertragungsraten

-Art der Verschlüsselung.

Dieses„Leuchtfeuer“ erleichtert den Verbindungsaufbau ganz erheblich, da die Clients lediglich den Netzwerknamen und optional einige Parameter für die Verschlüsselung kennen müssen. Gleichzeitig ermöglicht der ständige Versand der Beacon-Pakete die Überwachung der Empfangsqualität - auch dann, wenn keine Nutzdaten gesendet oder empfangen werden. Beacons werden immer mit der niedrigsten Übertragungsrate (1 MBit/s) gesendet, der erfolgreiche Empfang des„Leuchtfeuers“ garantiert also noch keine stabile Verbindung mit dem Netzwerk.

Die SSID-Übermittlung (Broadcasting) lässt sich in der Regel deaktivieren, auch wenn das den eigentlichen Standard verletzt. Dadurch wird der drahtlose Zugangspunkt selbst unsichtbar. Die Clients stellen in dieser Variante jedoch aktiv die Verbindung her, indem sie, falls keine Verbindung besteht, jederzeit aktiv nach allen gespeicherten Netzwerknamen„versteckter“ Netze suchen. Problematisch ist dabei, dass diese Informationen leicht für einen Angriff auf die Endgeräte ausgenutzt werden können, indem durch den Angreifer die Anwesenheit des Access Point simuliert wird.

Da WLAN auf der Sicherungsschicht (Schicht 2 im OSI-Modell) dieselbe Adressierung wie Ethernet verwendet, kann über einen Wireless Access Point mit Ethernet-Anschluss leicht eine Verbindung zu kabelgebundenen Netzen (im WLAN- Jargon„Distribution System“, DS) hergestellt werden. Eine Ethernet-Netzwerkkarte kann folglich nicht unterscheiden, ob sie mit einer anderen Ethernet-Netzwerkkarte oder (über einen Access Point) mit einer WLAN-Karte kommuniziert. Allerdings muss zwischen 802.1 1 (WLAN) und 802.3 (Ethernet) konvertiert werden.

Der Aufbau großer WLANs mit mehreren Basisstationen und unterbrechungsfreiem Wechsel der Clients zwischen den verschiedenen Basisstationen ist im Standard vorge sehen. In der Praxis kommt es dabei allerdings zu Problemen:

-Die Frequenzbereiche der Basisstationen überlappen sich und fuhren zu Stö- rungen. -Da - anders als bei Mobilfunknetzen - die gesamte„Intelligenz“ im Client steckt, gibt es kein echtes Handover zwischen verschiedenen Basisstationen. Ein Client wird im Normalfall erst nach einer neuen Basisstation suchen, wenn der Kontakt zur vorherigen bereits abgebrochen ist.

Eine Lösung für dieses Problem steckt in der Verlagerung der Kontrollfunktionen in die Basisstationen beziehungsweise das Netzwerk: Eine zentrale Instanz kann Frequenzen, Sendeleistung etc. besser steuern und z. B. auch einen Handover initiieren. Da die Basisstationen in einem solchen Szenario einen Teil ihrer Funktionalität verlieren und direkt mit der zentralen Instanz kommunizieren können müssen, wird an entsprechenden Geräteklassen (Lightweight Access Point) und Protokollen gearbeitet. Proprietäre Lö- sungen existieren bereits seit einigen Jahren, offene Standards (z. B. das Lightweight Access Point Protocol) sind dagegen immer noch in Arbeit. Diskussionen entzünden sich vor allem an der Frage, welches Gerät welche Funktionen übernehmen soll.

Ad-hoc-Modus

Im Ad-hoc-Modus ist keine Station besonders ausgezeichnet, sondern alle sind gleichwertig. Ad-hoc-Netze lassen sich schnell und ohne großen Aufwand aufbauen, für die spontane Vernetzung weniger Endgeräte sind allerdings andere Techniken, wie Blue- tooth, eher gebräuchlich. Die Voraussetzungen für den Ad-hoc-Modus sind dieselben wie für den Infrastruktur- Modus: Alle Stationen benutzen denselben Netzwerknamen („Service Set Identifier“, SSID) und optional dieselben Einstellungen für die Verschlüsselung. Da es in einem Ad-hoc-Netz keine zentrale Instanz (Access Point) gibt, muss deren koordinierende Funktion von den Endgeräten übernommen werden. Eine Weiterleitung von Datenpaketen zwischen den Stationen ist nicht vorgesehen und in der Praxis auch nicht ohne Wei- teres möglich, denn im Ad-hoc-Modus werden keine Informationen ausgetauscht, die den einzelnen Stationen einen Überblick über das Netzwerk geben könnten. Aus diesen Gründen eignet sich der Ad-hoc-Modus nur für eine sehr geringe Anzahl von Stationen, die sich wegen der begrenzten Reichweite der Sender zudem physisch nahe beieinander befinden müssen. Ist das nicht der Fall, kann es Vorkommen, dass eine Station nicht mit allen anderen Stationen kommunizieren kann, da diese schlicht kein Signal mehr empfangen.

Um dieses Problem zu beheben, können die teilnehmenden Stationen mit Routing- Fähigkeiten ausgestattet werden, so dass sie in der Lage sind, Daten zwischen Geräten weiterzuleiten, die sich nicht in Sendereichweite zueinander befinden.

Erhebung und Austausch von Routing-Informationen ist Teil der Aufwertung eines Ad- hoc-Netzwerks zum mobilen Ad-hoc-Netzwerk: Softwarekomponenten auf jeder Station sammeln Daten (z. B. zur„Sichtbarkeit“ anderer Stationen, Verbindungsqualität etc.), tauschen sie untereinander aus und treffen Entscheidungen für die Weiterleitung der Nutzdaten. Die Forschung in diesem Bereich ist noch nicht abgeschlossen und hat neben einer langen Liste von experimentellen Protokollen (AODV, OLSR, MIT Roof- Net, B.A.T.M.A.N. etc.) und Standardisierungsvorschlägen (Hybrid Wireless Mesh Protocol, 802.1 1 s) auch einige kommerzielle Lösungen (z. B. Adaptive Wireless Path Protocol von Cisco) hervorgebracht. Siehe in diesem Zusammenhang auch: Freies Funknetz.

Wireless Distribution System (WDS) und Repeating

Zur Reichweitenerhöhung bestehender Funknetze beziehungsweise Verbindung kabel- gebundener Netze via Funk (Wireless Bridging) existieren verschiedene Methoden— * siehe Wireless Distribution System. Reichweite und Antennen

Die zulässige äquivalente isotrope Strahlungsleistung (EIRP) von 100 mW (2,4 GHz) beziehungsweise 500 mW (5 GHz) handelsüblicher 802.1 1 -Endgeräte lässt 30 bis 100 Meter Reichweite auf freier Fläche erwarten. Einige WLAN-Geräte erlauben den Anschluss einer externen Antenne. Mit Richtantennen lassen sich bei Sichtkontakt im Freien mehrere Kilometer überbrücken. In geschlossenen Räumen ist die Reichweite stark von Hindernissen sowie Art und Form der Bebauung abhängig.

Leichtbauwände mindern die Reichweite durch Dämpfung und können - je nach ver- wendetem (Metall-)Trägerbau sowie Art der Unterfolie - ein großes Hindernis sein. Insbesondere Stein- und Betonaußenwände dämpfen, vor allem durch Feuchtigkeit bedingt, stark - ebenso wie metallbedampfte Glasscheiben beziehungsweise Brandschutzkonstruktionen. Je höher die elektrische Leitfähigkeit des Materials, desto stärker ist die Dämpfung.

Oberflächen können aber auch als Reflektor wirken und damit die Reichweite verbessern.

WLAN nach IEEE 802.1 1h (maximal 54 Mbit/s brutto) arbeitet im 5-GHz-Band, in dem ein größerer Frequenzbereich (455 MHz Bandbreite) zur Verfügung steht und da- mit 19 nicht überlappende Frequenzen (in Deutschland) lizenzffei nutzbar sind.

(Siehe dazu auch, für die USA: U-NII) Im Normalbetrieb sind in Gebäuden nach IEEE 802.11h 200 mW äquivalente isotrope Strahlungsleistung (EIRP) erlaubt. Jedoch nur ein kleiner Teil des Frequenzbereichs ist ohne weitere Anforderungen (TPC, Transmit- ter Power Control und DFS, Dynamic Frequency Selection) nutzbar. Im Freien ist ebenfalls nur ein kleiner Frequenzbereich mit TPC und DFS erlaubt. In diesem sind auch höhere äquivalente isotrope Strahlungsleistungen bis 1 Watt EIRP gestattet. [32] TPC und DFS sollen sicherstellen, dass Satellitenverbindungen und Radargeräte nicht gestört werden. Als primäre Lizenznehmer sind diese gegenüber der Nutzung für WLAN privi- legiert. Mit speziellen Richtfunkantennen lassen sich bei Sichtkontakt mehrere Kilometer überbrücken. Dabei werden teilweise Rekorde mit Verbindungen über bis zu hundert Kilometer aufgestellt, bei denen keine Sendeverstärker eingesetzt werden, sondern nur Antennen mit hohem Gewinn. Allerdings funktioniert das nur bei quasi-optischer Sicht und möglichst freier erster Fresnelzone. Die zulässige äquivalente isotrope Strahlungs leistung (EIRP) wird dabei aber meist deutlich überschritten.

Antennen bringen sowohl einen Sende- als auch einen Empfangsgewinn (Antennengewinn, angegeben in dBi), indem sie elektromagnetische Wellen bündeln. Daher muss statt der Sendeleistung die sogenannte äquivalente isotrope Strahlungslei stung zur Beschränkung herangezogen werden.

In Europa ist die äquivalente isotrope Strahlungsleistung von WLAN-Anlagen bei 2,4 GHz auf 100 mW(= 20 dBm) EIRP, bei 5,15-5,35 GHz über 5,25 GHz mit TPC und DFS auf 200 mW (= 23 dBm) EIRP, beziehungsweise bei 5,47-5,725 GHz mit TPC und DFS auf 1000 mW (= 30 dBm) EIRP begrenzt.

Zum EIRP siehe auch: Äquivalente isotrope Strahlungsleistung, Abschnitt Praktische Berechnung.

Sicherheit

Ohne Maßnahmen zur Erhöhung der Informationssicherheit sind drahtlose lokale Netzwerke Angriffen ausgesetzt, wie zum Beispiel Snarfing oder Man-In-The-Middle- Angriffen. Daher wird versucht, das mit entsprechenden Mitteln, insbesondere durch die Verwendung von Verschlüsselung und Kennwörtern (Authentifizierung) zu verhindern oder zumindest deutlich zu erschweren.

Verschlüsselung

Teil des WL AN- Standards IEEE 802.1 1 ist Wired Equivalent Privacy (WEP), ein Si- cherheitsstandard, der den RC4-Algorithmus enthält. Die darin enthaltene Verschlüsselung mit einem nur 40 Bit (64 Bit genannt) beziehungsweise 104 Bit (128 Bit genannt), bei einigen Herstellern auch 232 Bit (256 Bit genannt) langen statischen Schlüssel reicht jedoch nicht aus, das WLAN ausreichend zu sichern. Durch das Sammeln von Schlüsselpaaren sind Known-Plaintext- Angriffe möglich. Es gibt frei erhältliche Programme, die sogar ohne vollständigen Paketdurchlauf, einen schnellen Rechner voraus- gesetzt, das Passwort entschlüsseln können. Jeder Nutzer des Netzes kann den gesamten Verkehr zudem mitlesen. Die Kombination von RC4 und CRC wird als kryptografisch unsicher betrachtet.

Aus diesen Gründen sind technische Ergänzungen entwickelt worden, etwa WEPplus, Wi-Fi Protected Access (WPA) als Vorgriff und Teilmenge zu 802.1 l i, Fast Packet Keying, Extensible Authentication Protocol (EAP), Kerberos oder High Security Solution, die alle mehr oder weniger gut das Sicherheitsproblem von WLAN verkleinern Der Nachfolger von WEP ist der Sicherheitsstandard 802.1 l i. Er bietet eine erhöhte Sicherheit durch Advanced Encryption Standard (AES) (bei WPA2) und gilt zurzeit als nicht entschlüsselbar, solange keine trivialen Passwörter verwendet werden, die über eine Wörterbuch- oder gar Brute-force-Attacke geknackt werden können.

WPA2 ist das Äquivalent der Wi-Fi Alliance zu 802.1 l i, das mit dem Verschlüsselungsalgorithmus AES (Advanced Encryption Standard mit Schlüssellängen von 256 Bit) arbeitet und in neueren Geräten meist unterstützt wird. Einige Geräte lassen sich durch Austausch der Firmware mit WPA2-Unterstützung nachrüsten. Jedoch erfolgt hier die Verschlüsselung meist ohne Hardwarebeschleunigung, so dass der Zugewinn an Sicherheit durch eine starke Einbuße an Übertragungsrate erkauft wird. Eine alternative Herangehensweise besteht darin, die gesamte Verschlüsselung auf die IP-Ebene zu verlagern. Dabei wird der Datenverkehr beispielsweise durch die Verwendung von IPsec oder durch einen VPN-Tunnel geschützt. Besonders in freien Funknetzen werden so die Inkompatibilitäten verschiedener Hardware umgangen, eine zentrale Benutzerverwaltung vermieden und der offene Charakter des Netzes gewahrt.

Zur rechtlichen Situation siehe weiter unten. Beim sogenannten„WarWalking“ (oder beim Abfahren ganzer Gegenden mit dem Auto Wardriving genannt) werden mit einem WLAN-fahigen Notebook oder PDA offene WLANs gesucht. Diese können mit Kreide markiert werden (WarChalking). Das Ziel dabei ist, Sicherheitslücken aufzudecken und dem Betreiber zu melden und die Verbrei- tung von WLAN zu untersuchen, oder diese zum eigenen Vorteil (kostenlos und unter fremdem Namen surfen) auszunutzen.

Authentifizierung

Extensible Authentication Protocol ist ein Protokoll, um Clients zu authentifizieren. Es kann zur Nutzerverwaltung auf RADIUS-Server zurückgreifen. EAP wird hauptsächlich innerhalb von WPA für größere WLAN-Installationen eingesetzt.

Eine Authentifizierung ist auch über die MAC- Adresse der drahtlosen Netzwerkadapter möglich. Die MAC-Adresse ist eine Hardware-Kennung, anhand deren sich jeder ange- schlossene Netzwerkadapter identifizieren lässt. Die meisten Access Points beziehungsweise Router bieten die Möglichkeit, den Zugriff nur für bestimmte MAC- Adressen zu ermöglichen. Allen nicht zugelassenen MAC-Adressen wird dann keine IP-Adresse zugewiesen, beziehungsweise der Zugriff auf den Access Point ist blockiert. Eine alleinige Sicherung über MAC-Adressen-Filterung ist jedoch nicht sicher, da sich solche Adressen problemlos einstellen lassen. Gültige MAC-Adressen können z. B. durch das Mitlauschen des Datenverkehrs anderer Teilnehmer gefunden werden. Aber auch Verschlüsselungen lassen sich auf diese Weise knacken.

Grundlegende Sicherheitsmaßnahmen

Dazu gehören einige grundlegende Einstellungen am Router beziehungsweise Access Point:

-Aktivierung der Verschlüsselung mit einer sicheren Verschlüsselungsmethode, d. h. mindestens WPA, besser WPA2; dabei spezifische Hinweise zur Sicher- heit der gewählten Verschlüsselungsmethode im jeweiligen Artikel beachten

-Vergabe eines sicheren Netzwerkschlüssels -Ersetzen der werkseitig voreingestellten Router- beziehungsweise Access- Point- Passwörter, da diese z. B. bei Arcadyan (einige Easybox- und Speed- port-Modelle) anhand der BSSID errechnet werden können[33][34]

-Deaktivieren von Wi-Fi Protected Setup, wenn die Funktion nicht (mehr) benö- tigt wird

-Änderung des werkseitig voreingestellten SSID-Namens, so dass keine Rück- Schlüsse auf verwendete Hardware, Einsatzzweck oder Einsatzort möglich sind (minimaler Sicherheitsgewinn, da anhand der BSSID meist auf die Hard- wäre Rückschlüsse gezogen werden können)

-Deaktivierung der Fernkonfiguration des Routers, soweit vorhanden (insbe- sondere bei privaten Haushalten) -Konfiguration des Access Point nach Möglichkeit nur über kabelgebundene Verbindungen vornehmen beziehungsweise Konfiguration per WLAN deaktivieren

-Ausschalten von WLAN-Geräten, solange sie nicht genutzt werden (Zeitma- nage- ment)

-regelmäßige Firmware-Aktualisierungen des Access Point, um sicherheitsrele- vante Verbesserungen zu erhalten

-Trennung des Access Point vom restlichen (kabelgebundenen) Netzwerkteil mit Hilfe von VLANs und gleichzeitiger Einsatz einer Firewall zwischen den Netzwerkteilen

Gesellschaftliche Bedeutung

Die starke Verbreitung von Drahtlosnetzwerken in den letzten Jahren unterstreicht den Trend zu mehr Mobilität und flexibleren Arbeitsbedingungen. Bereits 2005 wurden in der Europäischen Union mehr Notebooks als Desktop-Rechner verkauft, die meisten davon mit eingebautem WLAN-Chip. Öffentliche und kommerzielle WLAN-Access- Points mit Internetanbindung, sogenannte„Hot Spots“, ermöglichen an vielen Orten den Zugriff auf das weltweite Datennetz. Deren gesellschaftliche Bedeutung zeigt bei spielsweise die Initiative Wifi4EU, mit der die EU in ihren Mitgliedsstaaten die Bereit stellung kostenloser WLAN-Netze in öffentlichen Einrichtungen subventioniert.

Bei privaten Nutzern finden sich ohnehin nahezu flächendeckend DSL- Zugangsgeräte mit eingebautem Access Point, die die Telekommunikationsanbieter oft verbilligt zusammen mit dem Internet-Anschluss anbieten.

Weitere Anwendungen

WLAN kann auch als Plattform zur Lokalisierung in Städten und Gebäuden verwendet werden. Seit Anfang 2008 wird dazu vom Fraunhofer-Institut für Integrierte Schaltungen auf einer Fläche von 25 Quadratkilometern in Nürnberg eine Testumgebung betrieben. Nach einer ersten Betriebsphase soll das System auf weitere deutsche und europäische Städte wie zum Beispiel Berlin, München, Frankfurt, London, Paris und Mailand ausgedehnt werden.

Google und Apple nutzen die Daten von WLANs, um Nutzer zu lokalisieren. Damit bieten sie eine Alternative zur Lokalisierung per GPS.

Es wird intensiv geforscht, inwieweit WLAN auch im öffentlichen Straßenverkehr genutzt werden kann, um die Verkehrssicherheit zu erhöhen.

Siehe auch: WLAN-basierte Ortung

Rechtliche Lage in Deutschland

Umstritten war die Frage, inwieweit der Anschlussinhaber eines WLAN für Rechtsverletzungen Dritter haftet, die unter der IP-Adresse des Anschlussinhabers begangen wer- den In diesem Zusammenhang steht auch die Rechtsfrage, welche Schutzmaßnahmen ein Anschlussinhaber überhaupt zu ergreifen hat und wo gegebenenfalls zumutbare Schutzmaßnahmen (sogenannte„Prüfungs- und Überwachungspflichten“) enden.

Das Hanseatische Oberlandesgericht entschied, dass ein sorgeberechtigter Eltemteil als Störer auch für Urheberrechtsverletzungen haftet, die durch seine Kinder begangen wurden. Den Eltern sei es zumutbar, technische Maßnahmen zu ergreifen, um die Nut- zung illegaler Tauschbörsen zu verhindern (Beschl. v. 1 1. Oktober 2006 - 5 W 152/06). Auch das Oberlandesgericht Köln sah die Haftung für Urheberrechtsverletzungen nicht nur für eine GmbH als Anschlussinhaberin als gegeben an, sondern verurteilte auch den Geschäftsführer der GmbH zur persönlichen Haftung aus dem Gesichtspunkt der Stö- rerhaftung (Beschl. v. 8. Mai 2007 - 6 U 244/06).

Die gegenteilige Ansicht vertrat das Oberlandesgericht Frankfurt am Main. Die Richter entschieden, dass der Inhaber eines Intemetanschlusses grundsätzlich nicht als Störer für die unberechtigte Nutzung einer WLAN-Verbindung durch unberechtigte Dritte haf- tet, die mit ihm in keinerlei Verbindung stehen. Nach Ansicht des Landgerichtes München I besteht auch keine Haftung eines Radiosenders für die durch einen Volontär be gangenen Rechtsverletzungen, da kein Unternehmen grenzenlose Mitarbeiterüberwa chungspflichten einhalten könne (Urteil v. 4. Oktober 2007 - 7 0 2827/07). Diese uneinheitliche Rechtsprechung führte dazu, dass ein solcher Fall beim Bundesgerichtshof anhängig war. Der u. a. für das Urheberrecht zuständige I. Zivilsenat verkündete am 12. Mai 2010 eine grundlegende Entscheidung zu den Haftungsfragen. Privatpersonen können demnach auf Unterlassung, nicht dagegen auf Schadensersatz in An spruch genommen werden, wenn ihr nicht ausreichend gesicherter WL AN -Anschluss von unberechtigten Dritten für Urheberrechtsverletzungen im Internet genutzt wird. Eine Entscheidung darüber, wie die Rechtslage bei WLANs ist, die der Anbieter bewusst an die Öffentlichkeit richtet, steht bislang noch aus.

Daneben stellt sich die Frage, ob sich derjenige, der unberechtigt ein offenes, fremdes WLAN nutzt, strafbar macht. Diese unberechtigte Nutzung wird teils in Anspielung auf „Schwarzfahren“ als„Schwarzsurfen“ bezeichnet. Das Amtsgericht Wuppertal hat 2007 entschieden, dass sich ein„Schwarzsurfer“ wegen eines Verstoßes gegen §§ 89, S. 1, 148 I 1 TKG und §§ 44, 43 II Nr. 3 BDSG strafbar macht. Nach einer Entscheidung desselben Amtsgerichts von 2010 soll„Schwarzsurfen“ nicht mehr unter Strafe ste- hen.[46] Das Landgericht Wuppertal bestätigte diese Entscheidung. Schwarzsurfen sei unter keinem rechtlichen Gesichtspunkt strafbar. Mit der am 21. Juli 2016 erlassenen Änderung des Telemediengesetzes wurde durch eine Ergänzung von § 8 Abs. 3 klargestellt, dass auch Zugangsanbieter, die Nutzem einen Internetzugang über ein drahtloses lokales Netzwerk zur Verfügung stellen, haftungs- privilegiert sind. Damit ist geregelt, dass WLAN-Betreiber unter das sogenannte Providerprivileg fallen. Die eigentliche Abschaffung der Störerhaftung schaffte es hingegen zunächst nicht in den Gesetzestext. Stattdessen fand sich in der Begründung des Gesetzes lediglich der Hinweis, dass der Gesetzgeber es gern sähe, dass WLAN-Betreiber nicht mehr für Rechtsverstöße Dritter abgemahnt und auf Unterlassung in Anspruch ge- nommen werden können.

Echte Rechtssicherheit für offene Funknetze wurde damit gerade noch nicht erreicht. Im Gegensatz zum eigentlichen Gesetzestext ist die Begründung nicht bindend.

Gerichte können sie zur Auslegung heranziehen, müssen die dort dargelegte Sichtweise aber nicht zwingend teilen. Daher erwirkte die TMG-Novelle des Jahres 2016 noch keinen Durchbruch bei der Anpassung der Störerhaftung. Dazu hätte der Gesetzgeber die Betreiber im Gesetz ausdrücklich insbesondere von Unterlassungsansprüchen freistellen müssen. Dazu kam es erst durch eine weitere Gesetzesänderung Mitte 2017. Hiernach stellt die Neufassung von § 7 Abs. 4 S. 3 TMG klar, dass die Zugangsanbieter Dritten nicht mehr für das Verhalten der WLAN-Nutzer haften. Trotz dieser Erneuerung der Gesetzeslage verbleiben für den Betrieb öffentlicher WLAN-Netze jedoch noch eine Reihe rechtlicher Anforderungen, etwa solche des Datenschutzes.

Zur aktuellen Rechtslage siehe Störerhaftung. Diskussion gesundheitlicher Wirkungen Die von WLAN-Geräten benutzten Funkfrequenzen liegen um 2,4 GHz beziehungsweise 5,4 GHz, also im Mikrowellenbereich. WLAN wird daher im Zusammenhang mit möglichen gesundheitlichen Auswirkungen im Rahmen der elektromagnetischen Um- Weltverträglichkeit diskutiert. Nach mehreren Studien, u. a. des Bundesamts für Strahlenschutz (BfS), gibt es innerhalb der gesetzlichen Expositionsgrenzwerte nach dem aktuellen Stand der Wissenschaft keine Hinweise, dass diese hochfrequenten elektromagnetischen Felder gesundheitliche Risiken darstellen.

Die einzige gesicherte biologische Auswirkung ist die thermische Erwärmung. Der zugehörige Prozess heißt dielektrische Erwärmung. Um Schäden durch thermische Er wärmung zu vermeiden, wurde ein Grenzwert für die spezifische Absorptionsrate defi niert. Im normalen Betrieb wird dieser Grenzwert bei körperfernem Betrieb weit unter- schritten. Lediglich Laptopnutzer kommen nahe an die Grenzwerte, wenn sie ihr Gerät auf ihrem Oberschenkel aufgelegt haben.

Unabhängig von den bisherigen Erkenntnissen empfiehlt das Bundesamt für Strahlenschutz (BfS) generell, die persönliche Strahlenbelastung zu minimieren, um mögliche, aber bisher nicht erkannte gesundheitliche Risiken gering zu halten.

Es gibt vereinzelt Berichte von Personen, die über verschiedene Beschwerden klagen und diese selbst auf WLANs zurückführen. Verschiedene Untersuchungen mit elektro- sensiblen Menschen konnten aber keinen Zusammenhang zwischen den Beschwerden und elektromagnetischer Strahlung feststellen.

29. Wi-Fi

Wi-Fi (englisch ['wai , fai ]) bezeichnet sowohl ein Firmenkonsortium, das Geräte mit Funkschnittstellen zertifiziert, als auch den zugehörigen Markenbegriff.

Wi-Fi ist ein für Vermarktungszwecke erfundener Kunstbegriff, der in Analogie zu Hi- Fi gebildet wurde. Ob es wie dieser eine Abkürzung darstellt, wird bezweifelt; das Wi steht sicher für Wireless.

Oft wird Wi-Fi als Synonym für WLAN benutzt. Streng genommen sind WLAN und Wi-Fi jedoch nicht dasselbe: WLAN bezeichnet das Funknetzwerk, Wi-Fi hingegen die Zertifizierung durch die WiFi-Alliance anhand des IEEE-802.1 1 -Standards - alle Wi-Fi-zertifizierten Produkte sind somit 802.1 1 -konform. Wi-Fi Alliance

1999 wurde die Organisation ursprünglich unter dem Namen Wireless Ethernet Compa- tibility Alliance (WECA) gegründete. 2002 benannte sich die WECA um in die Wi-Fi Alliance.

Die Aufgabe der Wi-Fi-Alliance ist, die Produkte verschiedener Hersteller auf der Basis des IEEE-802.11 -Standards zu zertifizieren und so den Betrieb mit verschiedenen Wireless-Geräten zu gewährleisten (Interoperabilität). Hintergrund war, dass in vielen Produkten der Standard nicht vollständig implementiert bzw. durch proprietäre Erweite- rungen aufgeweicht wurde. Dadurch ergaben sich häufig Inkompatibilitäten zwischen Produkten verschiedener Hersteller.

Die Wi-Fi-Alliance testet entsprechende Komponenten nach eigenen Richtlinien. Produkte, die die Prüfung bestehen, erhalten das Wi-Fi-Zertifikat und dürfen damit das Lo- go "Wi-Fi" tragen. Allerdings werden lediglich die Produkte der Wi-Fi- Mitglieder getestet. Die Mitglieder müssen zusätzlich zur Mitgliedsgebühr für jede geprüfte Komponente eine Gebühr entrichten. Ein fehlendes Wi-Fi-Logo stellt demzufolge nicht zwingend eine Abweichung vom Standard dar. Das Konsortium gab am 31. Oktober 2002 bekannt, mit Wi-Fi Protected Access (WPA) eine Teilmenge des damals zukünftigen IEEE-Standards 802.1 l i als neue Verschlüsselungstechnik zu etablieren, um noch vor der Verabschiedung des neuen Standards das als unsicher geltende Verschlüsselungsverfahren WEP abzulösen.

Nach der Verabschiedung von 802.1 l i prägte die Wi-Fi analog dazu den Begriff WPA2.

Die Wi-Fi-Alliance umfasst über 300 Unternehmen als Mitglieder. Anbei eine Auswahl der Mitglieder. 30. Bluetooth

Bluetooth ['blu:tu:0] ist ein in den 1990er Jahren durch die Bluetooth Special Interest Group (SIG) entwickelter Industriestandard gemäß IEEE 802.15.1 für die Datenübertragung zwischen Geräten über kurze Distanz per Funktechnik (WPAN). Dabei sind verbindungs lose sowie verbindungsbehaftete Übertragungen von Punkt zu Punkt und

Ad-hoc- oder Piconetze möglich. Der Name„Bluetooth“ leitet sich vom dänischen König Harald Blauzahn (englisch Harald Bluetooth) ab, der verfeindete Teile von Norwegen und Dänemark vereinte. Das Logo zeigt ein Monogramm der altnordischen Runen * und 15.

Die Funkverfahren für Bluetooth wurden ursprünglich in wesentlichen Teilen durch den niederländischen Professor Jaap Haartsen und den Schweden Sven Mattisson für Ericsson entwickelt. Andere Teile wurden vor allem von Nokia und Intel ergänzt. Bluetooth bildet eine Schnittstelle, über die sowohl mobile Kleingeräte wie Mobiltelefone und PDAs als auch Computer und Peripheriegeräte miteinander kommunizieren kön- nen. Hauptzweck von Bluetooth ist das Ersetzen von Kabelverbindungen zwischen Ge räten.

Technischer Hintergrund

Geräte nach den Standards der Bluetooth SIG senden als Short Range Devices (SRD) in einem lizenzffeien ISM-Band (Industrial, Scientific and Medical Band) zwischen 2,402 GHz und 2,480 GHz. Sie dürfen weltweit zulassungsfrei betrieben werden. Störungen können aber zum Beispiel durch WLANs, Schnurlostelefone (DECT-Telefone in Europa haben ein anderes Frequenzband) oder Mikrowellenherde verursacht werden, die im selben Frequenzband arbeiten.

Um Robustheit gegenüber Störungen zu erreichen, wird ein Frequenzsprungverfahren (frequency hopping) eingesetzt, bei dem das Frequenzband in 79 Kanäle im 1-MHz- Abstand eingeteilt wird, die bis zu 1600-mal in der Sekunde gewechselt werden. Es gibt jedoch auch Pakettypen, bei denen die Frequenz nicht so oft gewechselt wird (Multislot-Pakete). Am unteren und oberen Ende gibt es jeweils ein Frequenzband als Sicherheitsband (engl.:„guard band“) zu benachbarten Frequenzbereichen. Theoretisch kann eine Datenübertragungsrate von 706,25 kbit/s beim Empfang bei gleichzeitigen 57,6 kbit/s beim Senden erreicht werden (asymmetrische Datenübertra gung).

Ab der Version 2.0 + EDR können Daten mit EDR (Enhanced Data Rate) maximal et- wa dreimal so schnell übertragen werden, also mit rund 2,1 Mbit/s. Bereits ab Version 1.1 kann ein Bluetooth-Gerät gleichzeitig bis zu sieben Verbindungen aufrechterhalten, wobei sich die beteiligten Geräte die verfügbare Bandbreite teilen müssen (Shared Me dium). Bluetooth unterstützt die Übertragung von Sprache und Daten. Allerdings können die meisten Geräte während der notwendigerweise synchronen Übertragung von Sprache lediglich drei Teilnehmer in einem Piconet verwalten.

Eine Verschlüsselung der übertragenen Daten ist ebenfalls möglich. Klassen und Reichweite

Klasse Maximale Leistung Reichweite

(mW) (dBm) allgmein im Freien

Klasse 1 100 +20 ca. 100m ca. 100m

Klasse 2 2,5 +4 ca. 10m ca. 50m

Klasse 3 1 0 ca. Im ca, 10m

Die tatsächlich erzielbare Reichweite hängt neben der Sendeleistung von einer Vielzahl von Parametern ab. Hierzu zählen beispielsweise die Empfindlichkeit eines Empfängers und die Bauformen der auf Funkkommunikationsstrecken eingesetzten Sende- und Empfangsantennen. Auch die Eigenschaften der Umgebung können die Reichweite be- einflussen, beispielsweise Mauern als Hindernisse innerhalb der Funkkommunikationsstrecken. Auch die Typen der Datenpakete können wegen Unterschieden in Länge und Sicherungsmechanismen Einfluss auf die erzielbare Reichweite haben. Um höhere Übertragungsraten über das weltweit verfügbare 2,45-GHz-ISM- Frequenzband zu ermöglichen, plant die Bluetooth SIG die Alternate MAC/PHY- Bluetooth- Erweiterung; hierbei wird Bluetooth um die PHY- und MAC-Schicht der IEEE-802.1 1- Spezifikationen (WLAN-Standards) erweitert. Abhör- und Eindringsicherheit

Als abhörsicher oder sicher gegen unbefugtes Eindringen gelten Bluetooth- Übertragungen nur dann, wenn sie als Verbindung mit mehrstufiger dynamischer Schlüsselvergabe betrieben werden. Bei statischer Schlüsselvergabe ist die Sicherheit eingeschränkt. Bei Übertragung des Schlüssels ist genau dieser Teil der Kommunikation besonders ge- fahrdet, da erst der erfolgreiche Schlüsselaustausch eine Verbindung schützt.

Bluetooth gilt nur dann nicht mehr als sicher, wenn der PIN-Code zu kurz gewählt ist (etwa vier Dezimalziffern oder weniger). Die israelischen Forscher A. Wool und Y. Shaked beschrieben in ihrem Artikel vom Frühjahr 2005 ein Verfahren, mit dem Lauscher eine vorhandene, abhörsichere Verbindung unterbrechen und unter Umständen in eine neue Verbindung einbrechen können. Dieses Daten-Phishing beruht darauf, eine bestehende Verbindung durch entsprechende Störsignale zu unterbrechen und die Teilnehmer dazu zu bewegen, erneut eine authentifizierte Verbindung aufzubauen. Dabei müssen die Angegriffenen erneut ihre PIN bei den verwendeten Geräten einge ben. Die daraufhin stattfindende Authentifizierung mit Neuaushandlung des Verbindungsschlüssels kann dann mit einfach erhältlicher Spezialhardware abgehört und bei schlecht gewählter (weil zum Beispiel achtstellig- numerischer) PIN durch Ausprobieren geknackt werden. Dieser Brute-Force-Angriff kann durch FPGA-Boards weiter be- schleunigt werden. Dies ist kein rein akademischer Angriff, und zum Beweis existiert ein frei zugängliches Programm namens BTCrack. Der Angreifer befindet sich nach er- folgreichem Angriff im Besitz des geheimen Verbindungsschlüssels und kann beliebige Verbindungen zu den angegriffenen Geräten aufbauen. Jedoch muss der Angreifer die Bluetooth- Adresse eines verbundenen Bluetooth-Moduls kennen. Dies kann, entgegen weitläufigen Meinungen, nicht durch den„Unsichtbarkeitsmodus“ unterbunden werden.

Dieser Angriff ist dann möglich, wenn der Angreifer die Kommunikation während des Pairing-Prozesses abhört, der Angegriffene eine Neu-Authentifizierung vomimmt und er eine zu kurze PIN verwendet. Für Geräte, die die Schlüssel permanent speichern, besteht demnach keine Gefahr, da nach Verbindungsstörungen oder manuellem erneuten Verbindungsaufbau keine erneute PIN-Authentifizierung ausgelöst wird, sondern auf den auf beiden Geräten gespeicherten Schlüssel zurückgegriffen wird.

Als Schutz vor solchen Angriffen empfehlen die Autoren daher, Gegenstellen möglichst selten mit PIN-Eingabe anzumelden. Sicherer sei es, einmal erkannte Gegenstellen dau- erhaft in den jeweiligen Authentifizierungslisten zu speichern und eine Reauthentifizie- rung per PIN zu deaktivieren. Außerdem sollten Benutzer PINs mit deutlich mehr als acht Zeichen Länge verwenden, falls die verwendete Software dies gestattet. Das Blue- tooth-Protokoll sieht bis zu 16 beliebige Zeichen (128 Bit) vor. Darüber hinaus sollte eine unerwartete Aufforderung zur erneuten Authentifizierung hellhörig machen und zur Vorsicht mahnen.

Fehlerbehandlung

Bluetooth kennt bis zur Version 2.0 zwei elementare Arten der Fehlerbehandlung (sofern verwendet):

1. 1/3- und 2/3-FEC-Blockcodierung; ermöglicht Fehlerkorrektur beim Empfänger

2. ARQ (Automatic Repeat Request), ermöglicht Fehlererkennung beim Empfänger. Bei Fehlern wird das entsprechende Paket neu angefordert.

Systemarchitektur

Scatternet (Master = rot, Slave = grün, geparkt = blau) Ein Bluetooth-Netzwerk (Piconet) besteht aus bis zu acht aktiven Teilnehmern, welche über eine 3-Bit-Adresse angesprochen werden können. Alle nicht aktiven Geräte kön nen im Parkmodus die Synchronisation halten und auf Anfrage im Netz aktiviert werden. Für den Parkmodus gibt es eine 8-Bit- Adresse, welche 255 Teilnehmer („slaves“) ansprechen kann. Darüber hinaus kann über die 48-Bit- Geräteadresse die Anzahl der passiven Teilnehmer nochmal erhöht werden.

Der„Master“ steuert die Kommunikation und vergibt Sende-Zeiteinheiten (engl „slots“) an die„Slaves“ (Zeitmultiplexverfahren). Ein Bluetooth-Gerät kann in mehre- ren Piconetzen angemeldet sein, allerdings nur in einem Netz als Master fungieren. Bis zu zehn Piconetze bilden ein Scatternet (von to scatter = ausstreuen), wobei die Teilnehmer untereinander in Kontakt treten können. Jedes Piconet wird durch eine unterschiedliche Frequency-Hopping-Folge identifiziert. Die Datenrate leidet in diesem Scatternet jedoch meist erheblich.

Solche selbstorganisierende Funknetzwerke— Scatternet - werden proprietär implementiert, bis heute ist keine allgemeine Lösung standardisiert. Das ist dadurch begründet, dass kein Algorithmus definiert werden kann, der allen Anforderungen an ein Scatternet gleichzeitig gerecht wird und hinreichend schlank und damit schnell bleibt.

Bluetooth-Basisband

Es werden zwei unterschiedliche physische Datenkanäle zur Verfügung gestellt. Die synchrone Datenübertragung ist zur Übertragung von Sprachdaten, mit einer Datenrate von 64 kbit/s gedacht. Dieses Verfahren heißt leitungsvermittelte oder synchrone Ver- bindung (Synchronous Connection-Oriented - SCO). Die andere Übertragungsform ist die Paketvermittlung oder asynchrone Verbindung (Asynchronous Connectionless - ACL), die ein speicherndes Verhalten des Übertragungsgerätes voraussetzt, wie bei der Internet-Technik. Alles außer Sprache wird über ACL übertragen, neben allen Arten von Daten insbesondere auch Musik. Das Bluetooth-Protokoll unterstützt einen asymmetrischen Datenka- nal mit Datenraten in der Version 1.2 von maximal 732,2 kbit/s in eine Richtung und57,6 kbit/s in die Gegenrichtung, oder eine symmetrische Datenverbindung mit 433,9 kbit/s in beide Richtungen ln der EDR-Version sind höhere Datenraten erzielbar. Bis zur Version 1.2 gibt es für die SCO-Übertragung nur HV1-, HV2- und HV3-Pakete mit guter Fehlerkorrektur (HV1) bis zu keiner (HV3). Diese Pakete enthalten Audioda- ten für 1,25 ms, 2· 1,25 ms oder 3 - 1 ,25 ms und werden dementsprechend alle 1,25 ms, 2· 1,25 ms und 3· 1,25 ms gesendet. HV1 kann benutzt werden, wenn keine anderen Daten gesendet werden müssen. Allerdings hat diese Betriebsart den höchsten Stromver- brauch, weswegen fast alle Geräte HV3-Pakete nutzen. Dies hat den Vorteil, dass man nur ein Drittel der Bandbreite für Audio benötigt und den Rest der Bandbreite für ACL- Verbindungen zum selben oder zu anderen Geräten zur Verfügung stellen kann.

Mit der Version 1.2 wurde ein erweiterter synchroner Übertragungsmodus (enhanced SCO, eSCO) eingeführt. Dazu wurden neue Pakettypen und eine flexiblere Einteilung der Übertragungsperiode eingeführt. Ebenso ermöglicht dies, andere Audio-Formate zu übertragen wie z. B. der SBC-Codec, der auch in der HFP-Version eingeführt werden soll.

Werden gerade keine synchronen Datenpakete versandt, kann Bluetooth die asynchrone Übertragung anbieten. Hierüber werden alle Dienste, sowohl das Versenden von Nutz datenpaketen als auch die Übermittlung von Steuerinformationen, zwischen zwei Blue- tooth-Stationen abgewickelt.

Bluetooth-Datenpakete bestehen aus einem 72-Bit-Zugriffscode, einem 54-Bit- Header sowie einem variablen Nutzdatenfeld von 0 Bit bis 2745 Bit (Pakettyp DH5) Länge. Für Bluetooth 2.0 °+ EDR sind bis zu 8168 Bit Nutzdaten pro Paket (3-DH5) möglich.

V erbindungsaufbau

Der Aufbau einer Verbindung erfolgt immer unter der Protokollarchitektur nach Blue- tooth V2.1 usw. (Neu ist ab Standard Biuetootn V3.0 und mit dem Protokoll Bluetooth V4.0 Low Energy ein verbindungsloser Betrieb in Sende- und Empfangsrichtung mög- lieh). Eine Verbindung kann von einem beliebigen Gerät ausgehen, das sich dadurch zum„Master“ über die antwortenden„Slaves“ erhebt.

Sobald Bluetooth-Geräte in Betrieb gesetzt werden, identifizieren sich die einzelnen Bluetooth-Controller innerhalb von zwei Sekunden über eine individuelle und unverwechselbare 48 bit lange MAC-Adresse. Im Bereitschafts-Modus lauschen unverbundene Geräte in Abständen von bis zu 2,56 Sekunden nach Nachrichten (Scan Modus) und kontrollieren dabei 32 Hop-Frequenzen. Der Kontakt zu den Slaves wird durch eine Inquiry-Nachricht (von englisch inquiry = Erkundigung) und danach durch eine Page- Message (von to page (engl.) = (per Lautsprecher) ausrufen, message (engl.) = Nachricht) hergestellt, falls die Hardware-Adresse der Geräte unbekannt ist. Bei bekannter Adresse fallt der erste Schritt weg. Im Page- Zustand sendet der Master 16 identische Page-Telegramme auf 16 unterschiedlichen Hopping-Frequenzen, die für die Slaves bestimmt sind. Danach befinden sich die Stationen im Status verbunden. Durchschnittlich wird eine Verbindungsau fnahme innerhalb des halben Scanintervalls, z. B. 2,56/2 Sekunden (1,28 Sekunden), erreicht.

Findet der Master keinen Slave innerhalb einer eingestellten Zeit, so werden auf weiteren 16 Hopping-Frequenzen Page-Telegramme gesendet. Diese Gruppierung soll bei bekannter„Slave Clock“ einen zügigen Verbindungsaufbau gewährleisten. Beim adaptiven Hopping werden die Frequenzen ausgelassen, die bereits durch andere Master belegt sind.

Seit 2005 kann zum Verbindungsaufbau zweier Bluetooth-Geräte optional NFC genutzt werden. Dieses zusätzliche RF-Protokoll unterstützt Bluetooth insbesondere beim erstmaligen Pairing von Bluetooth-OBEX.

Bluetooth-Protokollarchitektur

Die Bluetooth-Spezifikation wurde von der Bluetooth Special Interest Group (SIG) entwickelt. Diese beinhaltet Protokolle in einer hierarchischen Ordnung (Protokollstapel, engl protocol stack), mit denen interaktive Dienste und Anwendungen möglich werden, die über mobile Funkverbindungen kommunizieren.

Diese werden mit Hilfe von Funkmodulen hergestellt und sind verbindungslos oder verbindungsorientiert. Die Bluetooth Special Interest Group (SIG) hat zudem auch verschiedene Einsatzmodelle der Bluetooth-Technik entworfen. Die Spezifikation beinhaltet eine Beschreibung der Protokolle, mit denen diese Einsatzmodelle implementiert werden können. Spezielle Zusammenstellungen nach diesen Modellen werden mit den Profilen benutzt.

Mit Bluetooth Low Energy wird kein Energiesparmodus bezeichnet, sondern ein spezieller Protokollstapel, der sich vom zuvor bekannten Protokollstapel unterscheidet, diesen nicht ersetzt, aber neue Möglichkeiten für geringen Energieverbrauch eröffnet. Energiesparmodi

Wenn keine Daten zu übertragen sind, kann eine Verbindung zwischen einem Master und einem Slave in einen Energiesparmodus versetzt werden.

Es gibt drei Energiesparmodi:

-Der HOLD-Modus wird zur asynchronen Abwesenheit eingesetzt. Zum Bei- spiel kann ein Slave mitteilen, dass er ab einem gewissen Zeitpunkt für 200 ms nicht zuhört. Der Master adressiert dann den Slave für die angegebene Zeit nicht, und der Slave hört dann auch nicht auf Master-Pakete. Beide Geräte können dann die Zeit für andere Aktivitäten nutzen (scanning, scatter- net etc.). -Der SNIFF-Modus (von to sniff (engl.) = schnüffeln) wird zur reduzierten periodischen Aktivität eingesetzt. Es kann z. B. ein Slave oder Master mitteilen, dass er nur noch alle 500 ms für einige Zeitfenster ("slots") zuhört. Der SNIFF- Modus wird bei fast allen Geräten, die Energieverbrauch senken sollen, einge- setzt.

-Der PARK-Modus wird eingesetzt, um ein Gerät synchronisiert zu halten. Das Gerät kann aber nicht aktiv am Datenverkehr teilnehmen. Der Park-Modus wird zwar von fast allen Chipsätzen unterstützt, aber trotzdem kaum angewen- det. Details zur Reduzierung des Energieverbrauchs zwecks geringerer Belastung kleiner Batterien sind bei allen bisherigen und neuen Modi von der jeweiligen Abstimmung von Master und Slave abhängig. Sicherheitsmodi

Der Bluetooth-Standard definiert folgende drei Sicherheitsstufen, von der unsichersten angefangen hin zur sichersten:

-Modus 1 (Non-Secure Mode): In diesem Modus gibt es keine Sicherheitsme- chanis- men. Die Geräte wechseln nur fortlaufend die Frequenz, um das Abhö- ren zu erschweren.

-Modus 2 (Service-Level Enforced Security): In diesem Modus liegt es bei den benutzten Diensten, auf dem Application Layer Sicherheitsmechanismen durchzusetzen. Dien- ste können für alle Geräte offen sein, nur eine Authentifi- zierung vorsehen oder noch zusätzlich eine Autorisierung erfordern.

-Modus 3 (Link-Level Enforced Security): In diesem Modus findet schon beim Verbindungsaufbau eine Authentifizierung auf dem Link Layer statt. Verschlüs- selung ist op- tional.

Viele Mobiltelefone können per Bluetooth Daten übertragen. Böswillige Angreifer können unter Umständen per Bluetooth durch unvorsichtig konfigurierte Geräte oder fehlerhafte Implementierungen des Bluetooth-Protokolls in den Geräten hohen finanzi- eilen Schaden durch den Anruf kostenpflichtiger Telefon- und SMS-Dienste verursa chen, private Nutzerdaten lesen, Telefonbucheinträge schreiben und die Liste angerufe ner Nummern zwecks Vertuschung manipulieren. Allgemeine, geräteunabhängige DoS- Angriffe auf Netzwerkprotokollebene sind mit einfachen Mitteln möglich (z. B.„Ping“- Anforderungen mit großen Paketen).

B luetooth-Protoko 1 lstape 1 Bluetooth-Protokollstapel sind Softwarepakete mit Treibern, die eine Verbindung mit Bluetooth-Geräten ermöglichen und Dienste zur Verwendung unterschiedlicher Blue- tooth-Profile enthalten. Welchen Stack man benutzen kann, hängt vom Treiber und vom verbauten Chip ab.

Die bekanntesten Protokollstapel bzw. deren Hersteller sind:

-Affix

-BlueFRITZ! von AVM (Entwicklung eingestellt)

-BlueSoleil von IVT

-BlueZ (Standard unter Linux)

-In The Hand

-lwBT

-Microsoft

-Stollmann

-Toshiba

-Widcomm von Broadcom

Bluetooth-Stack ist auch eine Bezeichnung für Softwarepakete, die für die Entwicklung von Java-Anwendungen mit Bluetooth-Funktionalität benötigt werden. Soll beispielsweise eine J2ME-Anwendung mit einem J2SE-Server kommunizieren können, wird neben einem Bluetooth-Treiber (s. o.) ein Bluetooth-Stack als Schnittstelle zwischen dem Treiber (z. B. Widcomm) und Java benötigt. Bluetooth- Stacks für Java sind bei spielsweise:

-Avetana

-BlueCove Bluetooth-Profile

Siehe auch: Bluetooth-Profile

Daten werden zwischen Bluetooth-Geräten gemäß sogenannten Profilen ausgetauscht, die für die Steuerung bestimmter Dienste als Schicht über der Protokollschicht festgelegt sind. Sobald eine Bluetooth- Verbindung aufgebaut wird, wählen die Geräte das je- weils benutzte Profil aus und legen damit fest, welche Dienste sie für die jeweiligen anderen Partner zur Verfügung stellen müssen und welche Daten oder Befehle sie dazu benötigen. Ein Headset fordert beispielsweise von einem Bluetooth kompatiblen Mobiltelefon einen Audiokanal an und steuert über zusätzliche Datenkanäle die Lautstärkeeinstellung oder -regelung. Geschichte

Schon seit den späten 1980ern gibt es verschiedene Bestrebungen, das Kabelgewirr rund um eine Computerinstallation durch Funkperipherie (z. B. Funktastaturen, Drucker mit Infrarotschnittstelle etc.) zu vermeiden. Verschiedene Unzulänglichkeiten (hoher Stromverbrauch, gegenseitige Störungen usw.) und vor allem fehlende Standards ver- hinderten den Durchbruch dieser Anfänge.

Damals war neben der Funktechnik die Infrarottechnik sehr beliebt, und es sah so aus, als ob sich letztere durchsetzen würde. Um ein herstellerübergreifendes Protokoll zu entwickeln, schlossen sich im August 1993 ca. 30 Unternehmen zusammen (darunter HP, IBM, Digital) und gründeten die Inffared Data Association (IrDA). Ziel war es, ein einheitliches Protokoll für die Datenübertragung per Infrarot zu schaffen. Zahlreiche Erkenntnisse aus der IrDA-Entwicklung flössen später auch in den neugewonnenen Bluetooth-Funkstandard ein. Doch hatte die IrDA-Technik mit einem zentralen Nachteil zu kämpfen: Den erforderlichen Sichtkontakt zwischen Sender und Empfänger. Daher wurde 1994 die Firma Ericsson mit einer Machbarkeitsstudie beauftragt, die einen funkbasierten Ersatz für Kabelverbindungen finden sollte. Die Studie lieferte ein positives Ergebnis, und 1998 gründeten Ericsson, Nokia, IBM, Toshiba und Intel die Bluetooth Special Interest Group (SIG) zur Ausarbeitung eines Standards, der verbindliche Spezifikationen festlegte. Als erste endgültige Spezifikation veröffentlichte die SIG Version 1.0a im Juli 1999, Version 1.0b folgte im Dezember desselben Jahres. Erst im Februar 2001 wurde der Standard in der Version 1.1 vorge- legt. Dieser galt als die erste solide Basis für marktgerechte Produkte, da die Vorversio nen eine Reihe von Ungenauigkeiten und Fehlern aufwiesen. Die Namensgebung„Bluetooth“ ist eine Hommage an den dänischen Wikingerkönig Harald Blauzahn, der für seine Kommunikationsfahigkeit bekannt war. Ihm gelang es im 10. Jahrhundert, Dänemark weitgehend zu vereinen und zu christianisieren. [14] Der Name„Bluetooth“ war ursprünglich ein Codename für die entwickelte Technik, der später mangels guter Alternativen auch als Markenname verwendet wurde. Die Wahl eines skandinavischen Namensgebers erfolgte wegen der hohen Beteiligung der Firmen Ericsson und Nokia an der Bluetooth-Entwicklung.

Ältere Bluetooth-Versionen

Eine Auswahl wichtiger Eigenschaften der bisherigen Bluetooth-Versionen, die inzwischen allesamt nicht mehr der letzten Überarbeitung zur Version 4.0 vom Dezember 2009 (s. o.) entsprechen, sind:

-Bluetooth 1.0 und 1.0B (Juli 1999)

Enthielt Sicherheitsprobleme durch Bluetooth Hardware Device Address Transmission (BD ADDR); maximale Datenübertragungsrate von 732,2 kbit/s

-Bluetooth 1.1 (Februar 2001)

Indikator für die Signalstärke hinzugefügt Received Signal Strength Indication (RSSI); maximale Datenübertragungsrate von 732,2 kbit/s

-Bluetooth 1.2 (November 2003)

Weniger empfindlich gegen statische Störer (zum Beispiel WLAN) durch Adaptive Frequency-Hopping spread spectrum (AFH); neue Pakettypen für synchrone Übertra- gung (eSCO); maximale Datenübertragungsrate vonl Mbit/s

-Bluetooth 2.0 + EDR (November 2004)

Etwa dreifache Datenübertragungsgeschwindigkeit durch Enhanced Data Rate (EDR) mit maximal 2,1 Mbit/s; abwärtskompatibel, d. h., es können gleichzeitig EDR- und Nicnt-EDR-Verbindungen bedient werden. -Bluetooth 2.1 + EDR (auch Lisbon Release genannt, August 2007) Neue Funktionen wie Secure Simple Pairing, Quality of Service.

-Bluetooth 3.0 + HS (auch Seattle Release genannt, April 2009)

Für diese Version ist die Unterstützung eines zusätzlichen Highspeed (HS)- Kanals auf Basis von WLAN und UWB verfügbar. Die Nutzung von WLAN ist dabei lokal deutlich eingeschränkt. Die Kommunikation funktioniert zwischen einzelnen Geräten (Peer- to-Peer) und nicht durch Verteilung (Multicast). Dafür braucht sich der Nutzer auch nicht anzumelden, die L2CAP-Protokollschicht wurde erweitert, um neben dem Stan- dard-Bluetooth-Kanal zusätzlich diesen Highspeed-Kanal zu unterstützen. Damit kann eine theoretische Übertra- gungsrate von 24 Mbit/s erreicht werden.

Bei UWB (Ultrabreitband) als physikalische Übertragungsart (basierend auf der Spezifikation ECMA-368) und WiMedia MAC als Protokollschicht waren bis zu 480 Mbit/s geplant. Auf dieser Spezifikation hätten auch andere Proto- kolle wie WUSB und IP aufgesetzt werden sollen.Die Spezifikation wurde im Oktober 2009 aufgegeben.

-Bluetooth 3.0 + DER

„EDR“ steht für„Enhanced Data rate“.

-Bluetooth 4.0

Die Spezifikation 4.0 wurde am 17. Dezember 2009 verabschiedet. Mit diesem Stan dard wurde erstmals der Protokollstapel Low Energy verfügbar und neue Profile zu Low Energy kamen seitdem laufend hinzu. Entsprechende Chips waren in kleinen Stückzahlen bereits ab dem 4. Quartal 2010 verfügbar, weitere Hinweise ließen mit Bluetooth 4.0 ausgestattete Mobiltelefone ab dem 1. Quartal 201 1 erwarten. Im Juni 201 1 schließlich waren Bluetooth-4.0-konforme Chips bereits von Atheros, CSR, Nor- dic Semiconductor, Texas Instruments, Toshiba sowie EM Microelectronic Marin verfügbar. -Der Standard 4.0 ist abwärtskompatibel mit allen Vorgänger-Versionen.[21] Für Ver bindungen mit den bisherigen Protokollen kommt eine verbesserte Fehler- korrektur zum Einsatz, iur das erforderliche Maß an Sicherheit soll eine AES- Verschlüsselung mit 128 Bit verwendet werden.

-Bluetooth Low Energy/Smart ist ein Teil des 4.0-Standards, bietet allerdings keine Abwärtskompatibilität. Dafür ist es möglich, in weniger als fünf Millise- künden eine Übertragung aufzubauen und diese bis zu einer Entfernung von 100 Metern auffechtzu- erhalten.

-Der wichtigste Vorteil bei Einsatz von Bluetooth Low Energy in neuen Endge- räten ist die Reduzierung des Stromverbrauchs durch Optimierungen, wie die kürzere Aufbauzeit für eine Übertragung oder die Schlafphasen zwischen den synchronisierten Sendezyklen. Allerdings können dadurch keine Audiodaten mehr übertragen werden. -Hybride Geräte, die sowohl Bluetooth Classic als auch Bluetooth Low Energy unterstützen, werden„Smart Ready“ genannt.

Ankündigungen zur Verfügbarkeit von Endgeräten mit Bluetooth 4.0 blieben bis Mitte 201 1 spekulativ und ohne Bestätigung der Lieferbarkeit. Seitdem sind eine Vielzahl verschiedener Endgeräte unterschiedlicher Hersteller auf dem Markt, die den Bluetooth- 4.0-Standard unterstützen. Da Android Bluetooth 4.0 erst in der Mitte 2013 erschienenen Version 4.3 unterstützt, kam es zwischenzeitlich zu der Situation, dass manche Mobiltelefone zwar hardwareseitig Bluetooth 4.0 unterstützten, dies aber mangels ent sprechenden Bluetooth-Protokollstapels nicht nutzen konnten.

- Bluetooth 4.1

Im Dezember 2013 wurde Version 4.1 der Bluetooth-Spezifikation veröffentlicht. Direkt darauf wurden erste Geräte mit dem neuen Standard angekündigt, z. B. das Samsung Galaxy Note 4 und das Nexus 6.

-Bluetooth 4.2 Smart Im Dezember 2014 wurde der Bluetooth-4.2-Standard vorgestellt. Hauptaugenmerk bei der Entwicklung waren erweiterte Sicherheitsmerkmale, eine höhere Übertragungsgeschwindigkeit und ein noch sparsamerer Bluetooth-"Low Energy"- Modus. Neuere Geräte wie das Samsung Galaxy Note 5 und das Apple iPhone 6 unterstützen auch diesen Standard.

Bluetooth 5

Am 16. Juni 2016 wurde Bluetooth 5 offiziell angekündigt. Laut dieser Ankündigung soll die Reichweite vervierfacht (100 m) und die Datenrate verdoppelt (2 Mbit/s brutto ohne EDR) werden. Zusätzlich sollen neue Dienste wie Standortübermittlung eingeführt werden. Die endgültige Verabschiedung fand am 6. Dezember 2016 statt.

Einsatzbereiche Computer

Zum Betrieb von Bluetooth am PC ist spezielle Hardware erforderlich. Manche Compu- ter (zumeist Notebooks) haben diese bereits integriert, ansonsten sind auch kleine, an der USB-Schnittstelle angeschlossene Geräte oder PCMCIA-Karten für diesen Zweck erhältlich. Außerdem spielt das verwendete Betriebssystem eine entscheidende Rolle. Unter Microsoft Windows ist es seit Windows XP SP2 dank des mitgelieferten Microsoft Bluetooth- Stacks nicht mehr erforderlich, einen speziellen Treiber zu instal- Heren. Eine größere Auswahl an unterstützenden Profilen hat man jedoch mit den Blue- tooth-Stacks anderer Hersteller. Auch aktuelle Linux- Distributionen und Apple- Macintosh-Modelle unterstützen Bluetooth durch eigene, jeweils zertifizierte Bluetooth- Stacks. Wer einen PC mit Bluetooth zur Verfügung hat, kann außerdem mit der passen den Software andere Bluetooth-Geräte in Reichweite aufspüren und, je nach Funktions- umfang der Software, eine detaillierte Auflistung der offenen Dienste einsehen. Solche Software wird als Bluetooth-Scanner bezeichnet.

Bluetooth- Anwendungen am Computer -SCO-Audio: synchroner Headset-Betrieb (Skype, SIP usw.) -AV- oder A2DP-Audio: HiFi-Musikwiedergabe geeignet zum Anschluss eines oder mehrerer Kopfhörer

-Mobiltelefon-Synchronisation (Kontakte, Musikdateien, mobiler Internet-Zu- gang usw.)

-HID: Eingabegeräte wie Maus und Tastatur

-Motion Capturing: Übertragung von Bewegungsdaten an den Auswertungs- Computer (zum Beispiel Xsens MVN)

-Zwei-Faktor-Authentifizierung nach dem U2F-Standard der FIDO-Allianz Freisprech anlagen und Headsets

Viele Autoradios fungieren als Freisprechanlage, indem sie das Mobiltelefon über Blue- tooth einbinden, so dass auf die Installation spezieller Handy-Halterungen im Auto ver zichtet werden kann. Über Bluetooth kann nicht nur ein Anruf entgegengenommen werden, sondern auch gewählt und navigiert werden. Sinnvolle Zusatzinformationen wie Nummer des Anrufenden bzw. dessen Namen werden ebenfalls vom Handy - Adressbuch per Bluetooth an das Autoradio übertragen. Auch Freisprechanlagen außerhalb des Autos funktionieren über Bluetooth. Headsets, die über Bluetooth verbunden werden, können oft über eine entsprechende Taste auch eingehende Anrufe entgegennehmen.

Die Unterstützung solcher Steuerfunktionen (z. B. Aktivierung des Sprachassistenten am Smartphone) variiert stark mit den verwendeten Geräten und ist abhängig von den Hersteller-Chips, resp. deren Programmierung gemäß den Möglichkeiten der entsprechenden Bluetooth-Protokollstapel. Spielgeräte

Die Spielzeugindustrie verwendet diese Technik, um Puppen und Spielzeugtiere untereinander kommunizieren und interagieren zu lassen.

Auch die Controller der Nintendo Wii / Wii U / Switch, der Playstation 3 / Playstation 4, der Xbox One S / Xbox One X, Lego Mindstorms EV3 und der Ouya nutzen Blue- tooth zur Kommunikation mit der Konsole. Kommunikation

Bluetooth-Hotspots als Funkzelle ermöglichen einen schnurlosen Zugriff auf ein Netzwerk, wie das Internet oder ein Unternehmens-LAN. Audiogeräte ohne Bluetooth, ins besondere ältere Mobiltelefone und Festnetztelefone, können über einen angeschlosse- nen Adapter eingeschränkt um Bluetooth erweitert werden. Speziell für Motorrad sprechanlagen wird in den letzten Jahren von vielen Herstellern vermehrt Bluetooth eingesetzt, mit Reichweiten bis zu 1 ,6 km. Besondere Vorteile sind sehr kleine Baugrößen und der Verzicht auf störende Kabel.

Über Bluetooth können auch universelle zusätzliche Faktoren für die Zwei-Faktor- Au- thentifizierung mit Betriebssystemen oder Webbrowsern kommunizieren, wie zum Beispiel Security-Tokens für den offenen U2F-Standard der FIDO-Allianz.

Industrie

Aufgrund des eingesetzten adaptiven Frequenzsprungverfahrens (AFH) bietet Bluetooth eine sehr zuverlässige und störungsresistente Funkverbindung. Dieser Vorteil von Bluetooth gegenüber anderen Funktechniken wurde frühzeitig von verschiedenen Herstellern für Automatisierungsprodukte (z. B. Phoenix Contact, WAGO Kontakttechnik GmbH & Co. KG, Schildknecht AG) erkannt. Daraufhin wurden Bluetooth-basierende Industrieprodukte entwickelt, die in verschiedensten Bereichen der Industrie eingesetzt werden, um kabellos zwischen verschiedenen Komponenten in Maschinen zu kommunizieren.

Mittlerweile hat die PROFIBUS Nutzerorganisation e. V. (PNO) Bluetooth neben WLAN als Trägerverfahren für kabellose Übertragung von PROFINET-Datenpaketen auf der Feldbus-Ebene definiert. Auf der Sensor/ Aktor-Ebene wurde im PNO-Standard WSAN-FA ebenfalls 802.15.1 als Trägertechnologie verwendet, jedoch mit einem anderen Protokollstack. Auch die Vereinigung CAN in Automation (CiA) plant die Spezifikation eines auf Bluetooth basierenden Systems für die kabellose Übertragung von CAN-Telegrammen. Insgesamt untermauern die Standardisierungsbestrebungen die Tauglichkeit von Bluetooth für die industrielle Automation. Haustechnik

Im Bereich Hausautomation und Alarmsysteme gibt es Produkte, welche Bluetooth 2.0 nutzen.

Eine weitere Anwendung ist Bluetooth als Schlüssel, wofür jedes Bluetooth-fähige Ge- rät als Schlüssel eingesetzt werden kann. Es ist hierfür keine weitere Software auf den Geräten (Mobiltelefone) notwendig.

Medizintechnik

In der Orthopädietechnik wird Bluetooth zur Einstellung moderner Arm- und Beinpro- thesen verwendet. Einstellungen wie Standphasendämpfung und Maximallast lassen sich per Bluetooth vornehmen.

Hörgeräte in höheren Preisklassen sind ebenfalls mit Bluetooth-Empfängern erhältlich. Damit lassen sich die Signale von Mobiltelefonen und Audio-Geräten selektiv über ei- nen Transponder ohne umgebungsbedingte Verzerrungen auf das Hörgerät übertragen. Der Transponder kommuniziert über Bluetooth und überträgt die Informationen in den Funkbereich der Hörgeräte.

Bei einigen Insulinpumpen dient Bluetooth als Schnittstelle zur Kommunikation mit einem Blutzuckermessgerät, einer Fernbedienung oder einem Personalcomputer.

Anmerkungen

„HID Proxy Mode“ für Computer ohne Bluetooth-Unterstützung

Üblicherweise stehen die Bluetooth-Eingabegeräte erst dann zur Verfügung, wenn das Betriebssystem und dessen Bluetooth-Stack geladen sind. Dadurch ist es nicht möglich, mit einer Bluetooth-Tastatur z. B. vor dem Laden des Betriebssystems Einstellungen im BIOS oder im UEFI-Einstellungsmenü vorzunehmen oder den PC per„Wake up on Keyboard“-Funktion aus dem S4-Ruhemodus zu wecken oder aus dem ausgeschalteten Modus einzuschalten. Zudem ist bei einigen Systemen das Nachrüsten einer Bluetooth- Schnittstelle aus verschiedenen Gründen nicht problemlos möglich. Dazu gehören viele Smart-TVs, vieie Microcontroiier-Boards, NAS-Systeme, Rack-Server. Einige Bluetooth-Adapter überwinden diese Probleme durch den„HID Proxy Mode“. Durch einen Mikrocontroller stellen solche Adapter selbst einen Bluetooth-Stack für Bluetooth-Eingabegeräte zur Verfügung. Diese Geräte können sich mit dem Bluetooth- Adapter vor dem Laden des Betriebssystems verbinden und somit für die Wake-Up-on- Keyboard-Funktion oder Änderungen im BIOS oder im UEFI- Einstellungsmenü verwendet werden. Der Bluetooth-Adapter gibt sich dabei dem BIOS und der UEFI- Firmware gegenüber als normales USB-HID-Eingabegerät aus. Er übergibt die BT- Funktionalität an das Betriebssystem, sobald dessen Bluetooth- Treiber und Bluetooth- Stack geladen sind, womit dann neben Bluetooth- Eingabegeräten auch andere Blue- tooth-Geräte verwendet werden können.

Die UEFI-Firmware könnte auch selbst einen Bluetooth-Stack für Bluetooth- Eingabegeräte zur Verfügung stellen, so dass Bluetooth-Eingabegeräte auch ohne HID-Proxy- Mode-Unterstützung bereits im UEFI-Menü verwendet werden können. Eine konkrete Implementierung eines Bluetooth-Stacks für die UEFI-Firmware von Hauptplatinen ist allerdings noch nicht bekannt.

31. Router

Router (['ru:ta(r)] oder ['rau to(r)]) oder Netzwerkrouter sind Netzwerkgeräte, die Netzwerkpakete zwischen mehreren Rechnemetzen weiterleiten können. Sie werden am häufigsten zur Internetanbindung, zur sicheren Kopplung mehrerer Standorte (Virtual Private Network) oder zur direkten Kopplung mehrerer lokaler Netzwerksegmente, gegebenenfalls mit Anpassung an unterschiedliche Netzwerktechniken eingesetzt (Ethernet, DSL, PPPoE, ISDN, ATM etc.).

Router treffen ihre Weiterleitungsentscheidung anhand von Informationen aus der Netzwerk-Schicht 3 (für das IP-Protokoll ist das der Netzwerkanteil in der IP- Adresse). Viele Router übersetzen zudem zwischen privaten und öffentlichen IP- Adressen (Network Address Translation, Port Address Translation, NAT/PAT) oder bilden Fire- wall-Funktionen durch ein Regelwerk ab. Die für die Kopplung von Heimnetzwerken ans Internet ausgelegten Router nennt man auch Intemetrouter.

Router arbeiten auf Schicht 3 (Vermittlungsschicht/Network Layer) des OSI- Refe- renzmodells. Ein Router besitzt mindestens eine Schnittstelle (englisch Interface), die Netze anbindet. Schnittstellen können auch virtuell sein, wenn diese z.B. zum Vermitteln von Daten zwischen virtuellen Netzen (VLAN) verwendet werden. Beim Eintreffen von Datenpaketen muss ein Router anhand der OSI- Schicht-3-Zieladresse (z. B. der Netzanteil der IP-Adresse) den besten Weg zum Ziel und damit die passende Schnitt- stelle bestimmen, über welche die Daten weiterzuleiten sind. Dazu bedient er sich einer lokal vorhandenen Routingtabelle, die angibt, über welchen Anschluss des Routers oder welchen lokalen oder entfernten Router welches Netz erreichbar ist.

Router können Wege auf drei verschiedene Arten lernen und mit diesem Wissen die Routingtabelleneinträge erzeugen:

-direkt mit der Schnittstelle verbundene Netze: Sie werden automatisch in eine Routingtabelle übernommen, wenn ein Interface mit einer IP-Adresse konfigu- riert wird und dieses Interface aktiv ist ("link up"). -statische Routen: Diese Wege werden durch einen Administrator eingetragen. Sie dienen zum einen der Sicherheit, sind andererseits nur verwaltbar, wenn ihre Zahl begrenzt ist. Die Skalierbarkeit ist für diese Methode ein limitierender Faktor.

-dynamische Routen: In diesem Fall lernen Router erreichbare Netze durch ein Rou- tingprotokoll, das Informationen über das Netzwerk und seine Teilnehmer sammelt und an die Mitglieder verteilt.

Die Routingtabelle ist in ihrer Funktion einem Adressbuch vergleichbar, in dem nachgeschlagen wird, ob ein Ziel-IP-Netz bekannt ist, also ob ein Weg zu diesem Netz exi- stiert und, wenn ja, welche lokale Schnittstelle der Router zur Vermittlung der Daten zu diesem verwenden soll. Die Routing-Entscheidung erfolgt üblicherweise nach der Si- gnifikanz der Einträge; spezifischere Einträge werden vor weniger spezifischen ge wählt. Eine vorhandene Default-Route stellt dabei die am wenigsten spezifische Route dar, welche dann genutzt wird, wenn zuvor kein spezifischer Eintrag für das Ziel(-Netz) existiert. Bei einem Bezug der gesamten Internet-Routing- Tabelle im Rahmen des In- ter-AS-Routing ist es üblich, keine Default-Route vorzuhalten.

Einige Router beherrschen englisch Policy Based Routing (für strategiebasiertes Routing). Dabei wird die Routingentscheidung nicht notwendigerweise auf Basis der Zieladresse (OSI-Layer 3) getroffen, sondern es können auch andere Kriterien des Da tenpaketes berücksichtigt werden. Hierzu zählen beispielsweise die Quell-IP- Adresse, Qualitätsanforderungen oder Parameter aus höheren Schichten wie TCP oder UDP. So können zum Beispiel Pakete, die HTTP (Web) transportieren, einen anderen Weg nehmen als Pakete mit SMTP-lnhalten (Mail). Router können nur für Routing geeignete Datenpakete, also von routingfähigen Proto kollen, wie IP (IPv4 oder IPv6) oder IPX/SPX, verarbeiten. Andere Protokolle, wie das ursprünglich von MS-DOS und MS-Windows benutzte NetBIOS und NetBEUI, die nur für kleine Netze gedacht waren und von ihrem Design her nicht routingfahig sind, werden von einem Router standardmäßig nicht weitergeleitet.

Es besteht jedoch die Möglichkeit, solche Daten über Tunnel und entsprechende Funktionen, wie Datalink Switching (DLSw), an entfernte Router zu vermitteln und dort dem Ziel zuzustellen. Pakete aus diesen Protokollfamilien werden in aller Regel durch Sy steme, die auf Schicht 2 arbeiten, also Bridges oder Switches, verarbeitet. Professionel- Ie Router können bei Bedarf diese Bridge-Funktionen wahrnehmen und werden Layer- 3-Switch genannt. Als Schicht-3-System enden am Router alle Schicht-2-Funktionen, darunter die Broadcastdomäne.

Das ist insbesondere in großen lokalen Netzen wichtig, um das Broadcast-Aufkommen für die einzelnen Teilnehmer eines Subnetzes gering zu halten. Sollen allerdings Broadcast-basierte Dienste, wie beispielsweise DHCP, über den Router hinweg funk- tionieren, muss der Router Funktionen bereitstellen, die diese Broadcasts empfangen, auswerten und gezielt einem anderen System zur Verarbeitung Zufuhren können (Relay- Agent- Funktion). Außerdem sind Ein- und Mehrprotokoll-Router (auch Multiprotokoll-Router) zu unterscheiden. Einprotokoll-Router sind nur für ein Netzwerkprotokoll wie IPv4 geeignet und können daher nur in homogenen Umgebungen eingesetzt werden. Multiprotokoll- Router beherrschen den gleichzeitigen Umgang mit mehreren Protokollfamilien, wie DECnet, IPX/SPX, SNA, IP und anderen. Heute dominieren IP- Router das Feld, da praktisch alle anderen Netzwerkprotokolle nur noch eine untergeordnete Bedeutung haben und, falls sie zum Einsatz kommen, oft auch gekapselt werden können (NetBIOS over TCP/IP, IP-encapsulated IPX). Früher hatten Mehrprotokoll-Router in größeren Umgebungen eine wesentliche Bedeutung, damals verwendeten viele Hersteller unterschiedliche Protokollfamilien, daher kam es unbedingt darauf an, dass vom Router mehrere Protokoll-Stacks unterstützt wurden. Multiprotokoll-Router finden sich fast ausschließlich in Weitverkehrs- oder ATM-Netzen.

Wichtig ist die Unterscheidung zwischen den gerouteten Protokollen (wie Internet Pro- tocol oder IPX) und Routing-Protokollen. Routing-Protokolle dienen der Verwaltung des Routing- Vorgangs und der Kommunikation zwischen den Routern, die so ihre Routing-Tabellen austauschen (beispielsweise BGP, RIP oder OSPF). Geroutete Protokolle hingegen sind die Protokolle, die den Datenpaketen, die der Router transportiert, zugrunde liegen. Typen (Bauformen)

Backbone-Router, Hardware-Router Avaya ERS-8600

Die Hochgeschwindigkeitsrouter (auch Carrier-Class-Router) im Internet (oder bei großen Unternehmen) sind heute hochgradig auf das Weiterleiten von Paketen optimierte Geräte, die viele Terabit Datendurchsatz pro Sekunde in Hardware routen können. Die benötigte Rechenleistung wird zu einem beträchtlichen Teil durch spezielle Netzwerkinterfaces dezentral erbracht, ein zentraler Prozessor (falls überhaupt vorhanden) wird nicht oder nur sehr wenig belastet. Die einzelnen Ports oder Interfaces können unabhängig voneinander Daten empfangen und senden.

Sie sind entweder über einen internen Hochgeschwindigkeitsbus (Backplane) oder kreuzweise miteinander verbunden (Matrix). Meist sind solche Geräte für den Dauerbetrieb ausgelegt (Verfügbarkeit von 99,999 % oder höher) und besitzen redundante Hardware (Netzteile), um Ausfälle zu vermeiden. Üblich ist es auch, alle Teilkomponenten im laufenden Betrieb austauschen oder erweitern zu können (hot plug). In den frühen Tagen der Rechnervernetzung war es dagegen üblich, handelsübliche Worksta- tions als Router zu benutzen, bei denen das Routing per Software implementiert war.

Border-Router

Ein Border-Router oder Edge-Router kommt meistens bei Internetdienstanbietern (Internet Service Provider) zum Einsatz. Er muss die Netze des Teilnehmers, der ihn betreibt, mit anderen Peers (Partner-Routern) verbinden. Auf diesen Routern läuft überwiegend das Routing-Protokoll BGP.

Zur Kommunikation zwischen den Peers kommt meist das Protokoll EBGP (External Border Gateway Protocol) zum Einsatz, dieses ermöglicht dem Router den Datentrans fer in ein benachbartes autonomes System.

Um den eigenen Netzwerkverkehr zu priorisieren, setzen die Betreiber oft Type of Ser vice Routing und Methoden zur Überwachung der Quality of Service (QoS) ein.

High-End-Switches

Bei manchen Herstellern (beispielsweise bei Hewlett-Packard) finden sich die Hochgeschwindigkeitsrouter (auch Carrier-Class-Router, Backbone-Router oder Hardware- Router) nicht unter einer eigenen Rubrik Router. Router werden dort gemeinsam mit den besser ausgestatteten Switches (Layer-3-Switch und höher, Enterprise Class) ver- marktet. Das ist insoweit logisch, als Switches ab dem gehobenen Mittelklasse-Bereich praktisch immer die Routingfunktionalität beherrschen.

Technisch sind das Systeme, die, ebenso wie die als Router bezeichneten Geräte, hoch- gradig auf das Weiterleiten von Paketen (Router: anhand der OSI-Schicht-3-Adresse wie die IP-Adresse, Switch: anhand der OSI-Schicht-2- Adresse, der MAC-Adresse) optimiert sind und viele Gigabit Datendurchsatz pro Sekunde bieten. Sie werden per Managementinterface konfiguriert und können wahlweise als Router, Switch und natürlich im Mischbetrieb arbeiten. In diesem Bereich verschwimmen auch finanziell die Grenzen zwischen beiden Geräteklassen mehr und mehr.

Software-Router

Anstatt spezieller Routing-Hardware können gewöhnliche PCs, Laptops, Nettops, Unix- Workstations und -Server als Router eingesetzt werden. Die Funktionalität wird vom Betriebssystem übernommen und sämtliche Rechenoperation von der CPU ausgefiihrt. Alle POSIX-konformen Betriebssysteme beherrschen Routing von Haus aus und selbst MS-DOS konnte mit der Software KA9Q von Phil Karn mit Routing- Funktionalität erweitert werden.

Windows bietet in allen NT-basierten Workstation- und Server- Varianten (NT, 2000, XP, 2003, Vista, 7) ebenfalls Routing-Dienste. Die Serverversion von Apples Mac OS X enthält Router-Funktionalität. Das freie Betriebssystem OpenBSD (eine UNIX-Variante) bietet neben den eingebauten, grundlegenden Routingfunktionen mehrere erweiterte Routingdienste, wie Open- BGPD und OpenOSPFD, die in kommerziellen Produkten zu finden sind. Der Linux- Kernel enthält umfassende Routing-Funktionalität und bietet sehr viele Konfigurationsmöglichkeiten, kommerzielle Produkte sind nichts anderes als Linux mit proprie- tären Eigenentwicklungen. Es gibt ganze Linux-Distributionen, die sich speziell für den Einsatz als Router eignen, beispielsweise Smoothwall, IPCop oder FH41. Einen Spezialfall stellt OpenWrt dar, diese erlaubt es dem Benutzer eine Firmware zu erstellen, die auf einem embedded Gerät läuft und sich über SSH und HTTP konfigurieren lässt.

Der entscheidende Nachteil von Software-Routern auf PC-Basis ist der hohe Stromverbrauch. Gerade im SoHo-Bereich liegen die Stromkosten innerhalb eines Jahres höher als der Preis für ein embedded Gerät.

DSL-Router

Ein Router, der einen PPPoE-Client zur Einwahl in das Internet via xDSL eines ISPs beinhaltet und gegenwärtig Network Address Translation (NAT) in IPv4-Netzen zur Umsetzung einer öffentlichen IPv4-Adresse auf die verschiedenen privaten IPv4- Adressen des LANs beherrscht, wird als DSL-Router bezeichnet. Häufig sind diese DSL-Router als Multifunktionsgeräte mit einem Switch, einem WLAN Access Point, nicht selten mit einer kleinen TK-Anlage, einem VoIP-Gateway oder einem DSL- Mo- dem (xDSL jeglicher Bauart) ausgestattet.

Firewall-Funktionalität in DSL-Routern

Fast alle DSL-Router sind heute NAT-fähig, mithin in der Lage Netzadressen zu übersetzen. Weil ein Verbindungsaufbau aus dem Internet auf das Netz hinter dem NAT- Router nicht ohne weiteres möglich ist, wird diese Funktionalität von manchen Herstellern bereits als NAT-Firewall bezeichnet, obwohl nicht das Schutzniveau eines Paketfilters erreicht wird. Die Sperre lässt sich durch die Konfiguration eines Port Forwarding umgehen, was für manche Virtual Private Network- oder Peer-to-Peer- Verbindungen notwendig ist. Zusätzlich verfügen die meisten DSL-Router für die Privatnutzung über einen rudimentären Paketfilter, teilweise auch statefül. Diese Paketfilter kommen bei IPv6 zum Einsatz. Wegen des Wegfalls von NAT wird Port Forwarding wieder zu einer einfachen Freigabe des Ports. Als Betriebssystem kommt auf vielen Routern dieser (Konsumer-) Klasse Linux und als Firewall meist iptables zum Einsatz. Einen Content- Filter enthalten solche Produkte zumeist nicht. Eine wohl sichere Alternative sind freie Firewall-Distributionen auf Basis wohl sichererer Betriebssysteme, zum Beispiel OPN- sense. Schutzmaßnahmen bei DSL- und WLAN-Routem

Bei entdeckten Programmierfehlern kann ein Router-Hersteller ein neues Software- Update bereitstellen, um nachzubessem bzw. Sicherheitslücken zu schließen. Wird der Router dann nicht auf den neuesten Stand gebracht, gefährdet man die eigene Netz- Werksicherheit zusätzlich. Daher ist es auch zum Schutz der persönlichen Daten unerlässlich, dass in regelmäßigen Abständen ein Software-Update durchgefiihrt wird. Weitere Maßnahmen, um Router zu schützen:

-nur aktuelle WLAN-Verschlüsselungen (WPA2) verwenden - WEP-verschlüs- selte Zugänge können binnen weniger Minuten entschlüsselt werden

- vom Hersteller vorgegebene Passwörter ändern, nur sichere Passwörter wählen -die SSID umbennen Deaktivieren von WPS und der Fernadministration

-keine Netzwerkports willkürlich und unüberlegt öffnen

-Deaktivieren von UPnP-Funktionen, die beliebiger Software das Öffnen von Netz- werkports ermöglicht

-Absichern von Diensten, die per Portweiterleitung aus dem Internet erreicht werden können

-eine leistungsfähige (dedizierte) stateful-Firewall wie pfSense oder OPNsense (letztere mit ASLR und LibreSSL) mit einem reinen DSL-Modem

WLAN-Router

Die Kombination aus Wireless Access Point, Switch und Router wird häufig als WLAN-Router bezeichnet. Das ist solange korrekt, wie es Ports für den Anschluss mindestens eines zweiten Netzes, meist einen WAN-Port, gibt. Das Routing findet zwi- sehen den mindestens zwei Netzen, meist dem WLAN und WAN statt (und falls vorhanden zwischen LAN und WAN). Fehlt dieser WAN-Port, handelt es sich lediglich um Marketing-Begriffe, da reine Access Points auf OSI-Ebene 2 arbeiten und somit Bridges und keine Router sind.

Häufig sind WLAN-Router keine vollwertigen Router, sie haben oft die gleichen Ein- Schränkungen wie DSL-Router (PPPoE, NAT). Bei IPv6 entfällt bei diesen Geräten NAT, lediglich in der Übergangsphase muss der Router noch zusätzlich Tunnelprotokolle wie 6to4 beherrschen.

Router in der Automatisierung

Mit der Durchdringung von Netzwerktechnik in der industriellen Automatisierung werden verstärkt Modem-Router mit externem Zugang über Telefon- und Mobilfunkverbindungen eingesetzt. Industriegeräte sind Software-Router auf Basis von embedded Linux, die nicht auf hohen Durchsatz, sondern auf mechanische Robustheit, Befesti gung im Schaltschrank und Langlebigkeit optimiert sind.

Software- oder Hardware-Router

Generell leisten Software-Router überwiegend im nicht professionellen Umfeld wertvolle und umfangreiche Dienste. Allgemein gibt es für Software-Router zwei unterschiedliche Implementierungsarten, zum einen dedizierte Router, dabei wird ein PC, ei- ne Workstation oder ein Server so gut wie ausschließlich als Router eingesetzt (häufig als DHCP-, DNS-Server oder Firewall); zum anderen nicht dedizierte Router, hier übernimmt ein Server zusätzlich zu seinen bestehenden Aufgaben noch das Routing. Beide Systeme sind für den performance-unkritischen Bereich gut geeignet und können mit professionellen Lösungen, vor allem was die Kosten angeht, konkurrieren, in der Leistungsfähigkeit sind sie meist unterlegen.

Das liegt unter anderem daran, dass solche Systeme bislang häufig noch auf einem klassischen PCI-Bus mit 32-Bit Busbreite und 33-MHz-Taktung (PCI/32/33) beruhten. Über einen solchen Bus lassen sich theoretisch 1 GBit/s (1000 MBit/s, entspricht etwa 133 MByte/s) im Halb-Duplex-Modus (HDX) leiten; da die Netzwerkpakete den PCI-

Bus in diesem Fall zweimal passieren, (Karte-PCI-Arbeitsspeicher-CPU- Arbeitsspei- cher-PCI-Karte) reduziert sich der maximal routbare Datenstrom eines darauf basierenden Software-Routers auf etwa 0,5 GBit/s. Ethernet wird heute fast immer geswitcht und im Voll-Duplex-Modus FDX betrieben, damit kann beispielsweise Gigabit- Ethernet, obwohl es Namen wie 1 GBit/s Ethernet, lGbE oder 1000BASE-T anders vermuten lassen, bereits 2 GBit/s (je lGbE in jede Richtung) übertragen. Daraus folgt, dass ein System auf PCI/32/33-Basis die netzwerkseitigtheoretisch mögliche maximale Übertragungsrate von 2 GBit/s keinesfalls erreichen kann. Systeme mit einem PCI/64/66-Bus können busseitig etwa 4 GBit/s leisten, gerade ausreichend für die Spitzenlast zweier lGbE-Schnittstellen im FDX-Modus. Noch höherwertige klassi- sehe (legacy) Server-Systeme verfugen über schnellere Schnittstellen (PCI-X 266 oder besser), sowie über mehrere unabhängige PCI- Busse. Sie können ohne Probleme höhe re Durchsatzraten erzielen, aber haben typischerweise einen hohen Energieverbrauch. Weshalb besonders im dedizierten Routerbetrieb, die Kosten-Nutzen-Frage steht. Hardware-Router mit spezialisierten CPUs und anwendungsspezifisch arbeitenden Chipsätzen (anwendungsspezifische integrierte Schaltung kurz ASIC) schaffen das weitaus energieeffizienter.

Erst durch die Einführung von PCI Express (mit 2 GBit/s bei Version 1.x und 4 GBit/s pro Lane bei Version 2.x im FDX-Modus - und mehr) steht auch bei Standard-PCs eine ausreichende Peripherie-Transferleistung für mehrere lGbE- Verbindungen (auch lOGbE) zur Verfügung, so dass sich energieeffiziente, durchsatzstarke Software-Router aus preiswerter Standardhardware bauen lassen. Da bislang alle Werte theoretischer Art sind und in der Praxis nicht nur Daten durch den Bus geleitet werden, sondern Routing- Entscheidungen getroffen werden müssen, wird ein Software-Router möglicherweise weiter an Leistung einbüßen. Vorsichtigerweise sollte in der Praxis nur von der Hälfte des theoretisch möglichen Datendurchsatzes ausgegangen werden. Bei solchen Datenra ten ist mit einem Software-Router zumindest das Kosten-Leistung-Verhältnis gut und ausreichend. Hardware-Router aus dem High-End-Bereich sind, da sie über spezielle Hochleistungsbusse oder„cross bars“ verfügen können, in der Leistung deutlich überlegen - was sich auch im Preis widerspiegelt. Zusätzlich sind diese Systeme für den ausfallsicheren Dauerbetrieb ausgelegt (Verfügbarkeit von 99,999 % und höher). Einfache PCs können da nicht mithalten, hochwertige Server und Workstations verfügen ebenfalls über redun- dante Komponenten und eine für viele Anwendungsfälle ausreichend hohe Ausfallsicherheit. Manche so genannte Hardware-Router bestehen tatsächlich aus PC-Komponenten. Lediglich das Gehäuse oder die zum Teil mechanisch veränderten PCI-Steckplätze und das„kryptische“ Betriebssystem erwecken den Anschein, es handle sich um Spezialsy steme. Zwar arbeiten diese Systeme meist sehr robust und zuverlässig, dennoch wird das Routing per Software durchgeführt.

Routing-Cluster

Um beispielsweise lGbE- oder lOGbE-Netze performant routen zu können, wird nicht unbedingt ein hochpreisiger Hardware- Router benötigt. Geringe Einbußen bei der Über- tragungs-Geschwindigkeit vorausgesetzt, lassen sich Routing-Cluster einsetzen. Dieser kann aus je einem Software-Router (etwa als Workstation mit zwei PCI Express 10GbE-LAN-Karten) pro Ethernet- Strang aufgebaut sein. Die Software- Router werden über einen professionellen Switch mit genügend vielen Ports und entsprechend hoher Durchsatzrate (einige Hundert GBit/s) miteinander verbunden. Im Unterschied zu Net- zen mit zentralem Backbone entspricht die maximale Datendurchsatzrate des gesamten Routing-Clusters der maximalen Durchsatzrate des zentralen Switches (einige Hundert GBit/s). Optional können die Cluster redundant (per High-Availability-Unix oder HA- Linux) ausgelegt sein. Solche Cluster- Systeme benötigen zwar relativ viel Platz und erreichen nicht die Leistung und Zuverlässigkeit von Hochgeschwindigkeitsroutern, dafür sind sie höchst modular, gut skalierbar, vergleichsweise performant und dennoch ko stengünstig. Sie werdeneingesetzt, wo Kosten höher als Leistung bewertet werden, beispielsweise in Schulen oder Universitäten.

32. Li- fi

Li-Fi (englisch light fidelity) ist ein 201 1 vom an der University of Edinburgh arbeitenden deutschen Forscher Harald Haas geprägter Begriff für ein Verfahren der optischen Datenübertragung auf kurze Distanzen (englisch Visible Light Communications, VLC) und ein optisches Äquivalent zu den funktechnisch realisierten WLAN.

Geschichte und Stand der Forschung Im Oktober 201 1 verständigten sich vier Gründungsmitglieder, die norwegische IBSENtelecom, die israelisch-amerikanische Supreme Architecture, TriLumina (USA) und das Fraunhofer-Institut für Photonische Mikrosysteme auf die Bildung eines Li-Fi- Konsortiums zur Bewerbung dieses Standards.

Durch An- und Ausschalten spezieller Leuchtdioden (LEDs) können für die optische Nahbereichskommunikation hohe Datenübertragungsraten erzielt werden: 2013 wurden im Labor 10 Gigabit pro Sekunde erzielt. Als Empfänger fungieren Fotodioden, in der eine Umwandlung der Lichtsignale in elektrische Impulse erfolgt. Mittlerweile wurden unter Laborbedingungen bereits Geschwindigkeiten von ca. 224 Gigabit pro Sekunde erreicht.

Oledcomm führte auf der Consumer Electronics Show 2014 das erste Li-Fi taugliche Mobiltelefon vor.

Harald Haas stellte Ende 2015 eine verbesserte und effizientere Variante von Li-Fi vor, bei dieser wird eine Photovoltaikzelle genutzt, um die Lichtsignale aufzufangen und weiter zu verarbeiten. Bei dieser Version wird nun auch Energie zurückgewonnen und es werden neue Anwendungsmöglichkeiten geschaffen.

Vor- und Nachteile

Im Vergleich zur Funkübertragung steht durch die optische Übertragung eine größere Bandbreite zur Verfügung, was theoretisch auf gleichem Raum eine höhere Anzahl von Datenkanälen erlaubt. Außerdem ist dieses Übertragungsverfahren auch in Bereichen einsetzbar, wo Funksignale wegen der elektromagnetischen Verträglichkeit problematisch sein können, etwa in Flugzeugen oder Krankenhäusern. Ferner ist die Nutzung der optischen Übertragung sicherer, da ein Angreifer physischen Zugang zu der Lichtquelle haben müsste, um Datenpakete abzufangen beziehungsweise zu manipulieren. Im Gegensatz zu Funksystemen ist bei optischer Übertragung im Regelfall nur eine direkte Datenübertragung auf Sicht möglich und eine Datenübertragung durch bspw. Hauswände hindurch nicht möglich. Dies macht bei Li-Fi-Ausstattung ggf. die Installation von ortsfesten Empfangs- und Sendestationen erforderlich. Jedoch ist bei neuester 5G-Technologie im 30-GHz-Bereich auch in jedem Raum ein Sender nötig, weshalb ortsfeste Empfangs- und Sendestationen kein exklusiver Nachteil von Li-Fi mehr sind.

33. Mikroelektronik

Die Mikroelektronik ist ein Teilgebiet der Elektronik, genauer der Halbleiterelektronik, und der Mikrotechnik. Die Mikroelektronik beschäftigt sich mit dem Entwurf, der Entwicklung und der Herstellung von miniaturisierten, elektronischen Schaltungen, heute vor allem integrierten Schaltungen. Diese auf Halbleitern basierenden Schaltungen nutzen viele elektronische Bauelemente, wie sie auch in normalen elektronischen Schaltungen verwendet werden, beispielsweise Transistoren, Kondensatoren, Dioden und Widerstände. In der Geschichte der integrierten Mikroelektronik haben sich verschiedene Schaltkreis familien (TTL, CMOS etc.) herausgebildet, die sich hinsichtlich der eingesetzten Funktionsprinzipien (zum Beispiel bipolare und unipolare Bauelemente/Transistoren) und den damit verbundenen schaltungstechnischen Eigenschaften (Leistungsbedarf, Schalt geschwindigkeit etc.) unterscheiden. Durch neue Entwurfs- und Fertigungsverfahren haben Anwender heute die Möglichkeit, neben Standardschaltkreisen (Mikrocontroller, Speicherbausteine etc.) auch spezielle anwendungsspezifische integrierte Schaltungen (ASIC) rentabel fertigen zu lassen und einzusetzen

Merkmale der Mikroelektronik

Mikroelektronische Schaltungen zeichnen sich gegenüber konventionellen elektroni schen Schaltungen durch zwei Hauptmerkmale aus: die Integration und die Miniaturisierung.

Unter Integration versteht man das Zusammenfassen aller Bauelemente (Transistoren, aber auch Widerstände, Kondensatoren und andere Halbleiterbauelemente) und Ver drahtungen zu einer elektronischen Schaltung auf einem gemeinsamen Substrat. Bei mikroelektronischen Schaltungen werden diese zusätzlich in einem gemeinsamen Arbeitsprozess gefertigt.

Unter Miniaturisierung versteht man in diesem Zusammenhang, dass die einzelnen Bauelemente (und damit die Schaltung als Ganzes) kontinuierlich verkleinert werden. So lagen die Abmessungen für das wichtigste Bauelement, den Transistor, in der Anfangszeit noch bei über zehn Mikrometer. Dem entgegen stehen die Abmessungen von Transistoren (physikalische Gate-Länge) heutzutage von unter 30 nm (2017 ca. 30-24 nm für Intels bzw. Samsungs 14-nm-FinFET-Technik). Durch diese Miniaturisierung lassen sich integrierte Schaltungen mit mehr als einer Milliarde Transistoren auf einem Siliziumstück mit einer Kantenlänge von wenigen (typisch < 10) Millimetern realisieren. Darüber hinaus erlaubt der geringere Abstand zwischen den Bauelementen, die Schaltungen bei höheren Taktffeq uenzen zu betreiben und trotz höherer Rechenleistung die benötigte elektrische Leistung nur geringfügig zu steigern.

Vor der Erfindung der integrierten Schaltungen gab es ebenfalls schon intensive Miniaturisierungsbestrebungen. Schaltungen mit voluminösen Elektronenröhren wurden durch die Entwicklung von Batterieröhren so weit verkleinert, dass beispielsweise tragbare Funkgeräte möglich wurden. Die Einführung der Transistoren brachte einen weite- ren Miniaturisierungsschritt, mit Dickschichtschaltungen als kleinster Ausführung vor den integrierten Schaltungen.

Miniaturisierung von integrierten Schaltkreisen

Die wesentliche Triebkraft für die Verkleinerung der Strukturen ist die Senkung der Fertigungskosten. Die Fertigung von mikroelektronischen Schaltungen erfolgt in Los fertigung auf Halbleiterscheiben (Wafer) bestimmter Größe (4 Zoll bis 12 Zoll).

Dabei werden mehrere hundert bis tausend Chips auf einem Wafer gleichzeitig gefer tigt. Die Fertigungskosten sind hauptsächlich abhängig von der Anzahl der Chips pro Wafer, der Summe der Kosten für die strukturierenden und eigenschaftsändernden Prozesse und der Produktionsausbeute (engl yield). Die Anzahl der Chips pro Wafer lässt sich durch die Verkleinerung der Strukturen (Transistorgrößen, Leitbahnen etc.) erreichen. Um dabei näherungsweise gleiche elektrische Eigenschaften zu erhalten, müssen alle Dimensionen des Chips (Länge, Breite und auch Schichtdicken) gleich skaliert werden. Die Anzahl der Chips steigt (nähe- rungsweise) mit dem Quadrat des Skalierungsfaktors (die Flächenreduktion ist gleich Längenmaßreduktion zum Quadrat plus bessere Randausnutzung minus nichtlineare Ef fekte), das heißt, halbe Chiplängen (Skalierungsfaktor 2) bewirkt eine Vervierfachung der Chipanzahl bei gleicher Wafer-Größe. Die Kosten der Strukturierungsprozesse nehmen jedoch mit steigender Miniaturisierung meist zu. Die Ursache liegt hier zum einen in der steigenden Komplexität der Schaltung und der damit verbundenen steigenden Anzahl notwendiger Prozessschritte, zum anderen in höheren Anforderungen an den Fertigungsprozess an sich (Toleranzen, aufwendigere Fertigungsverfahren etc.).

Eine weitere Kostenreduktion wurde durch größere Wafer erreicht. In den Anfangsjahren nutzten die Hersteller noch Wafer mit einem Durchmesser von 2 bzw. 3 Zoll (entsprechen etwa 51 bzw. 76 mm). Heute (2009) hingegen haben industriell eingesetzte Standardwafer eine Größe von 200 Millimetern, einige Hersteller wie AMD und Intel nutzen sogar 300-mm-Wafer. Entsprechend der Vergrößerung der Waferfläche stieg auch die Anzahl der Chips pro Wafer. Die Fertigungskosten pro Wafer erhöhten sich jedoch trotz erhöhten Anforderungen nur vergleichsweise gering, sodass die Kosten in der Summe reduziert werden konnten. Eine entsprechende Umstellung erfordert jedoch enorme Investitionen in die Fertigungsanlagen.

Gordon Moore formulierte den Sachverhalt der permanenten Fertigungskostenreduktion bereits 1965 - in der Anfangsphase der Mikroelektronik - in der nach ihm benannten Gesetzmäßigkeit, indem er sagte, dass sich die Anzahl der Transistoren auf einem Chip alle zwölf Monate (später achtzehn Monate) verdopple. Seitdem hat die Mikroelektro- nik tatsächlich sowohl in Hinblick auf lntegrationsdichte als auch bei der Verkleinerung der Strukturen kontinuierliche Fortschritte gemacht. Die hohe konstante Fertigungskostenreduktion in der Mikroelektronik war ein wesentlicher Innovationsmotor der letzten dreißig Jahre in einer Vielzahl von Branchen - nicht allein in der Elektronik und Computertechnik (siehe Abschnitt Anwendungen).

Ob dieser Trend weiter aufrechterhalten werden kann, gilt angesichts der Zunahme der Prozesskosten bei Annäherung an physikalische Grenzen und deren Kompensation durch Einsparung der Chipfläche als nicht sicher. Darüber hinaus lassen sich einige Sonderschaltungstechniken nicht mehr herunterskalieren, etwa solche zur Erzielung höherer Spannungen als die Verso rgungsspannung(en) des Chips. Folgen der Miniaturisierung

Die Miniaturisierung von integrierten Schaltkreisen hat neben der Kostensenkung für gleichwertige Produkte noch weitere Auswirkungen Kleinere Transistoren ermöglichen höhere Schaltffequenzen. Zusammen mit kürzeren Leiterbahnen fuhrt dies zu verkürzten Signallaufzeiten. Durch diesen Effekt werden mit der Verkleinerung der Strukturen immer schnellere und damit meist auch leistungsfähigere Schaltungen möglich. Aller dings gibt es auch gegenläufige Effekte. Wie im vorherigen Abschnitt beschrieben, verringern sich mit der Miniaturisierung auch die Schichtdicken in der Metallisierung (Leitbahnen und Zwischenisolationen). Die verkürzten Abstände zwischen den Leiterbahnen fuhren zu höheren Koppelkapazitäten, die als Laufzeitbremse wirken (vgl. RC- Glied).

Einen positiven Effekt hat die Schichtverkleinerung der Gate-Isolationsschicht. Die Transistoren können bei verringerter Spannung betrieben werden und weisen somit eine verringerte Verlustleistung auf (die Verlustleistung pro Fläche steigt jedoch— > schlech- tere Wärmeabfuhr). Des Weiteren bedeutet eine höhere Systemintegration (mehr Funktionen auf einem Chip) weniger Bauelemente auf einer Leiterplatte und damit erhöhte Zuverlässigkeit durch weniger Lötverbindungen. Ohne Verkleinerung und Integration wäre batteriebetriebene, mobile Elektronik nicht denkbar, wie sie heute allgegenwärtig ist: Mobiltelefon, Notebook, PDA etc.

Geschichte, Entwicklung und Personen der Mikroelektronik Vorgeschichte Die Mikroelektronik wird häufig mit der Computer- bzw. Rechnertechnik in Verbindung gebracht oder sogar gleichgesetzt, vor allem die hohe Verbreitung von integrierten Schaltungen in Form von Prozessoren und Mikrocontrollern in nahezu allen Bereichen des heutigen Lebens hat hierzu beigetragen. Elektronische Rechenmaschinen gab es je- doch schon einige Jahrzehnte vor den ersten Transistoren oder Integrierten Schaltungen. Die ersten elektromechanisch arbeitenden Computer - beispielsweise Colossus oder Mark I - entstandenen im Zweiten Weltkrieg Anfang der 1940er Jahre (vgl. Geschichte der Computer). Der 1946 in Betrieb genommene Großrechner ENIAC (Electronic Nu- merical Integrator and Calculator) war der erste universell einsetzbare rein elektroni- sehe Rechner. Diese ersten Rechenmaschinen sind jedoch weder hinsichtlich der Rechenleistung noch der Größe mit heutigen Personalcomputern vergleichbar.

Was für heutige mikroelektronische Schaltungen der Transistor ist, war für den rund 27 Tonnen schweren ENIAC die Elektronenröhre welcher aus 17.468 Elektronenröhren bestand und zu den Röhrencomputern zählt. Die Grundlagen zur Elektronenröhre geht auf die Entdeckung der Glühemission (1883) von Thomas A. Edison zurück (vgl. Ge schichte der Elektronenröhre). Die erste Elektronenröhre, eine Röhrendiode, wurde 1904 von John Ambrose Fleming entwickelt und 1906 von Lee de Forest modifiziert. Forest ergänzte die Röhrendiode um eine dritte Elektrode und schuf damit die Trioden- röhre, das Pendant der Röhrenelektronik zum Transistor.

Als Alternative zu den Digitalrechnern gab es bis in die 1970er Jahre Analog- und Hybridrechner, die bevorzugt zur Berechnung von Differentialgleichungen eingesetzt wurden. Beispielsweise arbeitete der Rockefeiler Differential Analyzer mit Tausenden von Elektronenröhren und elektrischen Relais und war bis zum Ende des Zweiten Weltkriegs die leistungsfähigste Rechenmaschine.

Der Verwendung einer großen Zahl von Elektronenröhren in komplexen Geräten standen einige Nachteile dieser Bauteile entgegen. Elektronenröhren waren relativ fehleran- fällig, benötigten eine Aufwärmzeit und wiesen recht hohe Verlustleistungen auf. Zu den wichtigsten Verbesserungszielen der Entwickler nach der Inbetriebnahme der er- sten elektronischen Rechenmaschinen zählten daher eine erhöhte Zuverlässigkeit und die Verringerung der Herstellungskosten.

Auch die Miniaturisierung war bereits ein wichtiges Thema, die ersten Rechenmaschinen füllten immerhin ganze Räume aus. Elektronenröhren gelten jedoch als kaum mi- niaturisierbar. Dennoch gab es bereits intensive Miniaturisierungsbestrebungen sowohl beim Aufbau der Gesamtschaltung als auch bei den Röhren selbst. Schaltungen mit voluminösen Elektronenröhren wurden durch die Entwicklung von Batterieröhren so weit verkleinert, dass beispielsweise tragbare Funkgeräte möglich wurden. Die Einführung der Transistoren brachte einen weiteren Miniaturisierungsschritt, mit Dickschichtschal- tungen als kleinster Ausführung vor den integrierten Schaltungen.

Eine frühe Form des Arbeitsspeichers von Computern war der Kemspeicher, bei dem viele auf Drähte aufgefadelte hartmagnetische Ringe verwendet wurden, die per Stromstoß ummagnetisiert und ausgelesen werden konnten.

Erfindung des Transistors

Dass die Rechenleistung der damaligen Großrechner selbst mit der von heutigen Ta schenrechnern nicht mehr mithalten kann, ist vor allem der Entwicklung des Transistors auf Grundlage der sogenannten Halbleiter und der Integrierten Schaltungen zu verdan- ken.

Die Entdeckung des Transistors bzw. des Transistoreffekts werden allgemein den amerikanischen Wissenschaftlern John Bardeen, Walter Brattain und William B. Shockley zugeschrieben. Sie erhielten 1956„für ihre Untersuchungen über Halbleiter und ihre Entdeckung des Transistoreffekts“ den Physiknobelpreis. Bardeen, Brattain und Shockley gehörten zu einer Arbeitsgruppe der Bell Telephone Laboratories in Murray Hill (New Jersey), die sich mit der Untersuchung von Feldeffekten in Festkörpern beschäftigten. Bei einem der durchgeführten Versuche am 16. Dezember 1947 beobachtete Brattain eine Stromverstärkung, den Transistoreffekt. Der Aufbau aus einem mit drei Elektroden kontaktierte n-dotierten Germaniumkristall war der erste funktionierende Bipolartransistor. Die wesentliche Änderung gegenüber früheren Aufbauten war, dass zwei Elektroden sehr nahe (ca. 50 pm) beieinander lagen, wodurch der Transistoreffekt erst ermöglicht wurde. Dieser später als Spitzentransistor bekannt gewordene Transistor konnte nicht reproduzierbar hergestellt werden und seine Funktionsweise war lang nicht hinreichend gut bekannt. Dennoch wurde das Potential dieser Entdeckung von den Verantwortlichen sehr schnell erkannt. Die wesentlichen Vorteile gegenüber der Elektronenröhre waren, dass kein Vakuum und keine Aufwärmzeit notwendig waren sowie dass keine Wärmeentwicklung beobachtet wurde. Die Möglichkeiten der Miniaturisierung von elektronischen Schaltungen war der Ausgangspunkt für eine Revolution in der Elektronik, die viele Entwicklungen der Mikroelektronik und Computertechnologie erst ermöglichte.

Aus heutiger Sicht waren Bardeen, Brattain und Shockley nicht die ersten oder einzigen Forscher, die sich mit der Entwicklung von Alternativen zur Elektronenröhre auf Basis von Halbleitern beschäftigten. Bereits 1925 (Lilienfeld), 1934 (Heil) und 1945 (Heinrich Welker) wurden Ideen zu einem anderen Transistor, dem Feldeffekttransistor, veröffentlicht. Da zu dieser Zeit die Herstellungsverfahren (z. B. fiir die Reinigung der Halbleitersubstrate von Fremdstoffen) nicht ausreichend waren, konnten diese Ideen je- doch nicht realisiert werden. Aus diesem und anderen Gründen wurden sie von der Öffentlichkeit nicht beachtet und waren auch nur wenigen Fachleuten bekannt.

Der Aspekt des Substratmaterials wird im Zusammenhang mit der Entdeckung des Transistors oft außer Acht gelassen. Für die Funktionsweise von Transistoren ist die Qualität und Reinheit der verwendeten Halbleiter aber wesentlich. Halbleiterkristalle mit einer ausreichend hohen Reinheit herzustellen war zu damaligen Zeiten (vor 1950) ein großes Problem. Viele der Germanium-Kristalle, welche die Arbeitsgruppe bei den Bell Telephone Laboratories (BTL) nutzten, stammten von W. G. Pfann, J. H. Scaff und H. C. Theuerer. Sie wurden nach einer Zonenschmelz-Methode von G. K. Teal und J. B. Little hergesteilt. Unabhängig von der BTL-Arbeitsgruppe entwickelten Herbert F. Matare und Heinrich Welker - damals Angestellte bei Westinghouse in Paris - einen Transistor, der nach einem ähnlichen Prinzip arbeitete. Dieser auch als„Transitron“ bezeichnete Bipolartransistor, den sie einige Monate (13. August 1948) später als die Amerikaner vorstellten. Matare gründete 1952 in Deutschland die Firma Intermetall und konnte bereits den ersten Prototypen eines Transistorradios mit Kopfhörern präsentieren; ein Jahr vor dem ersten kommerziellen, US-amerikanischen Modell.

William Shockley eröffnet 1956 ein Labor (Shockley Semiconductor Laboratory) in Mountain View nah der Stanford Universität in Palo Alto. Das Labor gilt als eine Keimzelle des Silicon Valleys, dabei ist zu bemerken, dass zu dieser Zeit sowohl Forschung als auch Industrie sehr stark an der Ostküste der USA konzentriert waren. Bereits im September 1957 trennten sich wegen Meinungsverschiedenheiten acht Mitarbeiter (Eugene Kleiner, Jay Last, Victor Grinich, Jean Hoerni, Sheldon Roberts, Julius Blank, Gordon E. Moore und Robert N. Noyce) von Shockley. Sie gründeten mit einem Wagniskapital die Fairchild Semiconductor Corporation. Fairchild Semiconductor war eine der Firmen, die zu dieser Zeit die Entwicklung der Mikroelektronik vorantrieben, so stellte Fairchild bereits 1958 den ersten Silizium- basierten Transistor in Serien stückzahlen her und war maßgeblich an der Entwicklung des Planartransistors und des integrierten Schaltkreises beteiligt.

Gordon Moore und Robert Noyce gründeten dann 1968 die Firma Intel, die heute (2010) das umsatzstärkste Unternehmen im Bereich der Mikroelektronik ist.

Silizium verdrängt Germanium

Silizium wurde ab Mitte der 1960er Jahre das dominierende Halbleitermaterial, obwohl Germanium in den Anfangsjahren der Halbleiterelektronik führend war. Im Jahr 2009 wurden circa 95 % aller mikroelektronischen Schaltungen auf Basis von Silizium produziert. Die anfänglichen Vorteile von Germanium waren seine besseren Eigenschaften, wie ein niedriger Schmelzpunkt und eine höhere Ladungsträgerbeweglichkeit (ermöglicht höhe- re Schaltfrequenzen) und es war bis damals einfacher und besser zu reinigen als Silizi um.

Die wichtigsten Gründe für den Erfolg von Silizium sind die guten Eigenschaften der Materialkombination Silizium und Siliziumdioxid. Siliziumdioxid wird als Isolations- material eingesetzt und zeigt neben den guten elektrischen Eigenschaften (Durchbruchfeldstärke, Bandabstand usw.) sehr gute Schichthaftung auf Silizium. Mit der thermischen Oxidation von Silizium steht zudem ein einfaches Herstellungsverfah ren von Siliziumdioxidschichten auf kristallinem Silizium zur Verfügung, das Siliziumdioxidschichten mit sehr guten Grenzflächeneigenschaften ermöglicht, wie eine ge- ringe Konzentration an Grenzflächenladungen. Anders als Germaniumdioxid ist Siliziumdioxid chemisch stabil gegenüber Wasser, das heißt, es löst sich nicht in Wasser.

Damit ermöglicht es die einfache Reinigung der Oberflächen mit Wasser und den Einsatz diverser nasschemischer Beschichtungs bzw. Strukturierungsverfahren. Der höhere Schmelzpunkt gegenüber Germanium macht das Material allgemein robuster und erlaubt höhere Temperaturen bei der Herstellung, beispielsweise bei einigen Diffusionsund Beschichtungsprozessen.

Die guten Eigenschaften von thermisch hergestelltem Siliziumdioxid ermöglichten die Entwicklung des Planarverfahrens und damit die Entwicklung von integrierten Schaltkreisen, wie sie heutzutage eingesetzt werden (siehe unten). Diesen wichtigen Erfin dungen der Mikroelektronik sind weitere signifikante Verbesserungen bei der Herstellung und Stabilität von Transistoren durch den Einsatz von thermisch hergestelltem Si liziumdioxid vorausgegangen.

Dazu gehört neben der Eignung als selektive Dotierungsmaskierung vor allem die passivierende Wirkung sowie die sehr guten elektrischen Eigenschaften der Grenzfläche von thermischem Siliziumdioxid und Silizium. Durch die Passivierung der Oberfläche und der damit verbundenen Verringerung von Grenzflächenladungen und Einflüssen der Umgebung verbesserte sich die elektrische Charakteristik der Transistoren (ihre Kennlinien) sowohl hinsichtlich der Reproduzierbarkeit als auch ihrer Stabilität im Ein- satz. Zudem ermöglichte die verbesserte Isolator-Halbleiter-Grenzfläche nun die Her stellung erster funktionierender MIS-Feldeffekttransistoren (MIS-FET).Nachdem erkannt wurde, dass auch durch Alkalimetallverunreinigungen verursachte Ladungen im Siliziumdioxid die elektrischen Eigenschaften von Halbleiterbauelementen massiv ver- schlechtem und dies in der Produktion berücksichtigt wurde, waren die grundlegenden Probleme bei der Herstellung von stabilen Bauelementen auf Basis von Halbleitern gelöst.

Integrierte Schaltkreise

Den letzten Schritt zur Mikroelektronik stellte der Übergang von Schaltungen aus diskreten Halbleiterbauelementen auf einer Leiterplatte hin zu integrierten Schaltkreisen (ICs) dar. Unter integrierten Schaltkreisen versteht man allgemein Schaltungen aus Halbleiterbauelementen (hauptsächlich Transistoren) inklusive der Verdrahtung auf einem Substrat, auch als monolithischer Schaltkreis bezeichnet.

Dieses Konzept wurde Ende der 1950er Jahre unabhängig voneinander von Jack Kilby, Angestellter von Texas Instruments, und Robert Noyce, Gründungsmitglied von Fairchild Semiconductor, erfunden und zum Patent angemeldet. Kilbys Patent aus dem Jahre 1959 zeigte erstmals eine Schaltung aus verschiedenen Komponenten (Transisto- ren und Widerständen) auf einem einzigen Substrat (aus Germanium). Aus dieser Ar beit heraus entstand das berühmte Kilby- Patent (vom japanischen Patentamt und durch das Obergericht (OG) Tokio wegen fehlender erfinderischer Tätigkeit zurückgewiesen.). Um dieses Patent wurde rund zehn Jahre vor Gericht gestritten, da Robert N. Noyce einen sehr ähnlichen Schritt erdacht hatte, diesen allerdings später zum Patent anmeldete.

Anders als bei Kilby, der eine Verdrahtung auf dem Substrat nur erdachte, basierte Noyce’ Patent auf den Ideen und Erkenntnissen des Planarverfahrens, das zur gleichen Zeit durch Jean Hoerni (ebenfalls Fairchild Semiconductor) entwickelt wurde. Für die Herstellung wurden bereits fotolithografische Verfahren und Diffusionsprozesse genutzt, die Fairchild Semiconductor kurz zuvor für die Herstellung des ersten modernen Diffusions-Bipolartransistors entwickelt hatte. Unter anderem die technische Machbarkeit einer solchen Verdrahtung revolutionierte die Herstellung von elektronischen Schaltungen. In Folge verstärkten viele Firmen ihre Forschung und Entwicklung in diesem Bereich und es setzte eine enorme Miniaturisierung ein. 1961 wurde der erste kommerziell erhältliche integrierte Schaltkreis vorgestellt. Er war ein Flipflop der Firma Fairchild Semiconductors, wurde in Planartechnologie hergestellt und bestand aus vier Bipolartransistoren und fünf Widerständen.

Die bipolaren Transistoren wurden rasch durch Feldeffekttransistoren (FETs) ersetzt, meist in der Form von leichter herstellbaren MOSFETs (Metall-Oxid-Halbleiter- Feldeffekttransistor). Das Funktionsprinzip der MOSFETs war zwar schon einige Jahrzehnte bekannt, die Herstellung erster funktionstüchtiger Exemplare gelang jedoch erst 1960 durch Martin M. Atalla und Dawon Kahng (vgl.Oberflächenpassivierung im Artikel Thermische Oxidation von Silizium). Weitere wichtige Entwicklungen in den 1960er Jahren waren die CMOS-Technik (Frank Wanlass, 1963) und erste DRAM-

Speicherzelle durch Robert H. Dennard (Thomas J. Watson Research Center/IBM, 1967, siehe DRAM).

Die Komplexität der Schaltungen nahm rasch zu und 1970/71 wurden nahezu gleichzei- tig die ersten Mikroprozessoren von drei Firmen vorgestellt: der Intel 4004, der Texas Instruments (TI) TMS 1000 und der Garrett AiResearch„Central Air Data Computer“ (CADC). Zu dieser Zeit wurden Schaltungen mit Transistordichten mit einigen tausend Bauelementen auf einem Chip realisiert. Diese Entwicklungsstufe wird als Großintegration (engl.: Large Scale Integration, LSI) bezeichnet.

Aufgrund der rasanten Entwicklung der Mikroelektronik waren 1979 Transistordichten erreicht, die ein Vielfaches größer (rund zwei Größenordnungen) waren als bei LSI- Schaltungen. Diese Stufe der ICs wird als Größtintegration (engl.: Very Large Scale In tegration, VLSI) bezeichnet. Dieser Trend hat sich bis heute (2009) im Wesentlichen erhalten (vgl. Mooresches Gesetz), so dass heute über eine Milliarde Transistoren mit Taktffequenzen von mehreren Gigahertz möglich sind. Die Größe des Einzelbauteils liegt dabei weit unter einem Quadratmikrometer. Zunehmend werden auch ganze Systeme (Kombination mehrerer Baugruppen, wie Prozessoren, Schnittstellenschaltungen und Speichern) auf einem einzelnen Chip realisiert (engl.: System on a Chip, SoC). Zukünftige Entwicklungen

Unterschreiten die Strukturgrößen die 100-Nanometer-Grenze (2008 sind sie bereits bei 45 nm bzw. 2009 bei 40 nm), so spricht man formal bereits von Nanoelektronik bzw. Nanotechnologie (Definition der US-Regierung). Im engeren Sinne ist jedoch eher gemeint, dass besondere Materialeigenschaften genutzt werden, die erst auftreten, wenn sich die Strukturabmessungen in der Nähe der Molekül- bzw. der Atomgröße bewegen.

Zu solchen Strukturen zählen zum Beispiel Leitungsbahnen oder Transistoren aus Koh- lenstoffnanoröhren oder Isolationen aus Seif Assembling Monolayem. Neue Bauelemente werden mit Resonanztunneldioden aufgebaut.

Integrierte Optoelektronik: Angesichts zunehmender Signallaufzeiten insbesondere in langen Verbindungsleitungen (globale Interconnects) großer„System on a Chips“ wird darüber nachgedacht, diese elektrischen Leitungen durch optische Verbindungen zu er- setzen.

Organische Elektronik: Um kostengünstige„Wegwerfelektronik“ (zum Beispiel elektronische Preisetiketten) zu realisieren, werden Schaltungen auf der Basis organischer und metallischer Materialien auf organischen Substraten in Dünnschichttechnik aufge- bracht (siehe Organischer Feldeffekttransistor).

Interessante Perspektiven ergeben sich auch daraus, dass aufgrund der fortschreitenden Skalierung die kleinsten in der Mikroelektronik realisierbaren Strukturen in die Größenordnung von biologischen Molekülen Vordringen. Zurzeit ist eine Konvergenz von Biotechnologie und Mikroelektronik und die Ausbildung einer neuen Fachwissenschaft zu beobachten, die vielfach als Bioelektronik bezeichnet und an erster Stelle die Entwicklung neuartiger Biosensoren betreffen wird.

Einteilung und Bauelemente

In mikroelektronischen Schaltungen wird eine Vielzahl von Halbleiterbauelementen (vor allem Dioden und Transistoren), elektrischen Widerständen, Kondensatoren und selten auch Induktivitäten eingesetzt und auf einem Halbleiterkristall (Substrat) integriert, das heißt zusammengefugt. Eine Einteilung der mikroelektronischen Schaltungen kann auf Grundlage des Anwendungsbereichs in Standardschaltkreise bzw. applikationsspezifische Standardprodukte (ASSP) und anwendungsspezifische Schaltkreise (ASIC) sowie auf Grundlage der zu verarbeitenden Signale in analoge und digitale ICs erfolgen.

Standardschaltkreise lassen sich in einer Vielzahl von Anwendungen einsetzen, werden in großer Zahl produziert und sind teilweise durch Standardisierungskonsortien in ihrer Ausprägung festgelegt. Hingegen sind Anwendungsspezifische ICs Schaltkreise, die für eine bestimmte Anwendung (zum Beispiel Motorsteuerung im Auto) entworfen und gebaut sind und von ihrem Funktionsumfang keine andere Anwendung erlauben. Die Abgrenzung dieser beiden Gruppen ist in der Praxis fließend: So können manche als ASIC bezeichnete Schaltkreise dennoch umprogrammiert werden, jedoch nicht für jede beliebige Funktion oder Anwendung.

Bei analogen ICs handelt es sich um integrierte Schaltungen, die analoge Signale - Signale, die sich innerhalb eines bestimmten Wertebereichs kontinuierlich ändern können, wie Spannungen oder Ströme - direkt verarbeiten können. Ein großes Anwen- dungsfeld sind hier sogenannte Standard-ICs mit niedriger Funktionsintegration, bei spielsweise Operationsverstärker und Spannungsregler.

Digitale ICs hingegen verarbeiten ausschließlich digitale Signale - Signale, deren Wertebereiche eine endliche Anzahl von Signalwerten besitzen. Sie stellen derzeit (2009) die größte Gruppe von Schaltkreisen dar. Typische Vertreter digitaler ICs sind Pro grammierbare Logikbausteine (engl.: programmable logic devices, PLD), Speicherbau- steine (wie ROM, PROM, DRAM oder Flash-Speicher) und komplexe über Mikrocode programmierbare Schaltungen wie digitale Signalprozessoren, Mikrocontroller oder Mikroprozessoren. Außerhalb dieser groben Einteilung in analoge und digitale ICs gibt es noch weitere Schaltkreise, wie die an der Schnittstelle zwischen dem analogen und digitalen Bereich liegenden Digital-Analog- bzw. Analog-Digital-Umsetzer sowie Frequenz- Spannungs- Wandler und spannungsgesteuerte Oszillatoren (Spannungs-Frequenz- Wandler). Sensoren werden auch oft direkt in die Mikroelektronik mit integriert, oft zusammen mit ih- rer Anpassungselektronik sowie ggf. einem digitalen Interface zum Anschluss an einen Mikroprozessor. Relativ einfach sind Temperatursensoren.

Große Mengen werden heute an optischen Sensoren hergestellt, als Bildsensoren oder als Teile von optoelektronischen Anordnungen.

Die verschiedenen Formen der Bauelementintegration erfordern unterschiedliche Montagekonfigurationen, um die einzelnen Bauelemente zu elektronischen Baugruppen zu vereinen. Dadurch entstanden eine Vielzahl komplexer und differenzierter Aufbau- und Verbindungstechnologien. So unterscheiden sich Bauelemente nach der Montagekonfi- guration in gehäuste, auf die Leiterplatte aufsetzbare SMDs oder steckbare bedrahtete Bauelemente (THT) und in ungehäuste Nacktchips, die direkt oder mit einem Zwischenverdrahtungsträger auf denVerdrahtungsträger aufgesetzt werden. Heute werden die meisten Bauelemente als SMDs montiert. Jedoch gibt es Bauelemente, für die noch keine aufsetzbare SMD- Bauformen verfügbar sind, oder bei denen durch die SMD- Bauform die elektrische Belastbarkeit des Bauelements zu sehr eingeschränkt wird. In diesen Fällen werden die älteren THT-Bauformen weiterhin verwendet.

Anwendungen

Bauelemente der Mikroelektronik wurden ursprünglich für die Anforderungen der Raumfahrt nach kleinen und leichten Bauteilen entwickelt. Sie sind heute in einer Viel zahl technischer Geräte und Einrichtungen zu finden: In Computern sind essenzielle Bestandteile als mikroelektronische integrierte Schalt kreise ausgeführt: die zentrale Recheneinheit genauso wie der Arbeitsspeicher und eine Vielzahl unterstützender Controller und Schnittstellen-Bausteine. In der industriellen Fertigung finden sich mikroelektronische Bauteile auch zum Beispiel in den Maschinensteuerungen.

In Geräten der Unterhaltungselektronik übernehmen integrierte Schaltungen neben der gesamten Steuerung der Geräte auch die Dekodierung komprimierter Filme beim DVD- Abspielgerät oder die Ansteuerung der einzelnen Bildpunkte eines Flachbildschirms.

In allen Arten von Fahrzeugen wird die Mikroelektronik eingesetzt, unter anderem zur Motorsteuerung oder dazu, im richtigen Moment Sicherheitsfunktionen, wie Airbags, auszulösen. Für diesen Bereich müssen die mikroelektronischen Bausteine übrigens erhöhte Qualitätskriterien erfüllen, zum Beispiel den automotiven Temperaturbereich (engl automotive temperature ränge).

Moderne Kommunikationstechnik ist ebenfalls ohne Mikroelektronik nicht mehr denkbar, das gilt sowohl für die klassische Telefonie, als auch für die Datenkommunikation und den Mobilfunk.

An dieser Stelle kann nur eine exemplarische Auswahl genannt werden - es gibt sowohl in den genannten Gebieten eine Vielzahl weiterer Anwendungen als auch eine Reihe hier nicht genannter Anwendungsgebiete, wie Medizintechnik, Gebäudetechnik und vieles mehr.

Entwicklung mikroelektronischer Bauelemente

Siehe auch : Chipentwurf

Auf einem Die, einem einzelnen ungehäusten Halbleiter-Chip, können mehrere Milliarden Transistoren und anderen Grundelemente der mikroelektronischen Schaltungen aufgebracht werden. Mit rechnergestützten Hilfsmitteln wird der Entwurf eines funktionsfähigen Chips unterstützt. Die einzelnen Schritte, die in der Regel arbeitsteilig und mit abnehmender Abstraktion mehrfach gegangen werden, sind: Design, Simulation und Verifizierung. Den Abschluss bildet die Fertigungsvorbereitung. Da der Produktion eines Chips sehr hohe Einmalkosten (engl non recurring engineering costs, NRE- Kosten) vorausgehen (zum Beispiel Maskenkosten, siehe Fotolithografie) und auch eine Reparatur eines integrierten Schaltkreises nur sehr eingeschränkt möglich und produktiv nicht praktikabel ist, ist es von großer Bedeutung, dass der Entwurf nur mit wenigen Überarbeitungen (sog. Redesigns) zum gewünschten Produkt fuhrt.

Das hat zur Folge, dass zu einem erheblichen Anteil Simulations- und Verifikations- schritte den Entwicklungsverlauf bestimmen - im Jahre 2004 machen sie etwa die Hälfte des Entwicklungsaufwandes für den Schaltkreis aus - mit steigender Tendenz. Um diese Kosten auf eine große Anzahl von Chips zu verteilen, wird versucht, Teilschritte der Entwicklungsarbeit auf mehrere Projekte zu verteilen. So können beispielsweise Logikgatter oder ganze Mikroprozessor-Architekturen als getestete Bibliotheken einge- kauft und in die eigene Entwicklung integriert werden. Eine weitere Möglichkeit besteht darin, FPGAs (Digitaltechnik) und FPAAs (Analogtechnik) zu verwenden. Diese Bauelemente beinhalten frei programmierbare digitale und analoge Schaltkreise, die nur noch entsprechend dem eigenen Schaltungsdesign konfiguriert werden müssen. In vielen Fällen beschreibt der Chipentwickler die gewünschte Schaltung bei digitalen Schaltungsblöcken nur noch in einer„Hochsprache“ (vergleichbar der höheren Pro grammiersprache in der Informatik, übliche Ausprägungen: VHDL, Verilog), der Computer errechnet daraus die Schaltnetze (Synthese, engl synthesis) und platziert die Transistoren (unter menschlicher Mitwirkung und Kontrolle).

Für analoge Schaltungen werden die entworfenen Schaltungen in sehr vielen Simulationsläufen (beispielsweise mit SPICE oder ähnlich) charakterisiert, wobei viele verschiedene Kombinationen für Betriebstemperaturen und -Spannungen, Prozessvariationen und Ähnliches simuliert werden. Häufig werden auch statistische Variationen mit- hilfe einer Monte-Carlo-Analyse simuliert. Für Digital- wie für Analogschaltungen kann das Layout extrahiert werden, um parasitäre Elemente in der Simulation zu berücksichtigen und somit realistischere Ergebnisse zu erreichen.

Die fortschreitende Miniaturisierung treibt sowohl die Strukturierungsprozesse als auch die realisierten Funktionsbausteine, wie Transistoren und Leiterbahnen, an ihre physikalischen Grenzen. Um Ersterem zu begegnen, wird im Entwurfsprozess in steigendem Umfang Software eingesetzt, die die physikalischen Grenzeffekte, wie zum Beispiel die optische Beugung bei der Fotolithografie simuliert und den Schaltungsentwurf so modifiziert, dass diese Effekte ausgeglichen werden (engl optical proximity correction, OPC). Um den Miniaturisierungseffekten bei den Bauelementen entgegenzuwirken, kommen fortlaufend neue Simulations- und Modellierungsverfahren zum Chipentwurf sprozess hinzu: zum Beispiel Simulationen des Spannungsabfalls in langen Versorgungsnetzen (engl. IR drop), Simulation der parasitären kapazitiven Kopplung benachbarter Leiterbahnen, Werkzeuge zur statischen Analyse der Zeitverhältnisse in einer Digitalschaltung (engl static timing analysis, STA) usf.

Um Prototypen eines neuen Chips einigermaßen kostengünstig zu fertigen, kann man die Layouts mehrerer Chips auf einem Wafer zusammenfugen (engl.: multi project wafer, MPW), da sich so die Masken- und Fertigungskosten für die vergleichsweise kleinen Prototypenstückzahlen auf mehrere Projekte verteilen lassen.

Herstellung von mikroelektronischen Schaltkreisen

Siehe auch: Integrierter Schaltkreis-Herstellung und Halbleitertechnik

Die Herstellung von mikroelektronischen Schaltkreisen erfolgt durch Verfahren der Halbleitertechnik (Herstellung der Bauelemente auf einem Substrat und bei monolithischen Schaltkreisen die Verdrahtung) und Aufbau- und Verbindungstechnik (Gehäu- sung und Verdrahtung/Verknüpfung von mikroelektronischen und nichtelektronischen Komponenten zu einem System). Dabei werden auch Verfahren der Dünn- und Dickfilmtechnik eingesetzt, bei letzteren werden die Bauteile auf einen Film aufgebracht oder eingebettet und verbunden, sie ha- ben nur noch für Spezialanwendungen (Hochfrequenztechnik) Bedeutung. Die Fertigung erfolgt in extrem sauberer Umgebung, sogenannten Reinräumen, mit einer sehr geringen Dichte von Staubpartikeln. Dies ist nötig, weil die herzustellenden Strukturen im Mikro- und Nanometerbereich liegen und selbst kleinste Partikel(< 0,1 pm) bereits Herstellungsfehler verursachen können, die den Ausfall eines kompletten Schaltkreises zur Folge haben. Der Fertigungsprozess selbst kann (neben Funktionstests) in drei Be reiche aufgeteilt werden: die Substratherstellung sowie die Fertigung der Bauelemente (Transistoren, Dioden usw.), das sog. Front- End, und deren„Verpackung“ in Gehäusen, dem sog. Back-End.

Substratherstellung

Die Fertigung von integrierten Schaltungen erfolgt auf sogenannten Wafern (einkristal line Halbleiterscheiben), sodass mehrere integrierte Schaltungen parallel gefertigt und Kosten gesenkt werden können. Auf einem Wafer werden Hunderte und bei einfachen Strukturen (zum Beispiel Einzeltransistoren) Tausende identische integrierte Schaltkreise parallel hergestellt.

Damit die hohen Anforderungen zur Fertigung von integrierten Schaltungen erfüllt werden können, ist es notwendig, das Substrat in Form von hochreinen Einkristallen herzustellen. Die überwiegenden Mehrzahl (mehr als 99 %) der integrierten Schaltkreise nutzt als Substratmaterial den Halbleiter Silizium. Für sehr hochfrequente oder optische Anwendungen kommen auch andere Materialien wie Galliumarsenid zum Einsatz. Für spezielle Anwendungen wird auch Silizium auf dem isolierenden Substrat Saphir verwendet (engl.: Silicon on Sapphire, SOS).

Im Falle des Siliziums wird zunächst aus einer hochreinen Siliziumschmelze (vgl. Gewinnung von Reinsilizium) ein einkristalliner Zylinder (Ingot) gezogen. Dazu wird vornehmlich das sogenannte Czochralski- Verfahren (CZ- Verfahren) genutzt. Ein alternatives Verfahren ist das Zonenschmelzen, was auch zur weiteren Reinigung der CZ-Ingots eingesetzt werden kann; für einige Spezialanwendungen sind höhere Reinheitsgrade notwendig als ein Fremdatom auf 10 9 Atomen der CZ-Ingots. Die Ingots werden in Abhängigkeit vom Durchmesser in 0,5-1 ,5 mm dünne Scheiben, die sog. Wafer, zersägt. Die heute in der Massenproduktion verwendeten Siliziumwafer haben Durchmesser von 150, 200 oder 300 mm (häufig auch als 6, 8 oder 12 Zoll bezeichnet). Sie erhalten durch verschiedene Ätz-, Schleif- und Polierprozesse eine nahezu perfekte ebene Oberfläche mit Unebenheiten in der Größenordnung von weniger als einem Nanometer, das heißt mit Oberflächenrauheiten von nur wenigen Atomlagen.

Das sogenannte Front-End bei der Fertigung von integrierten Schaltkreisen beschäftigt sich mit der Herstellung der elektrisch aktiven Bauelemente (Transistoren, Kondensato- ren usw.), dem sogenannten Front-End-of-Line (FEOL), und deren Verdrahtung (Metallisierung), dem sogenannten Back-End-of-Line (BEOL). Zum Einsatz kommen verschiedenste Verfahren der Halbleitertechnik zum Schichtaufbau (Epitaxie, Sputterdepo- sition, Bedampfen, CVD usw.), Schichtabtrag, und Strukturierung (Fotolithografie). Des Weiteren werden Verfahren zur Änderung von Materialeigenschaften (zum Bei- spiel Dotierung) eingesetzt.

Nach der Metallisierung erfolgt heutzutage (2009) auch oft ein stichprobenartiges oder komplettes Prüfen der Schaltkreise mit Nadeltestem im Scheibenverbund, vor allem zur Bestimmung der Ausbeute und als Rückmeldung zu technologischen Parametern. Da- mit spart man sich das Verkappen des teilweise erheblichen Ausschusses. Für die Bestimmung von technologischen Parametern erfolgt die Prüfung (beispielsweise Schicht dickenprüfung) meist direkt nach dem jeweiligen Prozess, hier ist es mitunter wichtig, auch die jeweiligen Anlagen mitzuerfassen, da auch baugleiche Anlagen mit denselben Parametern Abweichungen erzeugen, die außerhalb des Toleranzbereichs liegen kön- nen.

Back-End

Siehe auch:„Back-End“ Artikel Integrierter Schaltkreis

Im nachfolgenden Fertigungsabschnitt, dem Back-End, werden die ICs anschließend vereinzelt. Dies erfolgt im Allgemeinen durch Sägen (selten auch durch Ritzen und Brechen) des Wafers zu Dies (den sogenannten Chips). Beim nachfolgenden Verpacken (engl packaging) werden die einzelnen ICs dann in ein Gehäuse eingebracht und kontaktiert, das sogenannte Bonden. Dabei kommen je nach Typ unterschiedliche Verfahren zum Einsatz, beispielsweise Chipbonden oder Drahtbonden. Das Verkappen (Einhausen) dient zur hermetischen Versiegelung gegenüber Umwelteinflüssen - für rein elektrische Schaltkreise muss das Gehäuse gas- und lichtdicht sein - sowie zur besseren Verwendbarkeit: entweder wird der Chip samt Bonddrähten in ei nem Hohlraum (Blech, Keramik, ggf. mit Fenster) eingeschlossen oder mit Kunstharz umhüllt (eingegossen). Die Anschlüsse nach außen werden beispielsweise als Dual in- line package (DIL) oder Plastic Leaded Chip Carrier (PLCC) ausgeführt. Hochkomplexe Schaltkreise (meist für mobile Anwendungen) werden neuerdings (2009) auch ohne Sockelgehäuse eingesetzt und direkt auf die jeweiligen Platinen gelötet (vgl. Ball Grid Array). Zum Abschluss erfolgt nochmals ein Funktionstest, dabei werden zugesicherte Eigen schaften an allen Schaltkreisen geprüft. Die Typprüfung erfolgt stichprobenartig oder nur in der Entwicklungsphase. Die Stückprüfung dient dem Sortieren in Schaltkreise unterschiedlicher Güteklassen (zum Beispiel nach Offset-Spannung bei Operationsverstärkern). Prüfergebnisse und die Art der Verkappung bestimmen das Einsatzgebiet. So werden hohe Qualitäten für erweiterte Einsatztemperaturen und Umweltanforderungen gefertigt (sog. MIL-Standard für militärische und Raumfahrt- Anwendungen). Höhere Toleranzen und Plastik-Verkappung kommen für Massenanwendungen (Konsumgüter) infrage. Neben den monolithischen Schaltkreisen gibt es auch sogenannte Dickschicht- Hybridschaltkreise. Dabei werden einzelne Funktionen der Schaltung in unterschiedlichen Halbleiterchips realisiert und auf einem zusätzlichen Trägermaterial aufgebracht und drucktechnisch im Siebdruckverfahren verdrahtet, auf diese Weise können neben Verbindungsleitungen auch passive Bauelemente realisiert werden. Wenn besonders kompakte Bausteine erforderlich sind, beispielsweise in Mobiltelefonen, werden auch mehrere Einzelschaltkreise auf kürzestem Weg elektrisch verbunden und in einem gemeinsamen Gehäuse untergebracht, siehe bei Multi-Chip-Modul. Funktionstest

Um schon frühzeitig auf Prozessschwankungen zu reagieren, fehlerhafte Prozesse gegebenenfalls zu korrigieren oder gar Wafer oder Lose aus der Produktion zu nehmen, werden die noch unfertigen ICs nach vielen Prozessschritten getestet. Im Front-End handelt es sich dabei meist um Stichproben.

Nach dem Front-End werden in der Regel alle ICs vor der Weiterverarbeitung auf ihre Funktion getestet. Teilweise sind bestimmte Funktionen (Hochfrequenzschaltungen oder später nicht auf Pins herausgefuhrte Anschlüsse des Chips) nur auf dem Die test bar. Vor allem muss aus Kostengründen verhindert werden, dass nicht funktionsfähige ICs im nachfolgenden Herstellungsprozess weiterbearbeitet werden.

Schließlich wird auch der gehäuste Chip vor der Ablieferung einem endgültigen Test unterzogen, um Fehler in der Back-End-Fertigung festzustellen. Auch werden einige Eigenschaften getestet, die sich durch das Packaging verändern bzw. deren Messung ohne Gehäuse nicht möglich ist, wie zum Beispiel das Bonding oder bestimmte Hochfrequenzeigenschaften. Der gehäuste Chip kann dann zur Leiterplattenbestückung gehen.

Obwohl diese Messungen auf speziellen Testsystemen (Automatic Test Equipment) vollautomatisch ablaufen, haben die damit verbundenen Kosten bei hochintegrierten Prozessorchips bereits nahezu die Herstellungskosten erreicht. Dies liegt vor allem dar an, dass nur bedingt Skaleneffekte beim Testen greifen (eine Parallelisierung ist beispielsweise nur bei reinen Digitalschaltungen möglich) und neuere ICs immer mehr Funktionen beinhalten, die nacheinander getestet werden müssen. Ökonomie

Der Industriezweig, der sich mit der Herstellung von mikroelektronischen Bauteilen beschäftigt - die Halbleiterindustrie - zeigt zwei Eigenschaften, die ihn von anderen unterscheidet.

Große Skaleneffekte: Halbleiterfabriken für die Massenfertigung von Bausteinen der jeweils kleinstmöglichen Strukturgrößen sind erst ab einer gewissen Größe rentabel. Weiterhin sind diese Fabriken um Größenordnungen teurer als vergleichbare Fertigungsstätten anderer Branchen: heute (2004) liegen die Kosten für Bau und Ausrüstung einer Hoch volumenfabrik auf dem Stand der Technik bei etwa 2 Milliarden USD.

Beides zusammen führt zu dem sogenannten Schweinezyklus: Es gibt nur eine vergleichsweise geringe Anzahl an aktuellen Halbleiterfabriken weltweit. Wenn es der Branche gut geht, das heißt in der Regel, wenn das Angebot an Halbleiterbausteinen ge- ringer ist als die Nachfrage, baut sie ihre Fertigungskapazitäten aus, weil die meisten Unternehmen nur dann die Summen für den Ausbau aufbringen können. Jede neue Fabrik, die in Produktion geht, erhöht das Weltmarktvolumen verfügbarer Bausteine gleich um Prozentpunkte, da sie ja aus Rentabilitätsgründen sehr groß sein müssen. Der schlagartige Anstieg verfügbaren Volumens führt zu einem entsprechend starken Preis- verfall der Bauelemente, der sich wieder einschwingt, sobald die Nachfrage das Angebot wieder eingeholt hat.

Durch den Preisverfall sind viele Unternehmen eine Zeit lang nicht in der Lage ihre Fertigungskapazitäten auszubauen - es läuft auf die nächste Verknappung des Angebo- tes zu. Dann wiederholt sich der Zyklus.

Zuschreibung strategischer Bedeutung: Viele Staaten schreiben der Halbleiterindustrie strategische Bedeutung zu. Meist begründet sich das in dem„Keimzelleneffekt“ für andere Hochtechnologien. Im Umfeld von Halbleiterindustrien entwickeln sich nicht nur hochqualifizierte Zulieferer aus der Chemie und dem Anlagenbau, sondern auch aus den Abnehmerindustrien der Bauelemente, zum Beispiel die Computer- und Elektronik- Industrie. In einigen Fällen wird die strategische Bedeutung auch militärisch begründet. So schätzen die USA die Bedeutung der Mikroelektronik für Rüstungsprogramme so wichtig ein, dass sowohl Geräte zur Herstellung aktueller ICs als auch die Schaltungsentwürfe und sogar die Schaltungsentwicklungssoftware Gegenstand ihrer Exportkon- trolllisten sind. Diese hoch eingeschätzte Bedeutung hat zur Folge, dass eine Vielzahl von Staaten die Ansiedelung der Halbleiterindustrie in vielerlei Weise fordern: von Anschubfinanzierungen, besonderen Steuergestaltungen, staatlichen Kreditgarantien bis zu staatlich geforderter Forschung an universitären und industriellen Forschungszentren etc.

Diese Förderungen sind auch gelegentlich Gegenstand von ökonomischen Auseinandersetzungen zwischen Staaten und Unternehmen - so geschehen zuletzt im Jahre 2003. Damals wurde dem DRAM-Hersteller Hynix vorgeworfen über die Maßen vom südkoreanischen Staat in seiner Finanzkrise gestützt worden zu sein. Die Wettbewerber von Hynix erwirkten daraufhin Strafzölle auf den Import von Produkten dieses Unternehmens in den USA, der Europäischen Union[34] und zuletzt Japan, wogegen Südkorea protestierte.

Geschäftsmodelle: Wie in vielen anderen Branchen auch gibt es den Vollhersteller - In- tegrated Device Manufacturer (IDM) genannt. Ein IDM erstellt das Produktdesign, entwickelt die Fertigungstechnologie, fertigt das Bauteil und verkauft es selbst.

Daneben gibt es jedoch auch noch die„Fabless Design Houses“ und„Foundries“. Fab- less Design Houses erstellen das Produktdesign entsprechend den Vorgaben bzw. in Kooperation mit der Foundry, die es später fertigen wird, und verkaufen das fertige Produkt. Die Foundry entwickelt die Fertigungstechnologie, stellt ihren Kunden techno- logiespezifische Hilfsmittel zum Chipentwurf (EDA) bereit und fertigt die ICs.

Kombinationen dieser Geschäftsmodelle und Nischenmodelle sind in der Praxis auch zu finden. 34. Optoelektronik

Der Begriff Optoelektronik (manchmal auch Optronik oder Optotronik genannt) entstand aus der Kombination von Optik und Halbleiterelektronik und umfasst im wei testen Sinne alle Produkte und Verfahren, die die Umwandlung von elektronisch er- zeugten Daten und Energien in Lichtemission ermöglichen und umgekehrt.

Hintergrund ist z. B. der Versuch, die Vorteile der elektronischen Datenaufbereitung und Verarbeitung mit den Vorteilen der schnellen und elektromagnetisch und elektrostatisch unstörbaren breitbandigen Übertragungseigenschaft des Lichtes zu kombinie- ren. Gleichzeitig fallt hierunter auch die Wandlung von elektrischer Energie in Licht und umgekehrt auf der Basis der elektronischen Halbleitertechnik, wobei das erzeugte Licht sich entweder im Freiraum oder in festen lichtdurchlässigen Medien (Lichtwellenleiter wie z. B. Glasfaserkabel) ausbreiten kann oder wie in der optischen Speichertechnik auch zur Speicherung elektronisch erzeugter Daten dienen kann.

Die Optoelektronik ist dabei fester Bestandteil des täglichen Lebens geworden, da sie Komponenten wie z. B. Laser, Bildschirme, Rechner, optische Speicher und Datenträger umfasst. Erster und bis heute gültiger Systemvorschlag zur optoelektronischen Nachrichtenübertragung mittels Laserdiode, Glasfaser und Photodiode von Manfred Börner, 1965

Optoelektronische Bauteile sind Bauteile, die als Schnittstelle zwischen elektrischen und optischen Komponenten wirken oder auch Geräte, die solche Bauteile enthalten. Damit sind meist (aber nicht ausschließlich) mikroelektronische Bauteile gemeint, die auf der Basis von Halbleitern funktionieren.

Die Bauelemente der Optoelektronik lassen sich in Aktoren (Sender) und Detektoren (Empfänger) unterteilen. Optoelektronische Aktoren sind Halbleiterbauelemente, die aus Strom Licht erzeugen, also Laser- und Leuchtdioden. Das Emissionsspektrum kann sich dabei sowohl im sichtbaren als auch im unsichtbaren (UV oder Infrarot) Spektral- bereich befinden. Optoelektronische Detektoren sind die Umkehrbauelemente der Aktoren, also Fotowiderstand, Photodiode (auch Solarzelle) und Fototransistor. Lichtsensoren können auch als integrierte Schaltung aufgebaut werden, z. B. als CCD-Sensor. Auch Photomultiplier werden zur Optoelektronik gezählt. Werden Aktor und Detektor als System betrieben, resultiert daraus ein optischer Sensor, ein sogenannter Optosen sor. Das Fachgebiet wird analog dazu als Optosensorik bezeichnet. Die einfache Kombination aus einem Aktor und Detektor in einem Bauteil wird als Optokoppler bezeich net. Neben diesen gibt es noch weitere Bauteile die bei der Übertragung, Verstärkung oder Modulation von Signalen benötigt werden. Die Übertragung von optischen Signalen kann durch den freien Raum oder in Verbindung mit Wellenleiter und optischen Schaltkreise (vgl. integrierte Optik) erfolgen. Optische Modulatoren sind Bauelemente, die Licht eine definierte Charakteristik aufprägen (modulieren). Dies kann beispielsweise eine zeitliche oder räumliche Amplituden- oder Phasenvariation sein. Dazu gehören zum Beispiel optische Verstärker, optoelektronische Multiplexer sowie magnetorestrik tive optische Mikroreflektoren.

35. Halbleiter

Halbleiter sind Festkörper, deren elektrische Leitfähigkeit zwischen der von elektrischen Leitern (>10 4 S/cm) und der von Nichtleitern (<10 -8 S/cm) liegt. [1] Da sich die Grenzbereiche der drei Gruppen überschneiden, ist der negative Temperaturkoeffizient des spezifischen Widerstandes ein weiteres wichtiges Merkmal von Halbleitern, das heißt, ihre Leitfähigkeit nimmt mit steigender Temperatur zu, sie sind sogenannte Heiß leiter. Ursache hierfür ist die sogenannte Bandlücke zwischen dem Valenz- und dem Leitungsband.

Nah am absoluten Temperatumullpunkt sind diese voll- bzw. unbesetzt und Halbleiter daher Nichtleiter. Es existieren im Gegensatz zu Metallen primär keine freien Ladungsträger, diese müssen erst z. B. durch thermische Anregung entstehen. Die elektrische Leitfähigkeit von Halbleitern steigt aber steil mit der Temperatur an, so dass sie bei Raumtemperatur, je nach materialspezifischem Abstand von Leitungs- und Valenzband, mehr oder weniger leitend sind. Des Weiteren lassen sich durch das Einbringen von Fremdatomen (Dotieren) aus einer anderen chemischen Hauptgruppe die Leitfähigkeit und der Leitungscharakter (Elektronen- und Löcherleitung) in weiten Grenzen gezielt beeinflussen.

Halbleiter werden anhand ihrer Kristallstruktur in kristalline und amorphe Halbleiter unterschieden, siehe Abschnitt Einteilung. Des Weiteren können sie verschiedene che- mische Strukturen besitzen. Am bekanntesten sind die Elementhalbleiter Silicium und Germanium, die aus einem einzigen Element aufgebaut sind, und Verbindungshalbleitern wie zum Beispiel der III-V-Verbindungshalbleiter Galliumarsenid. Des Weiteren haben in den letzten Jahrzehnten organische Halbleiter an Bedeutung und Bekanntheit gewonnen, sie werden beispielsweise in organischen Leuchtdioden (OLEDs) eingesetzt. Es gibt allerdings auch noch weitere Stoffe mit Halbleitereigenschaften, so z. B. metall organische Halbleiter wie auch Materialien, die durch Nanostrukturierung Halbleitereigenschaften bekommen. Ganz neu sind ternäre Hydrid-Verbindungen wie Lithium- Barium-Hydrid (LiBaH3). Bedeutung haben Halbleiter für die Elektrotechnik und insbesondere für die Elektronik, wobei die Möglichkeit, ihre elektrische Leitfähigkeit durch Dotierung zu beeinflussen, eine entscheidende Rolle spielt.

Die Kombination unterschiedlich dotierter Bereiche, z. B. beim p-n-Übergang, ermög- licht sowohl elektronische Bauelemente mit einer richtungsabhängigen Leitfähigkeit (Diode, Gleichrichter) oder einer Schalterfunktion (z. B. Transistor, Thyristor, Photodiode), die z. B. durch Anlegen einer elektrischen Spannung oder eines Stroms gesteuert werden kann (vgl. Arbeitszustände in Metall-Isolator-Halbleiter-Struktur). Weitere Anwendungen neben dem Transistor sind: Heißleiter, Varistoren, Strahlungs ¬ sensoren (Photoleiter, Fotowiderstände, Photodioden beziehungsweise Solarzellen), thermoelektrische Generatoren, Peltierelemente sowie Strahlungs- beziehungsweise Lichtquellen (Laserdiode, Leuchtdiode). Der Großteil aller gefertigten Halbleiterbauelemente ist Silicium-basiert. Silicium hat zwar nicht die allerbesten elektrischen Eigenschaften (z. B. Ladungsträgerbeweglichkeit), besitzt aber in Kombination mit sei- nem chemisch stabilen Oxid deutliche Vorteile in der Fertigung (siehe auch thermische Oxidation von Silizium).

Geschichte

Stephen Gray entdeckte 1727 den Unterschied zwischen Leiter und Nichtleiter. Nach- dem Georg Simon Ohm 1821 das Ohmsche Gesetz aufstellte, womit die Proportionalität zwischen Strom und Spannung in einem elektrischen Leiter beschrieben wird, konnte auch die Leitfähigkeit eines Gegenstandes bestimmt werden.

Der Nobelpreisträger Ferdinand Braun entdeckte den Gleichrichtereffekt der Halbleiter 1874. Er schrieb:„...bei einer großen Anzahl natürlicher und künstlicher Schwefelmetalle... der Widerstand derselben war verschieden mit Richtung, Intensität und Dauer des Stroms. Die Unterschiede betragen bis zu 30 Prozent des ganzen Wertes.“ Er beschrieb damit erstmals, dass der Widerstand veränderlich sein kann. Greenleaf Whittier Pickard erhielt 1906 das erste Patent für eine auf Silicium basierende Spitzendiode zur Demodulation des Trägersignals in einem Detektorempfänger. Anfangs wurde im gleichnamigen Empfänger („Pickard Crystal Radio Kit“) meistens Bleiglanz als Halbleiter verwendet, wobei in den 1920er Jahren robustere und leistungsfähigere Dioden auf Basis von Kupfersulfid-Kupfer- Kontakten entstanden.

Die Funktionsweise des auf einem Halbleiter-Metall-Übergang basierenden Gleichrichtereffektes blieb trotz technischer Anwendung über Jahrzehnte ungeklärt. Erst Walter Schottky konnte 1939 die theoretischen Grundlagen zur Beschreibung der nach ihm be nannten Schottky-Diode legen. Das erste Patent zum Prinzip des Transistors wurde 1925 von Julius Edgar Lilienfeld (US-Physiker österreichisch-ungarischer Abstammung) angemeldet

Lilienfeld beschrieb in seiner Arbeit ein elektronisches Bauelement, welches im wei- testen Sinne mit heutigen Feldeffekttransistoren vergleichbar ist, ihm fehlten seinerzeit die notwendigen Technologien, Feldeffekttransistoren praktisch zu realisieren.

Als 1947 in den Bell Laboratories die Wissenschaftler John Bardeen, William Bradford Shockley und Walter Houser Brattain zwei Metalldrahtspitzen auf ein Germaniumplätt- chen steckten und somit die p-leitende Zone mit der zweiten Drahtspitze mit einer elek trischen Spannung steuern konnten, realisierten sie damit den Spitzentransistor (Bipolartransistor). Dies brachte ihnen den Physik-Nobelpreis von 1956 ein und begründete die Mikroelektronik. Die Herstellung von hochreinem Silicium gelang 1954 Eberhard Spenke und seinem Team in der Siemens & Halske AG mit dem Zonenschmelzverfahren.

Dies brachte Mitte der 1950er Jahre zusammen mit der Verfügbarkeit eines Isolations materials (Siliciumdioxid) mit günstigen Eigenschaften (nicht wasserlöslich wie Ger- maniumoxid, einfach herstellbar usw.) den Durchbruch von Silicium als Halbleiterma terial für die Elektronikindustrie und etwa 30 Jahre später auch für die ersten Produkte der Mikrosystemtechnik.

Für die Herstellung von integrierten Schaltkreisen wird heute (2009) fast ausschließlich mit dem Czochralski- Verfahren kostengünstiger hergestelltes Silicium verwendet.

Alan Heeger, Alan MacDiarmid und Hideki Shirakawa zeigten 1976, dass bei einer Dotierung von Polyacetylen - einem Polymer, das im undotierten Zustand ein Isolator ist - mit Oxidationsmitteln der spezifische elektrische Widerstand bis auf 10 -5 W-m (Silber: ~ 10 -8 W-m) sinken kann. Im Jahre 2000 erhielten sie dafür den Nobelpreis für Che- mie.(siehe Abschnitt organische Halbleiter) Einteilung

Chemische Einteilung

Verbindungshalbleiter (ohne org.

Elementhalbleiter Organische Halbleiter

HL)

Tetracen, Pentacen,

Phthalocyanine, Polythio-

Ge, Si, a-Sn, C III-V: GaP, GaAs, InP, InSb, InAs, phene, PTCDA, MePTCDI, (Fullerene), B, Se. GaSb, GaN, Chinacridon, Acri- Te A1N, InN, AlxGai-xAs, InxGai-xN don, Indanthron, Flavanthron,

Perinon, Alq3

II-Vl: ZnO, ZnS, ZnSe, ZnTe, Mischsysteme:

Unter Druck: Bi, Ca, CdS, CdSe, CdTe, Polyvinylcarbazol,

Sr, Ba, Yb, P, S, I Hg(l -x)Cd(x)Te, BeSe, BeTe, TCNQ-Komplexe

HgS

III-VI: GaS, GaSe, GaTe, InS,

InSe, InTe ...

I-III-VI: CuInSe2, CuInGaSe 2 ,

CuInS 2 , CuInGaS2 ...

IV -IV: SiC, SiGe

IV- VI: SnTe

Die in der Mikroelektronik verwendeten klassischen, das heißt kristallinen elektronischen, Halbleiter lassen sich in zwei Gruppen einordnen, den Elementhalbleitem und den Verbindungshalbleitem. Zu den Elementhalbleitem zählen Elemente mit vier Valenzelektronen, beispielsweise Silicium (Si) und Germanium (Ge). Die Gruppe der Verbindungshalbleiter umfasst chemische Verbindungen, die im Mittel vier Valen- zelektronen besitzen. Dazu zählen Verbindungen von Elementen der III. mit der V. Hauptgruppe des Periodensystems (III-V-Verbindungshalbleiter), wie Galliumarsenid (GaAs) oder Indiumantimonid (InSb), und der II. Neben- mit der VI. Hauptgruppe (II- VI-Halbleiter), wie Zinkselenid (ZnSe) oder Cadmiumsulfid (CdS). Neben diesen häufig eingesetzten Halbleitern gibt es noch die I-VIT-Halbleiter, wie Kupfer(I)-chlorid. Auch Materialien, die im Durchschnitt nicht vier Valenzelektronen haben, können als Halbleiter bezeichnet werden, wenn sie einen spezifischen Widerstand im Bereich von größer KT 4 W-m und kleiner 10 6 W-m haben.

Eine weitere große Klasse sind die organischen Halbleiter. Als organisch werden sie bezeichnet, weil sie hauptsächlich aus Kohlenstoffatomen aufgebaut sind. Sie werden unterteilt in halbleitende Polymere (unterschiedlich lange Ketten aus einzelnen Monomeren) und kleine Moleküle (einzelne, abgeschlossene Einheiten). Obwohl Fullerene, Kohlenstoffnanoröhren und deren Derivate streng genommen auch kleine Moleküle darstellen, werden sie oft als alleinstehende Untergruppe wahrgenommen. Klassische Beispiele für organische Halbleiter sind P3HT (Poly-3- hexylthiophen, Polymer), Pen- tacen (kleines Molekül) oder PCBM (Phenyl-C61- butyric acid methyl ester, Fulleren- Derivat). Eingesetzt werden organische Halbleiter in Leuchtdioden (OLEDs), Solarzel- len (OPVs) und Feldeffekttransistoren.

Mehrere halbleitende Moleküle oder Atome bilden im Verbund einen Kristall oder er zeugen einen ungeordneten (amorphen) Festkörper. Grob können die meisten anorganischen Halbleiter als kristallin, die meisten organischen Halbleiter als amorph klassifi- ziert werden. Ob jedoch wirklich ein Kristall oder ein amorpher Festkörper gebildet wird, hängt im Wesentlichen vom Herstellungsprozess ab. So kann beispielsweise Silicium kristallin (c-Si) oder amorph (a-Si) sein, beziehungsweise auch eine polykristalline Mischform (poly-Si) bilden. Ebenso existieren Einkristalle aus organischen Molekü len.

Kristalline Halbleiter

Physikalische Grundlagen

Diamantstruktur (Elementarzelle)

Zinkblendestruktur (Elementarzelle)

Die Halbleitereigenschaften von Stoffen gehen auf ihre chemischen Bindungen und somit ihren atomaren Aufbau zurück. Halbleiter können in unterschiedlichen Strukturen kristallisieren, so kristallisieren Silicium und Germanium in der Diamantstruktur (rein kovalente Bindung), III-V- und II-VI-Verbindungshalbleiter hingegen meist in der Zinkblende-Struktur (gemischt kovalent-ionische Bindung). Typisches Bändermodell von Metallen, Eigenhalbleiter und Isolatoren (E = Energie

- kann mit Arbeit W gleichgesetzt werden; x = räumliche Ausdehnung in eindimensionaler Richtung); EF stellt die Lage der Fermi-Energie bei T = 0 K dar.

Die grundlegenden Eigenschaften von kristallinen Halbleitern lassen sich anhand des Bändermodells erklären: Die Elektronen in Festkörpern wechselwirken über sehr viele Atomabstände hinweg miteinander. Dies fuhrt faktisch zu einer Aufweitung der (im Einzelatom noch als diskrete Niveaus vorliegenden) möglichen Energiewerte zu ausgedehnten Energiebereichen, den sogenannten Energiebändern. Da die Energiebänder je nach Aufweitung und Atomart verschieden zueinander liegen, können Bänder sich überlappen oder durch Energiebereiche, in denen nach der Quantenmechanik keine er laubten Zustände existieren (Energie- oder Bandlücke), getrennt sein.

Bei Halbleitern sind nun das höchste besetzte Energieband (Valenzband) und das nächsthöhere Band (Leitungsband) durch eine Bandlücke getrennt. Das Fermi- Niveau liegt genau in der Bandlücke. Bei einer Temperatur in der Nähe des absoluten Nullpunktes ist das Valenzband voll besetzt und das Leitungsband vollkommen frei von Ladungsträgern. Da unbesetzte Bänder mangels beweglicher Ladungsträger keinen elektrischen Strom leiten und Ladungsträger in vollbesetzten Bändern mangels erreichbarer freier Zustände keine Energie aufnehmen können, was zu einer beschränkten Beweg- lichkeit führt, leiten Halbleiter den elektrischen Strom nicht bei einer Temperatur nahe dem absoluten Nullpunkt.

Für den Leitungsvorgang sind teilbesetzte Bänder notwendig, die bei Metallen durch eine Überlappung der äußeren Bänder bei jeder Temperatur zu finden sind. Dies ist - wie oben erwähnt - bei Halbleitern und Isolatoren nicht gegeben. Die Bandlücke („verbotenes Band“ oder„verbotene Zone“ genannt) bei Halbleitern ist im Gegensatz zu Isolatoren (EG > 4 eV[9]) jedoch relativ klein (InAs: ~ 0,4 eV, Ge: ~ 0,7eV, Si: ~ 1 ,1 eV, GaAs: ~ 1,4 eV, SiC: ~ 2,39 ... 3,33 eV, Diamant: ~ 5,45 eV), so dass beispielsweise durch die Energie der Wärmeschwingungen bei Raumtemperatur oder durch Absorption von Licht viele Elektronen vom vollbesetzten Valenzband ins Leitungsband angeregt werden können.

Halbleiter haben also eine intrinsische, mit der Temperatur zunehmende elektrische Leitfähigkeit. Deshalb werden Halbleiter auch zu den Heißleitern gezählt. Der Über- gang von Halbleitern zu Isolatoren ist fließend. So wird beispielsweise Galliumnitrid (GaN; Einsatz in blauen LEDs) mit einer Bandlückenenergie von ~ 3,2 eV ebenfalls zu den Halbleitern gezählt, Diamant mit einer Bandlücke von ~ 5,5 eV aber nicht mehr. Halbleiter mit einer Bandlücke deutlich größer als 1 eV werden auch als Halbleiter mit großer Bandlücke (englisch wide-bandgap semiconductor) bezeichnet.

Wird, wie oben beschrieben, ein Elektron in einem Halbleiter aus dem Valenzband in das Leitungsband angeregt, so hinterlässt es an seiner ursprünglichen Stelle ein Defek telektron,„Loch“ genannt. Gebundene Valenzelektronen in der Nachbarschaft solcher Löcher können durch Platzwechsel in ein Loch„springen“, hierbei wandert das Loch. Es kann daher als bewegliche positive Ladung aufgefasst werden. Sowohl die angereg ten Elektronen als auch die Defektelektronen tragen somit zur elektrischen Leitung bei. Elektronen aus dem Leitungsband können mit den Defektelektronen rekombinieren (Elektron-Loch-Rekombination). Dieser Übergang zwischen den beteiligten Niveaus kann unter Abgabe von elektromagnetischer Rekombinationsstrahlung (Photon) und/oder unter der Abgabe eines Impulses an das Kristallgitter (Phonon) erfolgen. Direkte und indirekte Halbleiter

Halbleiter werden in zwei Gruppen eingeteilt, die direkten und die indirekten Halbleiter. Ihre unterschiedlichen Eigenschaften lassen sich nur durch die Betrachtung der Bandstruktur im sogenannten Impulsraum verstehen: Die Ladungsträger im Halbleiter lassen sich als Materiewellen mit einem Quasiimpuls auffassen. Innerhalb eines Bandes hängt die Energie vom Quasiimpuls (oft als Wellenvektor angegeben) ab.

Die Extremwerte der Energie innerhalb der Bänder, also die Bandkanten, liegen bei un- terschiedlichen Wellenvektoren - wo genau, hängt vom Material und der Struktur ab. Wenn ein Elektron aus dem Valenzband ins Leitungsband angeregt wird, so ist es ener getisch am günstigsten (und somit am wahrscheinlichsten), wenn es vom Maximum des Valenzbandes zum Minimum des Leitungsbandes angeregt wird. Liegen diese Extrema nahezu beim gleichen Quasiimpuls, ist eine Anregung zum Beispiel durch ein Photon ohne weiteres möglich, da das Elektron lediglich seine Energie, nicht aber seinen Impuls ändern muss. Man spricht von einem direkten Halbleiter. Liegen die Extrema jedoch bei unterschiedlichen Quasiimpulsen, so muss das Elektron zusätzlich zu seiner Energie auch seinen Impuls ändern, um ins Leitungsband angeregt zu werden. Dieser Impuls kann nicht von einem Photon (welches einen sehr kleinen Impuls hat) stammen, sondern muss von einer Gitterschwingung (auch Phonon) beigesteuert werden.

Bei der Rekombination von Elektronen-Loch-Paaren gilt im Prinzip dasselbe. In einem direkten Halbleiter kann bei der Rekombination ein Lichtquant ausgesandt werden. Bei einem indirekten Halbleiter hingegen müsste zum Photon für die Energie noch ein Phonon für den Impuls erzeugt (oder absorbiert) werden und die strahlende Rekombination wird weniger wahrscheinlich. Es dominieren dann oft andere, nicht strahlende Rekom binationsmechanismen, z. B. über Verunreinigungen. Hieraus folgt, dass nur direkte Halbleiter zur effektiven Strahlungserzeugung verwendet werden können. Direkte und indirekte Halbleiter werden mittels Absorptionsversuch voneinander unterschieden. In der Regel sind Elementhalbleiter (Silicium, Germanium) und Verbindungshalbleiter aus der IV. Hauptgruppe indirekt und Verbindungshalbleiter aus verschiedenen Hauptgruppen (III/V: GaAs, InP, GaN) direkt. Bei einer Bandstruktur, bei der nahe der Leitungs- oder Valenzbandkante verschiedene Punkte im Impulsraum möglich sind, kann es zum sogenannten Gunn- Effekt kommen.

Eigenhalbleiter und Störstellenhalbleiter

Die Dichte freier Elektronen und Löcher in reinen, das heißt undotierten, Halbleitern werden intrinsische Ladungsträgerdichte oder Eigenleitungsdichte genannt - ein Eigenhalbleiter wird deshalb auch intrinsischer Halbleiter genannt, der dominierende Leitungsmechanismus ist die Eigenleitung. Die Ladungsträgerdichte im undotierten Halbleiter ist stark von der Temperatur abhängig und steigt mit ihr an. Wird dagegen die Konzentration der Ladungsträger im Leitungsband (Elektronen) beziehungsweise im Valenzband (Löcher) durch den Dotierstoff bestimmt, spricht man von einem Störstel- lenhalbleiter oder extrinsischen Halbleiter - hier ist der dominierende Leitungsmechanismus die Störstellenleitung. Dotierung und Störstellenleitung

Donatoren und Akzeptoren

Dotiergrade von Silicium

Stärke n-leitend p -leitend

Normale Dotierung ein Donator auf 10 7 ein Akzeptor auf 10 6 Starke Dotierung ein Donator auf 10 4 ein Akzeptor auf 10 4

Durch das Einbringen von Störstellen in einen Halbleiterkristall können die elektrischen Eigenschaften des (reinen) Halbleiters beeinflusst werden. Störstellen sind Fremdatome, welche sich beispielsweise in ihrer Wertigkeit von den Atomen des Wirtsmaterials unterscheiden, Beispiele sind Bor oder Phosphor in einem Siliciumkristall. Der Vorgang wird allgemein als Dotierung beziehungsweise als„Dotieren“ bezeichnet. Außerdem können durch die Kombination von unterschiedlich dotierten Gebieten verschiedene Bauelemente, z. B. ein Bipolartransistor, hergestellt werden. In manchen Halbleitern können schon geringste Mengen an Fremdatomen (z. B. ein Fremdatom auf 10 Mio. Halbleiteratome) zu extremen Änderungen der elektrischen Eigenschaften fuhren, die das intrinsische Halbleiten weit übertreffen. Das Einbringen von Störstellen erzeugt zusätzliche, örtlich gebundene Energieniveaus im Banddiagramm des Kristalls. Die Niveaus liegen im Allgemeinen in der für das Wirtsmaterial ansonsten vorhandenen Energielücke (Bandlücke) zwischen Valenz- und Leitungsband. Durch die im Vergleich zu undotierten Halbleitern geringeren Energie- differenzen der„Zwischenniveaus“ zum Valenz- beziehungsweise Leitungsband können diese Niveaus leichter angeregt werden und so bewegliche Ladungsträger zur Verfügung stellen.

Das Chemische Potential verschiebt sich aus der Mitte der Bandlücke in die Nähe der zusätzlichen Niveaus. Es stehen daher mehr Ladungsträger für die Leitung des elektrischen Stroms zur Verfügung, was sich in einer gegenüber dem reinen Halbleiter erhöhten Leitfähigkeit äußert. Man nennt diesen Leitungsmechanismus daher auch Störstellenleitung. Es werden dabei zwei Arten von Störstellen unterschieden: Donatoren und Akzeptoren. Als (Elektronen-)Donatoren (lat. donare = schenken) werden Fremdatome bezeichnet, die ein Elektron mehr im Valenzband haben als der reine Halbleiter, man bezeichnet solche Gebiete auch als n-dotierte Halbleiter. Werden solche Fremdatome in den Halbleiter eingebracht (substituiert), so bringt jedes dieser Fremdatome (im Fall von mit Phosphor dotiertem Silicium) ein Elektron mit, das nicht für die Bindung benötigt wird und leicht abgelöst werden kann. Es bildet sich ein Störstellenniveau in der Nähe der unteren Energie des Leitungsbandes.

Analog werden als (Elektronen-) Akzeptoren (lat. accipere = annehmen) Fremdatome bezeichnet, die ein Elektron weniger im Valenzband haben. Dieses Elektron fehlt für die Bindung zum Nachbaratom. Sie wirken als ein zusätzliches Defektelektron (Loch) mit (p-Dotierung), welches leicht von Valenzbandelektronen besetzt werden kann - daher findet sich auch in einigen Betrachtungen der Begriff Löcherdonatoren. Im Bänderschema liegt ein solches Störstellenniveau nahe oberhalb der Valenzbandkante.

In einem intrinsischen Halbleiter sind die Ladungsträgerkonzentrationen von Elektro- nen und Löchern gleich (Elektronen-Loch-Paare). Daher sind beide Ladungsträgerarten näherungs weise zu gleichen Teilen am Ladungstransport beteiligt. Durch das Einbrin- gen von Donatoren und Akzeptoren lässt sich dieses Gleichgewicht gezielt beeinflussen.

Bei Dotierung mit Donatoren sorgen vorwiegend die Elektronen im Leitungsband, bei Dotierung mit Akzeptoren die gedachten, positiv geladenen Löcher im Valenzband für elektrische Leitfähigkeit. Im ersten Fall spricht man von Elektronenleitung oder n- Leitung (n— » negativ), im anderen Fall von Löcherleitung oder p-Leitung (p— positiv). Halbleiterbereiche mit Elektronenüberschuss bezeichnet man (wie oben erwähnt) als n-dotiert, solche mit Mangel, also mit„Löcherüberschuss“, als p- dotiert. Im n- Leiter werden die Elektronen als Majoritätsladungsträger (mehrheitlich vorhandene Ladungsträger), die Löcher als Minoritätsladungsträger bezeichnet, im p- Leiter gilt die entsprechende Umkehrung. Durch geschickte Kombination von n- und p-dotierten Bereichen (siehe p-n-Übergang) kann man einzelne, sogenannte diskrete Halbleiterbauelemente wie Dioden und Transistoren und komplexe, aus vielen Bauelementen in ei- nem einzigen Kristall aufgebaute integrierte Schaltungen aufbauen. Oft ist in diesen Elektronikbauteilen das intrinsische Halbleiten sogar störend (siehe z. B. Leckstrom), sodass sie mitunter explizit gekühlt werden müssen.

Leitungsmechanismen in dotierten Halbleitern

Leitungsmechanismen im dotierten und undotierten Halbleiter in Abhängigkeit von der Temperatur

Am absoluten Nullpunkt (T = 0 K) unterscheiden sich dotierte und undotierte Halbleiter hinsichtlich der Ladungsträgerdichte nicht - es steht nicht ausreichend Energie zur Ver- fügung, um Elektronen in das Leitungsband oder auf Störstellenniveaus anzuregen. Wird die Temperatur erhöht (damit steigt die zur Verfügung stehende Energie durch thermische Anregung), ändern sich die Verhältnisse.

Da die energetischen Abstände der Störstellen zum Valenz- beziehungsweise Leitungs- band sehr viel geringer als der Bandabstand sind, können Elektronen vom Donatomi- veau ins Leitungsband beziehungsweise Löcher vom Akzeptorniveau ins Valenzband angeregt werden. Es stehen in Abhängigkeit von der Temperatur freie Ladungsträger zur Verfügung, die Leitfähigkeit von dotierten Halbleitern steigt.

Da noch nicht alle Störstellenniveaus ionisiert beziehungsweise besetzt sind, bezeichnet man diesen Bereich als Störstellenreserve. Wird die Temperatur weiter erhöht, bis alle Störstellenniveaus ionisiert beziehungsweise besetzt sind, spricht man von Störstellenerschöpfung. Die Ladungsträgerdichte und somit die Leitfähigkeit hängt in diesem Bereich im Wesentlichen nur noch von der Dotierungskonzentration ab. Wegen der mit zunehmender Temperatur abnehmenden Beweglichkeit hat man in diesem Temperatur- bereich ähnlich wie bei Metallen i. A. eine mit der Temperatur leicht abnehmende Leitfähigkeit.

Bei noch weiterer Erhöhung der Temperatur steht anschließend genug Energie zur Verfügung, um Elektronen direkt vom Valenzband in das Leitungsband anzuheben. Da ty- pische Dotierungskonzentrationen deutlich geringer sind als die Anzahl der Halbleitera tome (mindestens sechs Größenordnungen), überwiegt die Ladungsträgergeneration von Elektron-Loch-Paaren, dieser Bereich wird als intrinsisch oder Eigenleitung des Halbleiters bezeichnet. Grenzflächen

Durch die Kombination eines p-dotierten und eines n-dotierten Halbleiters entsteht an der Grenzfläche ein p-n-Übergang. Die Kombination eines dotierten Halbleiters mit einem Metall (z. B. Schottky-Diode) oder einem Nichtleiter ist ebenfalls von Interesse, und wenn zwei Halbleiter, beispielsweise Galliumarsenid und Aluminiumgalliumar- senid, übereinander liegen, entsteht ein Heteroübergang. Dabei sind nicht nur p-n- Übergänge von Bedeutung, sondern ebenfalls p-p-Übergänge und n-n-Übergänge, die sogenannten isotypen Hetero-Übergänge, die beispielsweise in einem Quantentopf verwendet werden. In jüngster Zeit gibt es Anstrengungen, Halbleiter, Supraleiter und Silicium- und III-V- Halbleiter auf einem Chip zusammenzuführen. Da die Kristallstrukturen nicht kompati- bei sind, entstehen in der Grenzfläche Brüche und Gitterfehler, wenn es nicht gelingt, geeignete Materialien für eine wenige Atomlagen dicke Zwischenschicht zu finden, in der die Gitterabstände sich angleichen können. Semimagnetische Halbleiter

Semimagnetische Halbleiter gehören zur Gruppe der Verbindungshalbleiter (englisch compound semiconductors). Es handelt sich um Verbindungen wie Indiumantimonid (InSb), die mit wenigen Prozent Mangan (Mn) dotiert sind und semimagnetische Eigenschaften noch bei Raumtemperatur zeigen. Auch Indiumarsenid (InAs) und Galliumar- senid (GaAs) zeigen, bei hoher Dotierung mit Mangan und dann als InMnAs bzw. GaMnAs bezeichnet, semimagnetische Eigenschaften. Die Curietemperatur liegt bei InMnAs bei 50-100 K und bei GaMnAs bei 100-200 K und damit deutlich unter Raumtemperatur. Eine charakteristische Eigenschaft dieser semimagnetischen Halbleiter ist der große Zeeman-Effekt. Im Englischen nennt man semimagnetische Halbleiter diluted magnetic semiconductors, da sie magnetisch verdünnt sind.

Amorphe Halbleiter

Amorphe Halbleiter haben keine Kristallstruktur. Ein Beispiel für die technische Anwendung ist amorphes Silicium in der Photovoltaik. Aufgrund ihrer hohen Störstellen- dichte müssen sie anders verarbeitet werden als kristalline Halbleiter, z. B. um Dotierung erst zu ermöglichen.

Organische Halbleiter

Im Allgemeinen sind organische Materialien elektrisch isolierend. Besitzen Moleküle oder Polymere ein konjugiertes Bindungssystem, bestehend aus Doppelbindungen, Dreifachbindungen und aromatischen Ringen, können auch diese elektrisch leitend werden und als organische Halbleiter verwendet werden. Als erstes wurde dies 1976 bei Polyacetylen beobachtet. Polyacetylen ist ein unverzweigtes Polymer mit abwechselnder Doppelbindung und Einfachbindung (-C=C— C=C-). Wird diesem Kunststoff noch ein Akzeptor wie z. B. Chlor, Brom oder Iod angefügt (oxidative Dotierung), liegen zusätzliche Löcher vor. Durch das Hinzufügen von einem Donator wie z. B. Natrium (reduktive Dotierung) erhält der Kunststoff zusätzliche Elektronen. Durch diese chemische Änderung brechen die Doppelbindungen auf, und es entsteht ein durchgehendes Leitungsband: Das ursprünglich nichtleitende Polymer wird elektrisch leitend. Besitzen Moleküle oder Polymere auch im undotierten Zustand halbleitende Eigenschaften, spricht man wie bei anorganischen Halbleitern von der intrinsischen Leitfähigkeit (Eigenleitfahigkeit), z. B. Pentacen oder Poly(3- Hexylthiophen). Wird der Kunststoff in Form einer dünnen Schicht von 5 bis 1000 nm Dicke hergestellt, ist er geordnet genug, um eine elektrisch durchgängige Schicht zu bilden.

Anwendungsbereiche Mikroprozessor

Siehe auch: Halbleitertechnik und Halbleiterelektronik

Halbleiter werden in der Elektronik in vielfältiger Form verwendet. Das zugehörige Teilgebiet wird als Halbleiterelektronik bezeichnet. Dazu zählen vor allem die halbleiterbasierten integrierten Schaltungen (ICs, wie Mikroprozessoren, Mikrocontroller usw.) und diverse Bauelemente der Leistungselektronik (z. B. IGBTs). Unternehmen in diesem Wirtschaftsbereich werden auch als Halbleiterhersteller bezeichnet. Weitere Anwendungsbereiche mit zunehmender Bedeutung sind die Photovoltaik (Solarzellen) sowie Detektoren und Strahlungsquellen in der Optik und Optoelektronik (zum Beispiel Fotodetektoren und Leuchtdioden). Der Fachbereich, der sich mit der Herstellung von halbleiterbasierten mikroelektronischer Bauelemente und Baugruppen befasst wird als Halbleitertechnik bezeichnet. Voraussetzung ist die Kenntnis, wie der Halbleiter bear- beitet werden muss, um das gewünschte elektrische Verhalten zu erreichen. Dazu gehören das Dotieren des Halbleiters und das Gestalten der Grenzfläche zwischen Halbleiter und einem weiteren Material.

Wirtschaft

Der Markt für Polysilicium ist zurzeit (2010) im Umbruch. Nachdem Polysilicium aufgrund der hohen Bedarfe aus dem Solarmarkt 2008/2009 stark nachgefragt wurde, stieg der Preis stark. Dies hat eine Reihe von Firmen dazu veranlasst, mit der Errichtung neu er Produktionsanlagen zu beginnen. Die etablierten Hersteller erweiterten zudem ihre Kapazitäten. Daneben drängen neue Anbieter - vor allem aus Asien - auf den Markt. Welcher dieser Hersteller in der Lage sein wird, seine Anlagen wie angekündigt in Be- trieb zu nehmen und bei stark gefallenen Preisen noch profitabel zu agieren, ist unsicher.

Der weltweit größte Hersteller von Wafern, auch aus Verbindungshalbleitern, ist das japanische Unternehmen Shin-Etsu Handotai (SEH) mit einem Wafer-Umsatz von 4 Milliarden Dollar im Jahre 2007. Der weltweit zweitgrößte, ebenfalls japanische Hersteller Sumitomo Mitsubishi Silicon Corp. (Sumco) hatte im selben Jahr einen Umsatz von 2,7 Milliarden Dollar. Dem folgen die deutsche Siltronic AG (Wacker) mit 1 ,8 Milliarden Dollar und das amerikanische Unternehmen MEMC Electronic Materials mit 1,2 Milliarden Dollar. Diese vier Unternehmen teilen sich etwa 79 % des gesamten Si- Wafermarktes von 12,5 Milliarden Dollar. Während der weltweiten Finanzkrise halbier ten sich die Umsätze nahezu, 2009 wurde nur noch Silicium für 6,7 Milliarden Dollar umgesetzt. Bereits 2010 hatten sich die Umsätze schon wieder auf 9,7 Milliarden Dollar erholt.

36. Elektronisches Papier

Als Elektronisches Papier (kurz E-Papier oder auch englisch e-paper, E-Paper oder ePaper genannt) werden Anzeigetechniken bezeichnet, mit denen versucht wird, das Aussehen von Tinte bzw. Farbe auf Papier nachzubilden.

E-Paper-Displays reflektieren das Licht wie normales Papier, es sind also passive (nichtleuchtende) Anzeigen. In Anlehnung an den englischen Sprachgebrauch werden solche Bildschirme auch als reflektive Displays bezeichnet. Texte oder Bilder werden bei manchen Anzeigetechniken dauerhaft angezeigt, ohne dass dafür eine Erhaltungs- Spannung erforderlich ist. Die Anzeige kann jedoch zu einem späteren Zeitpunkt geän- dert werden. Elektronisches Papier ist bei einigen Herstellern - ähnlich wie normales Papier - biegsam.

Obwohl es verschiedene Verfahren zur Herstellung elektronischen Papiers gibt und sich inzwischen eine größere Anzahl von Firmen mit deren Erforschung und Weiterentwicklung beschäftigt, findet man im allgemeinen Sprachgebrauch den Begriff E-Ink oft als synonyme Bezeichnung für Elektronisches Papier.

Genaugenommen handelt es sich bei E Ink (Eigenschreibweise ohne Bindestrich) nur um den Markennamen des Produkts der E Ink Corporation, das derzeit in den meisten modernen E-Book-Readem verwendet wird und das auf der Erscheinung der Elektrophorese basiert.

Technologie

In den 1970er Jahren hatte der Forscher Nick Sheridon am Palo Alto Research Center der Firma Xerox als Erster elektronisches Papier entwickelt. Es nannte sich Gyricon und bestand aus kleinen, statisch geladenen Kügelchen. Diese waren zweifarbig: auf der einen Seite schwarz, auf der anderen weiß. Der Textinhalt des Papiers ließ sich durch ein anliegendes elektrisches Feld verändern. Dadurch wurden die Kügelchen nach oben oder unten gedreht, so dass entweder die schwarze oder weiße Seite sichtbar war.

Gyricon konnte jedoch nicht ausreichend preiswert produziert werden, so dass Xerox die zur Vermarktung gegründete Firma Gyricon LCC Ende 2005 auflöste.

Elektrophorese

In den 1990er Jahren verwendete ein Team unter Leitung von Joseph Jacobson] am MIT kleine Mikrokapseln, in denen elektrisch geladene weiße Teilchen in gefärbtem Öl schwammen. Durch die Polarität eines angelegten elektrischen Feldes wandern die weißen Partikel an die Oberseite der Mikrokapsel (also für den Betrachter sichtbar), oder an die Unterseite, sodass der Betrachter an diesem Punkt die dunklere Farbe des Öls sah. Auf Grundlage dieser auf Elektrophorese basierenden Technik entwickelte das ameri kanische Unternehmen E Ink Corporation sein aktuelles elektronisches Papier. Dieses elektronische Papier enthält Mikrokapseln mit einem mittleren Durchmesser von ca. 40 mhi, die positiv geladene weiße Partikel und negativ geladene schwarze Partikel in einem transparenten zähflüssigen Polymer enthalten. Die Darstellung wird durch kurzzeitiges Anlegen einer elektrischen Spannung verändert und bleibt dann mehrere Wochen lang stabil. Form und Durchmesser der Mikrokapseln sind unregelmäßig, was aber unbedeutend ist, da sich jedes einzelne Pixel aus vielenMikrokapseln zusammensetzt und sich diese Unregelmäßigkeiten dadurch herausmitteln.

Makroaufnahme eines E-Ink Bildschirms. Die Mikrokapseln sind in der vergrößerten Darstellung sichtbar.

Die Verwendung von Mikrokapseln erlaubt auch, flexiblen Kunststoff anstelle von Glas als Trägermaterial zu verwenden.

Die Ansteuerung der Bildpunkte geschieht bei Segmentanzeigen mittels passiver transparenter Elektroden und bei Matrixdisplays über eine TFT- Aktiv-Matrix, wie sie auch bei LC-Bildschirmen verwendet wird.

Die Darstellung von Graustufen wird durch den zeitlichen Verlauf der angelegten Spannung gesteuert. Ursprünglich konnten acht Graustufen angezeigt werden, die aktuellen Displays arbeiten mit 16 Graustufen. In Verbindung mit aus der Drucktechnik und Bildbearbeitung bekannten Rasterverfahren wird eine scheinbar stufenlose Grauwert- darstellung erzielt.

Farbige Displays basieren entweder auf schwarz- weißem elektronischen Papier mit vorgelagerten Farbfiltern, oder sie sind mit farbigen Pigmenten ausgestattet. Die E Ink Corporation hat seit 1999 verschiedene Anwendungen vorgestellt und 2004 als erster Hersteller mit der Serienfertigung elektronischen Papiers in größerem Maßstab begonnen.

Produkte anderer Hersteller waren bzw. sind zum Beispiel„SiPix Microcup“ der ameri- kanischen Firma Sipix (die 2012 von der E Ink Corporation übernommen worden ist), das flexible elektronische Papier„Lectum“ des Herstellers "Plastic Logic", das in Dres- den hergestellt wird, die flexiblen E-Ink-Displays von LG Display oder das„O-paper“ des chinesischen Herstellers Guangzhou OED Technologies. Ein weiterer Hersteller elektrophoretischen elektronischen Papiers mit einer eigenen Technik war Bridgesto- ne,[8] dessen Entwicklung 2012 aber eingestellt wurde.

Seit 2002 sind durch Firmen wie E-Ink, Bridgestone oder Philips verschiedene Prototy pen farbigen elektrophoretischen E-Papiers vorgestellt worden, die aber alle nicht in Serienproduktion gegangen sind. Die E Ink Corporation hat 201 1 mit der Produktion des mit Farbfiltern arbeitenden elektronischen Papiers„Triton“ begonnen, und 2016 hat die Firma„ACeP“ vorgestellt, bei dem farbige Pigmente benutzt werden.

Flexibles elektronisches Papier wird hauptsächlich bei industriellen Displays und im Werbebereich eingesetzt. Bei elektronischen Lesegeräten, die vorzugsweise für bestmöglichen Kontrast und hohe Lebensdauer ausgelegt werden, dominieren Glasdisplays, auch wenn vereinzelt Prototypen mit flexiblen Bildschirmen gezeigt werden wie beispielsweise das faltbare E-Ink-Display.

Elektrophoretisch gesteuerte Totalreflexion

Das US-amerikanische Unternehmen CLEARInk hat auf der SID Display Week 2017 Displays vorgestellt, die auf der Kombination einer Folie mit totalreflektierenden Linsen und einer dahinter liegenden Schicht elektrisch geladenener Partikel in einer Flüssigkeit beruhen. Die Partikel werden durch ein angelegtes elektrisches Feld bewegt, und wenn sie sich an der rückseitigen Linsenoberfläche anlagern, wird die Totalreflexion durch Absorption unterdrückt.

Mit dieser Technik können Displays gefertigt werden, die schnell genug für Videowiedergabe sind, und es sollen bistabile Displays möglich sein, die deutlich mehr Licht reflektieren, als das bei E-Ink-Displays möglich ist. Bistabiie LCD Einige Firmen produzieren elektronisches Papier auf Basis von bistabilen LCDs. Diese ermöglichen ein neutrales Weiß bei hoher Albedo (Oberflächenreflexion) und Auflösungen bis zu 200 dpi. Ein Beispiel ist das Cholesteric Liquid Crystal Display. Prototyp eines hochauflösenden elektronischen Papiers. Der in das Display geschriebene Inhalt bleibt auch ohne Spannungsquelle über Wochen erhalten (bistabiler Zustand).

Elektrobenetzung (Electrowetting)

Der Philips-Firmenableger Liquavista hat eine Displaytechnik entwickelt, bei der eine gefärbte Öl- und eine Wasserschicht Obere inander liegen. Die Lichtdurchlässigkeit der einzelnen Bildpunkte wird dabei beeinflusst, indem die Oberflächenspannung mittels angelegter elektrischer Spannung verändert wird (Elektrobenetzung). Damit lassen sich farbige und schnelle reflektive Anzeigen mit hohem Kontrast und geringem Energieverbrauch hersteilen, deren Schaltgeschwindigkeit auch Video Wiedergabe erlaubt.

Der funktionsfähige Prototyp eines E-Book-Lesegerätes mit einem farbigen 6"- Electro wetting-Display wurde auf der CES 2010 vorgestellt.

Anfang 201 1 ist Liquavista von Samsung übernommen worden, und Anfang 2013 durch Amazon.

2018 wurde Liquavista geschlossen. Eine neue Firma namens Etulipa versucht, die Technik für Plakatwände zu etablieren.

Mikromechanisch gesteuerte Interferenz-Modulation

Siehe auch: Interferometrie modulator display

Der Mobilfunktechnik-Hersteller Qualcomm produzierte unter dem Namen„Mirasol“ vertriebene IMOD-Displays. Diese beruhten darauf, dass mikromechanisch der Abstand zweier reflektierender Schichten verändert und damit die Lichtreflexion mittels kon struktiver und destruktiver Interferenz gesteuert wird. Die Displayelemente sind (wie bei E-Ink) bistabil und ermöglichen die Herstellung stromsparender reflektiver Anzeigen. Qualcomm hat auf der CES 2010 funktionsfähige Prototypen von 5,7"-Lesegeräten mit farbigen Mirasol-Displays vorgestellt, die auch für Video Wiedergabe geeignet sind. Die Aufnahme der Produktion in größerem Maßstab war ursprünglich für 2012 ange- kündigt, es gab aber nur wenige Produkte. [28] Danach wurde an einer neuen Generation von Mirasol-Displays mit der Bezeichnung SMI (Single Mirror IMOD) gearbeitet, bei denen die einzelnen Pixel über das Spektrum durchstimmbar sind, und somit keine Farbfilter mehr benötigt werden. Auch diese Technik hat keine Anwendung in Endpro- dukten gefunden.

Vor- und Nachteile gegenüber herkömmlichen Bildschirmen und Papier

Das Portable Reading System PRS-505 von Sony (2007)

Elektronisches Papier vereint die Vorteile von Computerbildschirm und Papier. Gegen- über herkömmlichen Bildschirmen, wie sie zur TV- und Grafikwiedergabe genutzt werden, bietet es beim gegenwärtigen Stand der Entwicklung die folgenden Vorteile:

-Der Bildinhalt sieht wegen des geringen Abstandes der bildgebenden Elemente zur Oberfläche aus jedem Blickwinkel gleich aus (Vorteil gegenüber LCDs)

-Es gibt durch die statische Anzeige kein Flimmern (Vorteil gegenüber Röhrenmonitoren).

-Es ist sehr dünn und leicht und bei entsprechendem Design auch biegsam.

-Es ist in allen Größen und Formen herzustellen - vom kleinen Display mit der aktuellen Wetteranzeige bis hin zur großen Anzeigetafel oder Plakatfläche[30].

-Es verwendet sehr wenig Energie, um die Anzeige zu erzeugen und aufrechtzuerhalten, da nur zum Ändern des Bildinhaltes (Seitenwechsel) ein Stromfluss erforderlich ist.

-Es ist sowohl bei normalem Raumlicht als auch in hellem Sonnenschein lesbar, da die bildgebenden Elemente reflektiv sind. Die Nachteile gegenüber Druckmedien wie Papier sind die eher glatte Oberfläche der Displayabdeckung, die Stör- und Streulicht reflektiert. Sowohl die Grauwertauflösung (derzeit nur 16 Graustufen) als auch der Kontrast sind noch gering, und weiße Flächen erreichen im besten Fall ein helles Hellgrau. Die langen Schaltzeiten der ersten Generation elektronischen Papiers lassen nur eine statische Anzeige zu. Der Farbraum der far- bigen Displays ist vergleichsweise eingeschränkt. Durch Energiesparmechanismen der E-Book-Reader können auch Ghosting-Effekte auftreten Anwendungen

Elektronisches Preisschild im Supermarkt

Als ersten Feldversuch zur Auslieferung einer Zeitung hat die belgische Wirtschaftszeitung De Tijd von April bis Juni 2006 einen Test mit zweihundert Lesern durchgeführt. Das dabei verwendete Gerät war der iLiad von iRex.

Ein Feldversuch mit elektronischem Papier als Werbefläche wurde Ende 2006 von Hitachi durchgefuhrt. In Nahverkehrszügen einer Tokioter Eisenbahnlinie wurden als Ersatz für gewöhnliche Werbeposter Displays auf Basis elektronischen Papiers von Bridgestone angebracht. Meinungsumfragen sollten anschließend über die Vermark- tungsfahigkeit entscheiden.

Es gibt mittlerweile viele Geräte, in denen E -Paper-Displays eingesetzt werden:

Von zahlreichen Herstellern werden Lesegeräte für elektronische Bücher hergestellt bzw. als OEM-Geräte mit eigener Firmware vertrieben. Dies ist im Augenblick der Haupteinsatz elektronischen Papiers.

Als erstes Mobiltelefon hatte das von Motorola hergestellte Motofone F3 für die Anzeige elektronisches Papier eingebaut. Motorola bezeichnete dieses Display als„EPD“, es handelt sich um eine Segmentanzeige mit elektronischem Papier von E Ink. Der dabei im Vergleich zu anderen Anzeigeverfahren ungewohnte Effekt ist, dass die Anzeige bei Entfernen des Akkus aus dem Mobiltelefon erhalten bleibt. Ein Vorteil gegenüber anderen Telefondisplays ist, dass die Darstellung selbst bei direkter Sonneneinstrahlung ablesbar bleibt. Lexar hat die USB-Sticks„JumpDrive Secure II Plus“,„Echo MX“ und„MIO“ hergestellt, die den Füllstand ihres Speichers über ein Display mit elektronischem Papier an- zeigen. Da der Anzeigeinhalt ohne Stromzufuhr erhalten bleibt, kommen diese Geräte ohne Batterie aus. Western Digital verkauft seit August 2009 externe Festplatten (Serien My Book Elite und My Book Studio), die an ihrer Vorderseite über ein sogenanntes E-label verfügen. Das E-label zeigt eine frei wählbare Textzeile (Inhalt der Festplatte), den verfügbaren freien Speicher und die Aktivierung der Laufwerksverschlüsselung an.

Die Firma Seiko brachte 2005 mit dem Modell„Seiko Spectrum“ die erste Armbanduhr heraus, die mit einer E-lnk-Segmentanzeige ausgestattet ist. 2010 erschien die erste E- Ink-Uhr mit Matrixdisplay. Das Display weist 80.000 Pixel mit einer Auflösung von 300 ppi auf. Jedes Pixel kann eine von vier Graustufenschattierungen anzeigen.

Die österreichische Warenhauskette Billa verwendet E-Ink- Displays als Preisschilder, dadurch können die Verkaufspreise bestimmter Waren vom Büro aus geändert werden

Andere Anwendungen

Das Magazin Esquire erschien am 8. September 2008 zum 75. Jahrestag als erstes Magazin mit einem Cover, das mit elektronischem Papier ausgestattet war. Die dabei benutzte E-Ink-Einlage war jedoch keine Matrixanzeige, sondern diente dazu, Schlagzei- len ein- und auszuschalten, zu invertieren und Textbereiche blinken zu lassen. Die „Special Collector's Edition“ wurde 100.000-mal hergestellt.

Zunehmend werden E-Paper-Displays auch für Türschilder, z. B. bei Konferenzräumen mit häufig wechselnder Nutzung oder auch in Supermärkten zur Auszeichnung der Preise an den Regalen verwendet. The screen technology used in e-readers like the Amazon Kindle was conceived by undergraduates at MIT. In: Science Friday. 10. Mai 2016, abgerufen am 2. September 2017 (englisch).

37. Gedruckte Elektronik

Gedruckte Elektronik (englisch printed electronics) bezeichnet elektronische Bauele- mente, Baugruppen und Anwendungen, die vollständig oder teilweise mittels Druckverfahren hergestellt werden. Anstelle der Druckfarben werden elektronische Funktionsmaterialien, die in flüssiger oder pastöser Form vorliegen, verdruckt.

Häufig handelt es sich dabei um organische Materialien, insofern ist die gedruckte Elektronik ein Teilgebiet der organischen Elektronik und wird als Schlüsseltechnologie zu deren Herstellung angesehen. Durch eine erhebliche Reduzierung der Herstellungs- kosten, durch die Möglichkeit, großflächige und flexible Substrate zu bedrucken, sowie durch neuartige Funktionalitäten sollen Anwendungsfelder für die Elektronik erschlossen werden, die der konventionellen (anorganischen) Elektronik bisher nicht oder nur eingeschränkt zugänglich waren. Neue Entwicklungen durch die gedruckte Elektronik zeichnen sich u. a. in Anwendungen wie RFID, Displays und Solarzellen ab.

Grundlagen

Die gedruckte Elektronik vereint Erkenntnisse und Entwicklungen der Drucktechnologie, der Elektronik sowie der Chemie und Werkstoffwissenschaft, insbesondere der or- ganischen und Polymerchemie. Wegbereitend ist die Entwicklung der organischen Elektronik, die wiederum auf der Entwicklung organischer elektronischer Funktionsmaterialien basiert. Neben den elektronischen Funktionalitäten (Leiter, Halbleiter, Elektro- lumineszenz usw.) führte die Prozessier barkeit in flüssiger Form als Lösung, Dispersion oder Suspension solcher Materialien zur Entwicklung der gedruckten Elektronik. [1] Daneben werden aber auch anorganische Materialien, die sich in flüssiger Form prozessieren lassen, verwendet.

Insofern es sich bei der gedruckten Elektronik um Bauelemente aus der organischen Elektronik handelt, unterscheiden sich diese in Aufbau, Funktionsweise und Funktionalität teilweise von konventioneller Elektronik. Deshalb spielt das Design und die Opti- mierung der Bauelemente und Schaltungen unter Berücksichtigung des speziellen Herstellungsverfahrens eine wichtige Rolle in der Entwicklung der gedruckten Elektronik.

Zur Herstellung gedruckter Elektronik kommen fast alle industriellen Druckverfahren, meist in angepasster oder modifizierter Form, zur Anwendung. Analog zum konventio- nellen Bilderdruck, bei dem mehrere Farbschichten übereinander aufgetragen werden, werden in der gedruckten Elektronik elektronische Dünnschicht- Bauelemente durch das Übereinanderdrucken mehrerer Funktionsschichten hergestellt. Jedoch unterschei den sich sowohl die verwendeten Materialien als auch die geforderten Eigenschaften der gedruckten Schichten wesentlich voneinander, so dass die aufeinander abgestimmte Anpassung und Weiterentwicklung der verwendeten Druckverfahren und der verdruck- ten Materialien die zentrale Aufgabe in der Entwicklung der gedruckten Elektronik darstellt.

Beispielsweise ist die maximale Auflösung der gedruckten Strukturen im konventionel- len Bilderdruck durch die Auflösung des menschlichen Auges bestimmt. Strukturgrößen unterhalb von etwa 20 pm können vom menschlichen Auge nicht wahrgenommen und in herkömmlichen Druckprozessen meist auch nicht hergestellt werden. Dagegen sind in der Elektronik höhere Auflösungen wünschenswert, da diese unmittelbar die Integrationsdichte, aber auch die Funktionalität von Bauelementen (insbesondere von Transistoren) beeinflussen. Ähnliches gilt für die Passgenauigkeit übereinander gedruckter Schichten.

Schwankungen in der Dicke und anderen Schichteigenschaften sowie das Auftreten von Löchern sind beim konventionellen Drucken nur insofern von Relevanz, als sie vom menschlichen Auge wahrgenommen werden können. Dagegen stellen sie in der gedruckten Elektronik wesentliche Qualitätsmerkmale für die Funktion der gedruckten Bauelemente dar. Umgekehrt ist hier der visuelle Eindruck irrelevant.

Hinzu kommt, dass in der gedruckten Elektronik eine größere Vielfalt von Materialien verarbeitet werden muss, woraus sich neue Anforderungen an die Kompatibilität auf- einander gedruckter Schichten hinsichtlich Benetzung, Haftung und des gegenseitigen Anlösens ergeben.

Im Vergleich zur konventionellen Mikroelektronik zeichnet sich die gedruckte Elektronik durch eine einfachere, flexiblere und vor allem kostengünstigere Herstellung aus. Sie soll elektronischen Anwendungen eine wesentlich größere Verbreitung, Vernetzung und Durchdringung auch im Alltag ermöglichen. Ein Beispiel hierfür ist die Ausstattung der Verpackung von Alltagsgütern mit gedruckten RFID-Systemen, die eine kontaktlose Identifizierung im Handel und Transport ermöglicht. Zudem ermöglicht die gedruckte Elektronik die einfache Realisierung und Integration von speziellen Eigenschaf- ten und Funktionalitäten (z. B. flexible Displays und Solarzellen). Gedruckte und konventionelle Elektronik als komplementäre Technologien.

In der Regel bleibt die Leistungsfähigkeit von gedruckter Elektronik hinsichtlich der jeweiligen Funktion, abgesehen von einigen Ausnahmen z. B. auf dem Gebiet der Leuchtdioden, hinter der der konventionellen Elektronik zurück. Elektronische Anwen- düngen mit hohen Schaltfrequenzen und hoher Integrationsdichte (sog.„High- end- Elektronik“) werden auf absehbare Zeit von der herkömmlichen Elektronik dominiert werden, die jedoch auch vergleichsweise hohe Investitions- und Herstellungskosten er fordert. Dagegen zielt die gedruckte Elektronik als dazu komplementäre Technologie auf die Etablierung einer„Low-cost-Elektronik“ für Anwendungsbereiche, in denen die hohe Leistungsfähigkeit der konventionellen Elektronik nicht erforderlich ist.

Verfahren

Die Attraktivität der Anwendung von Druckverfahren zur Herstellung von Elektronik resultiert in erster Linie aus der Möglichkeit, Stapel von mikrostrukturierten Schichten (und somit Dünnschicht-Bauelemente) in wesentlich einfacherer und kostengünstigerer Weise als in der konventionellen Elektronik herzustellen. [8] Daneben spielt auch die Möglichkeit eine Rolle, neue oder verbesserte Funktionalitäten (z. B. mechanische Flexibilität) zu erzeugen. Die Auswahl des verwendeten Druckverfahrens richtet sich nach den Anforderungen an die gedruckten Schichten, nach den Eigenschaften der verdruck- ten Materialien sowie nach wirtschaftlichen und technischen Erwägungen hinsichtlich der hergestellten Produkte. Von den herkömmlichen industriellen Druckverfahren werden hauptsächlich der Inkjet- und Siebdruck sowie die sog. Massendruckverfahren Tief- , Offset- und Flexodruck in der gedruckten Elektronik verwendet. [5] Während die Massendruckverfahren meist als Rolle-zu-Ro Ile- Verfahren (web-fed) eingesetzt werden, kommen der Sieb- und der Inkjetdruck meist als Bogenverfahren (sheet-fed) zum Einsatz. Es existieren aber auch die jeweils anderen Varianten.

Massendruckverfahren

Die Massendruckverfahren Tief-, Offset- und Flexodruck zeichnen sich im Vergleich mit anderen Druckverfahren vor allem durch eine weit überlegene Produktivität, die sich in einem Flächendurchsatz von vielen 10.000 m 2 /h ausdrückt, aus. Sie sind daher in besonderer Weise geeignet, die Herstellungskosten drastisch zu senken, wenn sie auf das Drucken von Elektronik angewendet werden. Aufgrund ihres hohen Entwicklungsstandes und der Vielfalt von verfügbaren Verfahren und Verfahrensvarianten ermöglichen sie gleichzeitig hohe Auflösungen bis zu 20 mhi und darunter, hohe Schichtqualitä- ten sowie eine große Breite an erreichbaren Schichteigenschaften und prozessierbaren Materialien. Im Bereich der gedruckten Elektronik kommt es, wie bei anderen Druckverfahren auch, zu erheblichen Weiterentwicklungen der herkömmlichen Verfahren.

Allerdings erfordert die Anwendung und Anpassung der Massendruckverfahren für die gedruckte Elektronik nicht nur erhebliches Know-how, sondern auch im Vergleich mit den anderen Druckverfahren einen höheren Aufwand, der jedoch noch immer weit unter dem in der konventionellen Elektronik liegt. Während der Offset- und der Flexodruck vornehmlich für anorganische und organischeLeiter (letzterer auch für Dielektrika) verwendet werden, eignet sich der Tiefdruck wegen der hohen erreichbaren Schichtqua- lität besonders für qualitätssensible Schichten wie organische Halbleiter und Halbleiter/Dielektrikum-Grenzschichten in Transistoren, in Zusammenhang mit der hohen Auflösung aber auch für anorganische und organische Leiter. Es konnte gezeigt werden, dass sich Organische Feldeffekt- Transistoren und daraus aufgebaute integrierte Schal tungenvollständig mittels Massendruckverfahren herstellen lassen.

Tintenstrahldruck

Der Inkjetdruck ist ein flexibles und vielfältig einsetzbares digitales Druckverfahren, das mit verhältnismäßig geringem Aufwand und auch im Labormaßstab durchführbar ist. Daher ist er das für die gedruckte Elektronik wohl am häufigsten eingesetzte Druck- verfahren, allerdings ist er den Massendruckverfahren sowohl in Bezug auf den Flächendurchsatz (typischerweise 100 m 2 /h) als auch in Bezug auf die Auflösung (ca. 50 pm) unterlegen.

Er eignet sich besonders für niedrigviskose, gelöste Materialien wie organische Halblei- ter. Bei hochviskosen Materialien, wie organischen Dielektrika, und dispergierten Partikeln, wie anorganischen Metallfarben, treten immer wieder Schwierigkeiten durch das Verstopfen der Düsen auf. Wegen des tropfenweisen Auftrags der Schichten ist deren Homogenität begrenzt.

Diese Probleme können durch geeignete Maßnahmen abgemildert werden. Durch Paral- lelisierung, d. h. die gleichzeitige Verwendung vieler Düsen, bzw. eine Vorstrukturierung des Substrates können auch bezüglich der Produktivität bzw. der Auflösung Ver besserungen erreicht werden. Allerdings wird im letztgenannten Fall für den eigentlichen Strukturierungsschritt auf Nicht-Druckverfahren zurückgegriffen. Inkjetdruck wird bevorzugt für organische Halbleiter in organischen Feldeffekttransistoren (OFETs) und organischen Leuchtdioden (OLEDs) eingesetzt, es wurden aber auch vollständig mit dieser Methode hergestellte OFETs demonstriert. Des Weiteren können Front- und Backplanes von OLED- Displays, integrierte Schaltungen, organische photovoltaische Zellen (OPVCs) und andere Bauelemente und Baugruppen mit Hilfe des Inkjetdrucks hergestellt werden.

Siebdruck

Wegen der Möglichkeit, dicke Schichten aus pastösen Materialien zu erzeugen, wird der Siebdruck bereits seit längerer Zeit in industriellem Maßstab in der Fertigung von Elektronik und Elektrotechnik eingesetzt. Vor allem Leiterbahnen aus anorganischen Metallen (z. B. für Leiterplatten, Antennen oder Glucose-Teststreifen), aber auch isolierende und Passivierungsschichten werden mit diesem Verfahren hergestellt, wobei es jeweils auf eine vergleichsweise hohe Schichtdicke, aber nicht auf eine hohe Auflösung ankommt. Flächendurchsatz (ca. 50 m 2 /h) und Auflösung (ca.100 pm) sind, ähnlich wie beim Inkjetdruck, begrenzt. Auch in der gedruckten Elektronik wird dieses vielseitige und verhältnismäßig einfache Verfahren vor allem für leitende und dielektrische Schichten angewandt, es können aber auch organische Halbleiter, z. B. für OPVCs, und sogar vollständige OFETs gedruckt werden. Weitere Verfahren

Neben den konventionellen Verfahren kommen auch neue Verfahren, die Ähnlichkeiten zum Drucken aufweisen, zum Einsatz, darunter das Microcontact- Printing und die Nanoprägelithografie.

Dabei werden Schichten mit mpi- bzw. nm- Auflösung in einem dem Stempeln ähnlichen Verfahren mit weichen bzw. harten Formen hergestellt. Häufig werden dabei die eigentlichen Strukturen auf subtraktivem Wege, z. B. durch das Aufbringen von Ätzmasken oder durch Lift-off- Verfahren, erzeugt. Auf diese Weise können z. B. Elektro- den für OFETs hergestellt werden.

Vereinzelt wird in ähnlicher Weise auch der Tampondruck verwendet. Gelegentlich wird auch die Anwendung sog. Transferverfahren, bei denen feste strukturierte Schichten von einem Träger auf das Substrat übertragen werden, zur gedruckten Elektronik gezählt. Die Elektrofotografie (der sog. Toner- oder Laserdruck) kommt bisher nicht in der gedruckten Elektronik zur Anwendung.

Materialien

Für die gedruckte Elektronik werden sowohl organische als auch anorganische Materia- lien verwendet. Voraussetzung dafür ist, neben der jeweiligen elektronischen Funktionalität, dass die Materialien in flüssiger Form, d. h. als Lösung, Dispersion oder Sus pension, vorliegen. Dies trifft insbesondere auf viele organische Funktionsmaterialien, die als Leiter, Halbleiter oder Isolatoren verwendet werden, zu. Mit wenigen Ausnahmen handelt es sich bei den anorganischen Materialien um Dispersionen von metallischen Mikro- oder Nanopartikeln. Ausgangspunkt der Entwicklung druckbarer elektronischer Funktionsmaterialien war die Entdeckung konjugierter Polymere (Nobelpreis für Chemie 2000) und deren Weiterentwicklung zu löslichen Materia lien. Heute existiert eine große Vielfalt druckbarer Materialien aus dieser Polymerklas- se, die leitende, halbleitende, elektrolumineszente, photovoltaische und andere funktio- nale Eigenschaften aufweisen. Andere Polymere werden meist als Isolator|Isolatoren bzw. Dielektrika eingesetzt.

Neben der jeweiligen elektronischen Funktionalität ist die Prozessier barkeit in den Druckverfahren wesentlich für die Anwendung in der gedruckten Elektronik. Dabei können diese beiden Eigenschaften durchaus im Widerspruch zueinander stehen, so dass eine sorgfältige Optimierung erforderlich ist. Beispielsweise wirkt sich eine höhere molare Masse leitfähiger Polymere tendenziell positiv auf die Leitfähigkeit der gedruckten Schicht, aber negativ auf die Löslichkeit in dem zum Drucken verwendeten Lö sungsm itte 1 aus .

Für die Prozessierung in den Druckverfahren spielen die Eigenschaften der flüssigen Formulierung wie Viskosität, Oberflächenspannung und Feststoffgehalt eine Rolle, des Weiteren sind auch Wechselwirkungen mit vorhergehenden bzw. nachfolgenden Schichten wie Benetzung, Haftung und gegenseitiges Anlösen sowie der Trocknungsprozess nach der Deposition der flüssigen Schicht zu berücksichtigen. Die Verwendung von Additiven zur Verbesserung der Prozessierbarkeit wie bei konventionellen Druckfarben ist in der gedruckten Elektronik stark eingeschränkt, da diese häufig die jeweilige Funktion beeinträchtigen.

Die Eigenschaften der eingesetzten Materialien bestimmen bereits in großem Umfang die Unterschiede zwischen der gedruckten und der konventionellen Elektronik. Einer seits bieten die Materialien der gedruckten Elektronik eine Reihe von Vorteilen, die entscheidend für die Entwicklung dieser Technologie sind. Dazu gehören neben der Prozessierbarkeit in flüssiger Form die mechanische Flexibilität sowie die Möglichkeit, funktionale Eigenschaften durch chemische Modifikationen einzustellen (z. B. die Farbe des emittierten Lichtes in der aktiven Schicht von OLEDs).[32] Andererseits können im Allgemeinen aus organischen, insbesondere aus polymeren, Materialien nicht die hochgeordneten Schichten und Grenzflächen, wie sie in der anorganischen Elektronik verwendet werden, hergestellt werden. Das führt u. a. dazu, dass die Leitfähigkeit in gedruckten Leitern bzw. die Ladungsträgerbeweglichkeit in gedruckten Halbleitern z. T. weit unter den Werten in anorganischen Schichten liegen.

Ein zurzeit intensiv untersuchter Punkt ist die Tatsache, dass in den meisten organi- sehen Materialien die Lochleitung gegenüber der Elektronenleitung bevorzugt ist. Neuere Untersuchungen deuten darauf hin, dass es sich dabei um eine spezifische Eigenschaft von organischen Halbleiter/Dielektrikum-Grenzflächen, die in OFETs eine zentrale Rolle spielen, handelt. Daher konnten bisher keine Bauelemente vom n-Typ, im Unterschied zu p-Typ-Bauelementen, gedruckt werden, sodass in der gedruckten Elektronik bisher keine CMOS-, sondern ausschließlich PMOS-Technologie möglich ist. Schließlich liegt auch die Stabilität gegenüber Umwelteinflüssen und die Lebensdauer gedruckter elektronischer Funktionsschichten typischerweise unter der der konventionellen Materialien. Ein wesentliches Charakteristikum der gedruckten Elektronik stellt die Verwendung von flexiblen Substraten dar, die sich günstig auf die Herstellungskosten auswirkt und die Herstellung von mechanisch flexiblen elektronischen Anwendungen ermöglicht. Während im InkJet- und Siebdruck zum Teil noch auf starren Substraten wie Glas und Silizium gearbeitet wird, werden in den Massendruckverfahren aufgrund ihres rotativen Verfahrensprinzips fast ausschließlich Folie und Papier eingesetzt.

Aufgrund des Kostenvorteils kommt häufig Polyethylenterephthalat-Folie (PET), we gen der höheren Temperaturstabilität gelegentlich auch Polyethylennaphthalat- (PEN) und Polyimid-Folie (PI) zum Einsatz. Weitere wichtige Kriterien für die Verwendung des Substrates sind eine niedrige Rauheit und eine geeignete Benetzbarkeit, die gegebenenfalls durch Vorbehandlungen (Beschichtung, Coronabehandlung) angepasst werden kann. Im Gegensatz zum konventionellen Druck wirkt sich eine hohe Saugfähigkeit in der Regel ungünstig aus. Aufgrund der niedrigen Kosten und der vielfältigen Anwendungsmöglichkeiten stellt Papier ein attraktives Substrat für die gedruckte Elektronik dar, bereitet jedoch wegen der hohen Rauheit und Saugfähigkeit technologische Schwierigkeiten. Nichtsdestoweniger sind entsprechende Entwicklungen im Gange. Zu den am häufigsten in der gedruckten Elektronik verwendeten Materialien zählen die leitfahigen Polymere Poly-3,4-ethylendioxythiophen, das mit Polystyrensulfonat dotiert wird (PEDOT:PSS), und Polyanilin (PANI). Beide Polymere sind kommerziell in ver- schiedenen Formulierungen erhältlich und wurden bereits im Inkjet-, Sieb- und Offsetdruck bzw. im Sieb-, Flexo- und Tiefdruck verdruckt. Alternativ werden Silber- Nanopartikel im Flexo-, Offset- und Inkjetdruck, im letztgenannten Verfahren auch Gold-Partikel, verwendet. Neben den polymeren und metallischen Materialien rückt zudem auch der Kohlenstoff als robustes Material für gedruckte elektronische Anwen- düngen in den Fokus dieser Technologie.

Zahlreiche polymere Halbleiter werden im Inkjetdruck prozessiert, wobei es sich häufig um Poylthiophene wie Poly(3-Hexylthiophen) (P3HT) und Poly-9,9- dioctylfluoren- cobithiophen (F8T2) handelt. Das letztgenannte Material wurde auch bereits im Tief- druck verdruckt. Verschiedene elektrolumineszente Polymere werden im Inkjetdruck verarbeitet, ebenso wie aktive Materialien für die Photovoltaik (z. B. Mischungen von P3HT mit Fulleren-Derivaten), die zum Teil auch im Siebdruck aufgetragen werden können (z. B. Mischungen von Polyphenylenvinylen- mit Fulleren-Derivaten). Druckbare organische und anorganische Isolatoren bzw. Dielektrika existieren in großer Zahl und können in verschiedenen Druckverfahren verarbeitet werden.

Bauelemente und Anwendungen

Nahezu alle für elektronische Anwendungen notwendigen Bauelemente werden auch in der gedruckten Elektronik hergestellt. Schwerpunkte der aktuellen Entwicklungen bil- den:

-OFETs, OLEDs und OPVCs,

-ferner auch Dioden, verschiedene Arten von Sensoren, Speicherelementen und Anzeigesystemen sowie Antennen und Batterien. -Häufig werden Elektroden und andere leitfahige Schichten in den Bauelementen gedruckt. Insbesondere die Herstellung der Source/Drain- Elektroden von OFETs im Inkjetdruck und mittels Massendruckverfahren ist Gegenstand intensiver Entwicklungen. -In OLEDs und OPVCs wird PEDOT:PSS als Beschichtung für die Anode bzw. als Anode selbst verwendet und kann im Inkjetdruck aufgetragen werden. In diesen beiden Bauelementen stellt der Druck der Kathode mangels geeigneter druckbarer Materialien noch eine große Herausforderung dar. -Ebenso sind im Siebdruck aus metallhaltiger Farbe hergestellte RFID- Antennen in kommerziellen Systemen z. B. zum Diebstahlsschutz zu finden.

-Des Weiteren werden auch die Halbleiterschichten in den Bauelementen mittels Druckverfahren hergestellt. So werden beispielsweise der Inkjet- und der Tiefdruckfür die aktive Schicht von OFETs und der Inkjet- bzw. Siebdruck für die von OLEDs bzw. OPVCs eingesetzt. Vollständig gedruckte OFETs konnten im Inkjet- und Sieb- drucksowie mittels Massendruckverfahren hergestellt werden, im letztgenannten Fall wurde auch eine vollständig gedruckte integrierte Schaltung aus mehreren OFETs demonstriert.

Integrierte Schaltungen aus OFETs, OLED-Displays und Solarzellen auf der Basis von OPVCs, die unter Verwendung von Druckverfahren hergestellt werden, sowie andere gedruckte Bauelemente und Baugruppen sollen überall dort Anwendung finden, wo die spezifischen Eigenschaften der gedruckten Elektronik von Vorteil sind, d. h. dort, wo einfache, kostengünstige, flexible und großflächige elektronische Bauteile benötigt werden.

Häufig wird in diesem Zusammenhang der Einsatz gedruckter RFID-Tags diskutiert, da die gedruckte Elektronik die Herstellung und Integration solcher Systeme zu im Ver- gleich mit konventionellen Systemen wesentlich geringen Kosten ermöglichen soll, so dass die Ausstattung auch großer Stückzahlen von Alltagsprodukten (sog. single-item- tagging) möglich wird. In dieser Vision sollen gedruckte RFID-Tags in Zukunft den bisher zur Warenidentifikation verwendeten Barcode ablösen.

Auf organischen, z. T. auch flüssigprozessierbaren Materialien beruhende RFID- Schal- tungen wurden bereits demonstriert, jedoch ist die Leistungsfähigkeit von gedruckten Schaltungen für diese Anwendung noch nicht ausreichend. Hingegen sind einfachere, vollständig gedruckte Identifikationssysteme bereits in Anwendungen auf dem Markt zu finden. Auf dem Gebiet der OLED-Displays ist die Organische Elektronik am weitesten hinsichtlich kommerzieller Produkte fortgeschritten. Intensive Bemühungen zielen darauf, durch den Einsatz von Druckverfahren die Herstellungskosten weiter zu senken. Eine wesentliche Herausforderung stellt dabei, neben dem Druck der Kathode, die Integration der Ansteuerelektronik (backplane) dar. Bei den damit in Zusammenhang stehenden Visionen handelt es sich vor allem um biegsame und aufrollbare Displays sowie um großflächige, flexible und dünne Leuchtmittel.

Im Umfeld der Organischen Elektronik wurden auch andere Anzeigesysteme mit ähnlichen Funktionen, wie z. B. das E-Paper, entwickelt, die z. T. kurz vor der Markteinführung stehen und in Zukunft ebenfalls mit Hilfe von Druckverfahren hergestellt werden sollen.

Großflächige und flexible, auf kostengünstigen Substraten gedruckte Organische Solarzellen sind eine weitere Vision, deren Realisierung im Rahmen der gedruckten Elektronik vorangetrieben wird. Jedoch ist auch dafür noch eine Reihe von Fragestellungen zu bewältigen, neben dem Druck der Kathode ist beispielsweise eine Erhöhung des Wirkungsgrades für einen wirtschaftlichen Betrieb erforderlich.

Allgemein wird davon ausgegangen, dass bis zur Realisierung der mit der gedruckten Elektronik verbundenen Visionen noch einige Jahre vergehen, sich in der Zwischenzeit aber zunehmend einfache Anwendungen etablieren werden. Nicht zuletzt wegen der Möglichkeit der einfachen Integration zahlreicher Funktionalitäten wird die gedruckte Elektronik als eine der Schlüsseltechnologien für die Umsetzung neuer Paradigmen der Anwendung von Elektronik angesehen, die auf eine stärkere Vernetzung und umfassendere Durchdringung in vielen Lebensbereichen abzielen und mit denen Schlagworte wie „ubiquitous computing“ und„ambient intelligence“ verbunden sind.

Entwicklung der gedruckten Elektronik

Die Entwicklung der gedruckten Elektronik ist eng mit der der Organischen Elektronik verknüpft. Im Folgenden sind einige wichtige Meilensteine dieser Entwicklung aufge führt.

vor 1986: Siebdruck von metallhaltigen Farben für Leiterbahnen in Elektrotechnik/Elektronik, Verwendung von PEDOT:PSS als Antistatikbeschichtung, Verwendung organischer Photoleiter in der Elektrofotografie

1986: OFET

1986: OPVC

1987: OLED

1990: OFET mit flüssigprozessierter aktiver Schicht

1990: OLED mit flüssigprozessierter aktiver Schicht

1994: OFET auf flexiblem Substrat

1997: OFET mit im Siebdruck hergestellter aktiver Schicht

1998: OLED mit im Inkjetdruck hergestellter Elektrode

1998: integriertes OLED/OFET-Pixel mit flüssigprozessierten aktiven Schichten 1998: OLED mit im Inkjetdruck hergestellter aktiver Schicht

1999: OPVC auf flexiblem Substrat

2000: OFET mit im Inkjetdruck hergestellten Elektroden

2000: OLED auf flexiblem Substrat

2001 : OFET mit im Inkjetdruck hergestellter aktiver Schicht

2001 : vollständig im Siebdruck hergestellter OFET

2001 : OPVC mit flüssigprozessierter aktiver Schicht

2001 : OPVC mit im Siebdruck hergestellter aktiver Schicht

2004: OPVC mit im Inkjetdruck hergestellter Elektrode und aktiver Schicht

2005: vollständig im Inkjetdruck hergestellter OFET 2005: OFET mit im Offsetdruck hergestellten Elektroden aus PEDOT:PSS

2007: vollständig mit Massendruckverfahren hergestellte integrierte Schaltung

38. P-Ink

P-Ink („photonische Tinte“) ist eine Technologie, die in dünnen und flexiblen - elektronisch angesteuerten - Displays eingesetzt wird, wobei die Erzeugung der Farben über photonische Kristalle gesteuert wird.

Die darzustellende Farbe wird dabei über den Abstand zwischen den Kristallen gesteuert. Abhängig von diesem Abstand kann der Kristall nur von Licht mit einer bestimmten Wellenlänge durchdrungen und an der dahinterliegenden Reflexionsschicht reflektiert werden. Wenn keine Spannung angelegt wird, wird der Zustand der Kristalle und damit die Anzeige für mehrere Tage auffechterhalten, wodurch Displays mit P-Ink- Technik nur beim Umschalten der Anzeige Elektrische Leistung benötigen.

Funktionsprinzip von P-Ink

Der Vorteil von P-Ink gegenüber den meisten anderen Anzeigetechniken besteht darin, dass ein einzelnes Bildpixel mehrere Farben gleichzeitig ohne Helligkeitsverlust darstellen kann.

Das Prinzip wurde an der University of Toronto entwickelt. Um die Technologie zur Marktreife entwickeln zu können, wurde die Firma Opalux gegründet.

39. MicroLED

MikroLED - auch MicroLED, mLED oder pLED genannt - ist eine Flachbildschirmtechnologie auf Basis von Leuchtdioden (LED). Wie der Name besagt, basieren Mikro LEDs auf Anordnungen (Arrays) mikroskopisch kleiner Licht- Ausstrahlender-Dioden (Light Emitting Diodes LEDs), die die einzelnen Bildelemente (Pixel) bilden.

Gegenüber den älteren Flüssigkristallanzeigen (Liquid Crystal Displays LCDs) bieten MicroLED-Anzeigen einen deutlich höheren Kontrast, wesentlich schnellere Reakti- onszeiten und einen höheren Wirkungsgrad bezüglich Lichtstrom pro Leistung. Micro- LEDs (pLEDs) gelten als Nachfolger der organischen Leuchtdioden OLEDs. Im Ge gensatz zu den aus Kohlenstoff bestehenden OLEDs bestehen pLEDs aus Indiumgalliumnitrid InGaN Auf pLEDs basierende anorganische Halbleiter wurden erstmals von einer Forschungsgruppe um Hongxing Jiang und Jingyu Lin von Texas Tech University im Jahr 2000 entwickelt. pLEDs sind wegen ihres geringen Energieverbrauchs sowohl für sehr kleine Anzeigen, wie Smartwatches und Smartphones, als auch sehr große Anzeigen, wie Riesenfernseh- schirme, geeignet.

LCD ist das Plasma oder die Röhre von morgen: eine Technologie, die von einer oder mehreren abgelöst werden wird. Heiß gehandelte Kandidaten dafür sind LED, OLED sowie Micro LED (weitere international gebräuchliche Abkürzungen: Micro- LED, mLED oder pLED). Micro LED wurde im Jahr 2000 erstmals von Forschern vorgestellt. Wie OLED kann mLED mit absolut hervorragenden Schwarz- und Kontrastwerten punkten. Zudem ist pLED sehr langlebig und energieeffizient, was gerade in Profi- Szenarien interessant ist (Betriebs- und Laufzeiten, Unterhalt und Stromkosten). Im Unterschied zu OLED basiert MicroLED auf GaN, also einer LED- Technologie. Gegen- über OLED verweisen mLED-Befürworter auf eine höhere Lebensdauer sowie die hohe Luminanz der selbstleuchtenden LEDs.

Jetzt hat Samsung zur derzeit laufenden CES 2018 ein Consumer-Produkt - mutmaßlich im Preissegment High End - präsentiert, das einmal mehr zeigt, dass zumindest der große koreanische Hersteller MicroLED für eine der Zukunftstechnologien hält - und zwar für Screens in allen möglichen Größen und B2C- und B2B-Anwendungen:„The Wall“, ein 146" mLED-TV, der weltweit erste modulare in dieser Klasse. Der Vorteil ist offensichtlich: Wie bei LED- Walls lassen sich aus Modulen sehr formffei Screens in theoretisch beliebiger Größe bauen oder personalisieren. Bereits in den letzten Jahren hatten auch chinesische Hersteller erste TVs mit LED- Modulen als Proof-of-Concept präsentiert, dies allerdings zumeist ausschließlich auf dem heimischen Markt. Als weltweit erster Micro-LED-TV gilt der bereits 2012 von Sony vorgestellte Prototyp eines 55" Full HD„Crystal-TVs“. Er gilt als Vorfahr des CLEDIS (Canvas Display). Die selbst emittierende Technologie CLEDIS nutzt ultrafeine LEDs mit R (Rot), G (Grün) und B (Blau) auf der Displayoberfläche. Jeder Pixel besteht aus einer separaten ultrafeinen R-, G- und B-LED und die Lichtquelle ist nur 0,003 mm2 groß. Die verbleibende Fläche ist zu mehr als 99% schwarz. Für Business to Business-Anwendungen haben sowohl Samsung wie auch andere Player wie Sony erste Produkte auf den Markt gebracht, die MicroLED-Architekturen nutzen: Sony hat seine Lösung CLEDIS, Samsung den Cinema-LED-Screen. Dabei setzen beide Konzerne auf extrem kleine, selbst leuchtende LEDs. Während CLEDIS auf der ISE 2017 in der Wirkung bereits überzeugte, könnten im Februar 2018 auch andere Hersteller neue Micro LED-Produkte auf der Fachmesse zeigen. Samsung ist zumindest ein Kandidat dafür - äußert sich derzeit allerdings noch nicht zum Thema.

Hätte, hätte, Lieferkette: Es gibt aus der Supply Chain der Displayindustrie mehr als einen Hinweis darauf, dass pLED noch in diesem Jahr in spezifischen Digital Signage- Produkten eingesetzt werden könnte - natürlich keine Garantie, aber doch starke Indi- zien. Denn auch der nun gezeigte 146" MicroLED-TV von Samsung war laut Marktgerüchten aus dem Herbst 2017 zufolge erwartet worden, allerdings als 150" TV.

Erstmals im Mai 2017 sowie dann im Herbst 2017 wurden Marktgerüchte laut, nach denen Samsung den 2014 gegründeten taiwanesischen mLED-Spezialisten PlayNitride Inc. kaufen, oder sich an diesem beteiligen würde. Während PlayNitride das dementier te, äußerte sich Samsung nicht zu den Berichten. Ende 2017 hieß es vonseiten PlayNitrides, dass es Kaufangebote von mehreren Firmen gebe. Bislang sind LED- Experte Epistar sowie der taiwanesische Halbleiterhersteller United Microelectronics Corporation (UMC) die einzig bekannten Anteilseigner von PlayNitride. Aber auch ohne Kauf setzt Samsung auf pLED: Eigenentwicklungen sowie mögliche Lizenzierungen machen dies möglich. Wie im Falle des LED-Cinema-Screens ersichtlich, hat der Konzern hier schon ein erstes serienreifes Produkt auf den Markt

- und in die reale Welt der Projekt-Installationen - gebracht.

Der für gewöhnlich mehr als gut unterrichtete Branchendienst Digitimes berichtete kürzlich von einem weiteren Hersteller, der konkrete MicroLED-Produkte in der Pipe line hat, der südkoreanische Hersteller Lumens (nicht zu verwechseln mit dem namensähnlichen taiwanesischen Hersteller Lumens, der auf der ISE 2018 unter den Ausstel- lern sein wird).

Dem Bericht von Digitimes zufolge sprechen Industriequellen von der Entwicklung von 0,57" MicroLED-Screens bis hin zu einem 100" Digital Signage-Screen, der 100 bis 300 Mikrometer„große“ pLED Module nutzen solle

Ob auf der ISE oder bei der InfoComm oder einer der großen asiatischen Messen: Man sollte nicht zu überrascht sein, wenn in diesem Kalenderjahr der erste große Displayhersteller einen MicroLED Digital Signage-Screen präsentiert - etwa in der Klasse der 98" Large Format Displays.

40. LED-Fernseher

LED-Fernseher sind Fernsehgeräte, bei denen Leuchtdioden (LEDs) entweder zur Hintergrundbeleuchtung oder zur Erzeugung des Bildes selbst eingesetzt werden. Die folgende Begriffsklärung gilt auch für die meisten Computermonitore, welche zur Bilddarstellung sehr ähnliche Technik verwenden. Meist handelt es sich um LC- Displays (LCDs), deren Hintergrundbeleuchtung aus Leuchtdioden besteht (siehe LED- Hintergrundbeleuchtung). Dafür werden sowohl weiße, wie auch zu weiß mischbare farbige Leuchtdioden verwendet, die hinter der Flüssigkristallanzeige angeordnet sind. Der Begriff„LED-Fernseher“ ist bei dieser Art von Anzeigetechnik irreführend, jedoch üblich. Korrekt müssten solche Geräte als „LED- hintergrundbeleuchtete LCD- Fernseher“ bezeichnet werden.

Vergleichsschema LCD/LED

Bis etwa 2008 wurden im Wesentlichen nur drei unterschiedliche Techniken für den Gebrauch zuhause angeboten, nämlich Flüssigkristallbildschirme, Plasmabildschirme und Projektionsanzeigen. Weil Flüssigkristallanzeigen nur das Licht modulieren, d. h., wie Lichtventile arbeiten und selbst kein Licht abgeben, wird für Fernsehgeräte eine flächige Beleuchtung hinter der Flüssigkristallanzeige angebracht, um die Bildinforma- tion im Durchlicht (Transmission) darzustellen. Im vereinfachten Schema sind derartige Flüssigkristallbildschirme als Anzeigetypen A und B bezeichnet, wobei die Flüssigkristallanzeige 1 das Licht entsprechend dem darzustellenden Bild moduliert.

Seit etwa 2009 werden im Handel LED-Fernseher (engl. LED TV) und LED-Monitore angepriesen (Schema Anzeigetyp B). Dabei handelte es sich bis 2013 noch in praktisch allen Fällen um die bisherigen Flüssigkristallanzeigen zur Bilderzeugung.

Neu ist nur die Hintergrundbeleuchtung dieser LCD-Fernseher mittels Leuchtdioden (engl. LEDs; Schema: Teil 3, wobei ein nicht eingezeichneter Lichtverteiler für eine flächige Ausleuchtung sorgt).

Vergleich der Hintergrundbeleuchtungstechniken

Bis etwa 2008 wurden bei LCD-Fernsehern praktisch ausschließlich Kaltkathodenröhren (Leuchtröhren) als Hintergrundbeleuchtung verwendet (Schema: Teil 2 in Kombination mit einem nicht eingezeichneten flächigen Lichtverteiler). Die Verwendung von LEDs (Schema: Teil 3) anstelle von Leuchtröhren wird in der Produktwerbung hervorgehoben, weil folgende Vorteile gegenüber der früheren Technik bestehen: [2] kompaktere Bauweise mit geringerer Tiefe des Gerätes

geringerer Stromverbrauch bei niedrigeren elektrischen Spannungen

kürzere Schaltzeiten (siehe dynamische Leuchtdiodenansteuerung)

geringere Abnahme der Lichtintensität und Veränderung des Farbspektrums im Laufe der Nutzung höhere Zuverlässigkeit und Lebensdauer Einsatz von RGB-Kombinationen

Zusätzlich Vorteile ergeben sich bei speziellen Ausführungen der Leuchtdioden: Hier werden mehrere zusammengefugte Rot-Grün-Blau-Leuchtdiodenkombinationen hinter der Anzeigefläche verteilt angebracht (additive Farbmischung, full-array LED). Diese Art von Beleuchtung, abgestimmt auf die Farbfilter der Flüssigkristallanzeige, ergibt ein besseres Farbspektrum des Fernsehers, ist jedoch teurer als die Verwendung von Leuchtdioden entlang der Bildschirmperipherie (edge-lit).

Quantenpunkte für optimales Farbspektrum

Siehe auch : Quantenpunkt-Leuchtdiode

Mit Hilfe von Nanohalbleiterkristallen (Quantenpunkte, engl quantum dots), als Schicht auf einer Glasplatte oder Folie aufgebracht und durch blaue, kurzwellige LEDs (z. B. aus GaN) von hinten bestrahlt, kann das Spektrum der Hintergrundbeleuchtung von LCDs auf eine bisher unerreichte Art optimiert werden (Fachausdruck erweiterter Farbraum). Diese Form von Fluoreszenztechnik wird in verschiedenen Laboratorien weiterentwickelt. Die US-Firma 3M als bedeutender Lieferant von Hintergrundbeleuchtungskomponenten für LCDs arbeitet mit Nanosys, Inc. an entsprechend beschichteten Folien. Schon seit mehreren Jahren ist auch die britische Firma Nanoco Group PLC in der Weiterentwicklung von Quantenpunkten tätig und hat mit asiatischen Herstellern von Flüssigkristallanzeigen und OLEDs Zusammenarbeitsverträge abgeschlossen. Auch die US-Firma QD Vision arbeitet mit asiatischen Firmen zusammen, welche die Hintergrundbeleuchtung von LC-Anzeigen optimieren. Als erste Firma hat Sony 2013 unter der schon früher benutzten Bezeichnung Trilumi- nos bestimmte hochwertige LCD-Fernseher mit einer derartig optimierten LED- Hintergrundbeleuchtung auf den Markt gebracht. Dabei wird das Licht von blauen LEDs auf einer davor angebrachten Glasscheibe oder Folie durch unterschiedliche Quantum Dots in sehr reines, schmalband iges Blau, Grün und Rot umgewandelt. Durch Kombination dieser drei Grundfarben entsteht eine optimale weiße Ausleuchtung der LC- Anzeige von hinten. Seither haben auch die koreanischen Firmen Samsung Electro- nies, LG Electronics wie auch chinesische Fernsehgerätehersteller (TCL, Changhong, Hisense) LCD-Fernseher mit LED- Hintergrundbeleuchtung durch eine Quantenpunkte- Schicht verbessert und an der CES-Messe 2015 vorgestellt. Samsung Electronics hat 2016 beschlossen, ihre hochwertigen Fernseher neu mit der Bezeichnung QLED zu vermarkten, um auf die Technik mit Quantenpunkten hinzuweisen. Damit soll auch der Übergang zu den sich bei Samsung noch in Entwicklung befindenden neuen Bildschirmen mit selbstleuchtenden QLEDs vorbereitet werden.

Dynamische Leuchtdiodenansteuerung abhängig vom Bildinhalt

Bisherige Flüssigkristallbildschirme haben einen beschränkten Kontrast, weil die Darstellung eines schwarzen Bildpunktes (Pixel) wegen der immer noch etwas durchscheinenden Hintergrundbeleuchtung nicht vollständig dunkel war. Durch selektive Ansteuerung der verteilten Leuchtdioden je nach Bildinhalt können dunkle Teile durch die reduzierte lokale Beleuchtung (local dimming) dunkler gemacht und deshalb der Kontrast gesteigert werden. Die Anzahl der verteilt angebrachten Leuchtdioden (Schema B: Teil 3) ist viel kleiner als die Anzahl Pixel der Flüssigkristallanzeige. Deshalb lässt sich die erwähnte Kontraststeigerung nicht individuell für jeden Bildpunkt, sondern nur für eine größere Gruppe benachbarter Bildpunkte erzielen. Trotzdem kann mit dieser Technik der beste Kontrast aller LCD- Fernseher erreicht werden. Im Handel sind jedoch nur wenige Geräte mit dieser relativ teuren Hintergrundbeleuchtung als Kombination von Full-array LED mit Local Dimming erhältlich.

Echte LED-Anzeigen mit monolithischen Leuchtdioden

Anorganische, monolithisch hergestellte, einkristalline Leuchtdioden werden schon seit Anfang der 1970er Jahre als Anzeigeelemente verwendet. Beispiele waren die PULSAR-Armbanduhren mit rot leuchtender Digitalanzeige und die ersten Taschenrechner. Viele Einzelheiten und Hinweise finden sich im Artikel Leuchtdiode. Einen Durchbruch brachte die Entwicklung von blauen LEDs, weil damit Kombinationen von LEDs zur Erzeugung von weißem Licht möglich wurden. Monolithische LEDs werden auf einkristallinen Halbleiterscheiben (Wafers) hergestellt. Diese durch Kristallzüchtung hergestellten runden Scheiben haben heute einen Durchmesser von bis zu 30 cm. Wenn alle übrigen Probleme gelöst wären, könnte man damit keine größeren monolithischen LED-Bildschirme herstellen. In der Praxis werden dar- aus einzelne LEDs durch Zertrennen der Scheibe und individuelle elektrische Kontaktierung gewonnen.

Großbildschirme im Freien (z. B. in Fußballstadien, Videowand) werden mit einer Vielzahl von individuellen Leuchtdioden realisiert.

Einen neuen Ansatz verfolgen sogenannte Mikro-LED-Anzeigen. Mikro-LED- Anordnungen werden ebenfalls monolithisch im Batch-Verfahren auf einem geeigneten Substrat aus Saphir oder Silizium hergestellt. Das bevorzugte Material ist anorganisches, monokristallines Galliumnitrid (GaN), welches durch Epitaxie auf dem Substrat gebil- det wird. Im Gegensatz zur bisherigen Herstellung werden jedoch die Leuchtdioden anschließend nicht zertrennt, sondern als Anzeigematrix beibehalten.

Die dazu notwendige neuartige Struktur mit vielfachen Herausforderungen wie Dotierung für unterschiedliche Farben, Kontaktierung als Matrixanordnung, mechanische Stabilität bei Transfer vom Herstellsubstrat auf ein Anzeigesubstrat sind noch nicht der- art gelöst, dass solche Anzeigen für kommerzielle Produkte eingesetzt werden können. Die Firma Apple Inc. sieht Potential in dieser neuen Technik und hat deshalb das Pionierunternehmen LuxVue Technology übernommen.

Anzeigen mit organischen Leuchtdioden (OLEDs)

Schon seit den 1950er Jahren wird Elektro lumineszenz in Schichten organischen Materials erforscht. Inzwischen sind organische Halbleitermaterialien als OLED entwickelt worden, welche in Dünnschichttechnik als Anzeigeelemente geeignet sind. Im Schema ist diese Technik vereinfacht als Anzeigetyp C dargestellt. Die OLEDs 4 sind auf einem Substrat (oder zwischen zwei Substraten) in Dünnschichttechnik derart dicht aufge- bracht, dass sie als einzelne Pixel zur Bilderzeugung dienen.

Vorteile gegenüber Flüssigkristallanzeigen sind: -OLEDs strahlen selbst Licht ab, brauchen somit keine Hintergrundbeleuchtung und bieten hohen Kontrast.

-potentiell niederigere Herstellungskosten grosser Bildschirme als noch 2017[19] und geringerer Stromverbrauch bei Einsatz des Herstellverfahrens mittels Metallmaske

-OLEDs können in verschiedenen Farben Licht abgeben, während bei LCDs dafür zu sätzliche Farbfilter notwendig sind.

-geringere Winkelabhängigkeit beim Betrachten

-kürzere elektrooptische Ansprechzeiten

Als wichtigster Nachteil gilt die beschränkte Lebensdauer. Weitere Nachteile sind die UV-Empfindlichkeit und die derzeit noch hohen Herstellungskosten. Samsung Electronics als bedeutender Hersteller von sowohl Flüssigkristall- wie auch OLED- Anzeigen hat 2016 beschlossen, für zukünftige großformatige Fernseher auf OLEDs zu verzich- ten. Neben den erwähnten Nachteilen wird bei OLEDs auch das Einbrennen bestimmter Muster als weiterer Nachteil genannt. Der Hersteller setzt - im Gegensatz zum Wettbewerb - QLEDs anstelle von OLEDs bei der Fernsehertechnologie ein.

Mit solchen Anzeigen werden viele kleine bis mittelgroße portable Geräte wie Digital- kameras, Smartphones (z. B. Samsung Galaxy S), Tablets wie auch Laptops ausgerüstet. Im Januar 2012 wurden auf der Consumer Electronics Show (CES) in Las Vegas erste Prototypen von 55-Zoll-OLED-Fernsehern der Firmen LG Display und Samsung gezeigt.[25] OLED-Bildschirme sind inzwischen bei großformatigen Fernsehern allgemein erhältlich geworden. Häufig werden diese Displays unter dem Begriff AMOLED (engl active-matrix organic light emitting diode) zusammengefasst.

41. Organische Leuchtdiode

Eine organische Leuchtdiode (englisch organic light emitting diode, OLED) ist ein leuchtendes Dünnschichtbauelement aus organischen halbleitenden Materialien, das sich von den anorganischen Leuchtdioden (LED) dadurch unterscheidet, dass die elektrische Stromdichte und Leuchtdichte geringer und keine einkristallinen Materialien er- forderlich sind. Im Vergleich zu herkömmlichen (anorganischen) Leuchtdioden lassen sich organische Leuchtdioden daher in Dünnschichttechnik kostengünstiger hersteilen, ihre Lebensdauer und Lichtausbeute ist jedoch geringer als die herkömmlicher Leuchtdioden.

Die OLED-Technik wird für Bildschirme in Smartphones, Tablet-Computem wie auch in größerflächigen Fernsehern und Computermonitoren eingesetzt. Ein weiteres Einsatzgebiet ist die großflächige Raumbeleuchtung. Aufgrund der Materialeigenschaften ist auch eine mögliche Verwendung der OLEDs als biegsamer Bildschirm interessant.

OLED-Display

In den 1950er Jahren wurde die Elektro lumineszenz in organischen Materialien von A.Bernanose an der Universität Nancy in Frankreich entdeckt. Stoffe wie Acridinorange wurden in dünnen Filmen aus Cellulose oder Zellophan deponiert oder gelöst und einem Wechselstromfeld ausgesetzt. Dieser Mechanismus basiert auf der direkten Anregung von Farbstoffmolekülen oder Elektronen.

Martin Pope und Mitarbeiter der New York University entwickelten 1960 ohmsche Elektrodenkontakte zur Injektion von Ladungsträgern in organische Kristalle im unbe- leuchteten Zustand. Im Weiteren beschrieben sie die nötigen energetischen Anforderungen (Austrittsarbeiten) für Elektrodenkontakte, die Elektronen bzw. Löcher (Defektelektronen) in einen organischen Halbleiter injizieren können. Solche Kontakte sind die Basis für die Ladungsinjizierung bei allen modernen OLED-Geräten. Im Jahr 1963 entdeckte ebenfalls Popes Gruppe die erste Gleichspannungs (DC)- Lumineszenz unter Vakuum an einem reinen Anthracen-Einkristall und an Tetracen- dotierten Anthracen-Kristallen mit einer kleinen Silberelektrode bei 400 V. Dieser Mechanismus basiert auf feldbeschleunigter Elektronenanregung der molekularen Fluoreszenz. Popes Gruppe berichtete 1965 zum einen von Elektro lumineszenz in Anthracen- Kristallen, ausgelöst durch die Rekombination von thermalisierten Elektronen und Lö- ehern ohne ein äußeres elektrisches Feld, und zum anderen, dass bei Anthracen das Leit-Energieniveau höher als das Exziton-Energieniveau ist.

Ebenfalls 1965 produzierten Wolfgang Helfrich und W. G. Schneider vom National Re- search Council of Canada Elektro lumineszenz durch doppelt injizierte Rekombination zum ersten Mal in einem Anthracen-Einkristall unter der Verwendung von Löcher- und Elektronen-injizierenden Elektroden, den Vorläufern der modernen doppelinjizierenden Geräte. Im selben Jahr patentierten Forscher von Dow Chemical 1965 ein Verfahren zur Herstellung von Elektrolumineszenz-Zellen aus einem elektrisch isolierten, 1 mm dünnen Film aus geschmolzenem Phosphor mit eingearbeitetem Anthracenpulver, Tetracen und Graphitpulver, das mit Wechselspannung (100-3000 Hz, 500-1500 V) betrieben wurde. Dieser Mechanismus basiert auf elektronischer Anregung von Graphit und Anthracen- Molekülen an den Kontakten.

Die Leistungsfähigkeit war durch die schlechte elektrische Leitfähigkeit der damaligen organischen Materialien begrenzt. Diese Beschränkung wurde durch die Entdeckung und Entwicklung von hoch-leitfahigen Polymeren verbessert. So beobachtete Roger Partridge vom britischen National Physical Laboratory 1975 erstmals die Elektrolumi- neszenz von Polymerfilmen. Der später patentierte und 1983 in einer Fachzeitschrift veröffentlichte Aufbau bestand aus einer bis zu 2,2 pm dünnen Folie aus Poly(N- Vinylcarbazol) zwischen zwei ladungsinjizierenden Elektroden.

Ching W. Tang und Steven Van Slyke von der Eastman Kodak Company berichteten 1987 erstmals von einem Diodenaufbau. [18] Dabei wurde eine neuartige Zweischichtstruktur mit getrennter loch- und elektronentransportierender Schicht verwendet, so dass Rekombination und Lichtemission in der Mitte der organischen Schicht auftraten. Das führte zu einer niedrigeren Betriebsspannung und höherer Effizienz und stellte den Übergang zu der heutigen OLED-Forschung und - Produktion dar. 1990 entwickelten J. H. Burroughes und Mitarbeiter von der University of Cambridge eine effiziente, grünes Licht emittierende Anordnung unter der Verwendung von 100 nm dünnem Film aus Poly(p-phenylen-vinylen). 1996 wurde das erste Gerät mit einem leuchtenden Polymer von Cambridge Display Technology (CDT) vorgestellt. [20] Im November 2006 kreierten Wissenschaftler am Pacific Northwest National Laborato- ry (PNNL) eine blaue OLED mit einer Quantenausbeute von 1 1 % bei 800 cd/m 2 .

Aufbau und Funktionsweise

Schema einer OLED: 1. Kathode, 2. Emitterschicht, 3. Rekombination der Ladungsträ- ger mit Emission eines Photons, 4. Lochleitungsschicht, 5. Anode

OLEDs sind aus mehreren Schichten aufgebaut. Dabei wird meist auf die Anode, bestehend aus Indium-Zinn-Oxid (ITO), die sich auf einer Glasscheibe befindet, eine Lochleitungsschicht (englisch hole transport layer, HTL) aufgebracht. Zwischen ITO und FITL wird - abhängig von der Herstellungsmethode - oft noch eine Schicht aus PEDOT/PSS aufgebracht, die zur Absenkung der Injektionsbarriere für Löcher dient und die Eindiffusion von Indium in den Übergang verhindert. Auf die HTL wird eine Schicht aufgebracht, die entweder den organischen Farbstoff enthält (5 bis 10 Prozent) oder - eher selten - vollständig aus dem Farbstoff besteht, z. B. Aluminium- tris(8- hydroxychinolin), Alq3. Diese Schicht bezeichnet man als Emitterschicht (engl emitter layer, EL).

Auf diese wird optional noch eine Elektronenleitungsschicht (engl electron transport layer, ETL) aufgebracht. Zum Abschluss wird eine Kathode, bestehend aus einem Me- tall oder einer Legierung mit geringer Elektronenaustrittsarbeit wie zum Beispiel Calcium, Aluminium, Barium, Ruthenium, Magnesium-Silber-Legierung, im Hochvakuum aufgedampft. Als Schutzschicht und zur Verringerung der Injektionsbarriere für Elektronen wird zwischen Kathode und E(T)L meistens eine sehr dünne Schicht aus Lithiumfluorid, Caesiumfluorid oder Silber aufgedampft. Die Elektronen (d. h. die negativen Ladungsträger) werden nun von der Kathode injiziert, während die Anode die Löcher (d. h. die positiven Ladungsträger) bereitstellt. Elektronen und Löcher driften aufeinander zu und treffen sich im Idealfall in der EL, weshalb diese Schicht auch Rekombinationsschicht genannt wird. Elektronen und Lö- eher bilden einen gebundenen Zustand, den man als Exziton bezeichnet.

Abhängig vom Mechanismus stellt das Exziton bereits den angeregten Zustand des Farbstoffmoleküls dar, oder der Zerfall des Exzitons stellt die Energie zur Anregung des Farbstoffmoleküls zur Verfügung. Dieser Farbstoff hat verschiedene Anregungszu- stände. Der angeregte Zustand kann in den Grundzustand übergehen und dabei ein Photon (Lichtteilchen) aussenden.

Die Farbe des ausgesendeten Lichts hängt vom Energieabstand zwischen angeregtem und Grundzustand ab und kann durch Variation der Farbstoffmoleküle gezielt verändert werden. Ein Problem stellen nichtstrahlende Triplett-Zustände dar. Diese können durch Zugabe von sogenannten„Exzitoren“ wieder gelöst werden.

Verwendung und Auswahl organischer Materialien

Für die aus Polymeren gefertigten organischen LEDs hat sich die Abkürzung PLED (engl polymer light emitting diode) durchgesetzt. Als SOLED oder SMOLED werden seltener die aus„small molecules“ (kleinen Molekülen) hergestellten OLEDs bezeichnet. In PLEDs werden als Farbstoffe häufig Derivate von Poly(p-phenylen- vinylen) (PPV) verwendet. In jüngster Zeit werden Farbstoffmoleküle eingesetzt, die eine vierfach höhere Effizienz als mit den oben beschriebenen fluoreszierenden Molekülen er- warten lassen. Bei diesen effizienteren OLEDs werden metall- organische Komplexe verwendet, bei denen die Lichtaussendung aus Triplett- Zuständen erfolgt (Phosphoreszenz).

Diese Moleküle werden auch Triplett-Emitter genannt;[25][26] der Farbstoff kann auch durch das Umgebungslicht angeregt werden, was zu Lumineszenz führen kann. Ziel ist es allerdings, selbstleuchtende Bildschirme herzustellen, die die organische Elektrolu- mineszenz nutzen.

In den letzten Jahren sind Simulationstechniken entwickelt worden, die inzwischen ausgehend von der chemischen Zusammensetzung wichtige Eigenschaften von OLEDs komplett am Computer berechnen können. Diese Methoden erlauben eine kostengünstige Vorauswahl von Molekülen, ohne aufwändige Synthese und experimentelle Charak terisierung. Herstellungsverfahren bei AMOLED-Bildschirmen

Bei AMOLED-(Aktivmatrix-OLED)-Bildschirmen gibt es zwei bedeutende Herstellungsverfahren, die die Produktionskosten, die technischen Eigenschaften und damit das Anwendungsfeld bestimmen. Zum einen gibt es RGB-Side-by-Side- AMOLED- Bildschirme (SBS) unter anderem basierend auf einer fine metal mask (FMM)- Technologie und zum anderen weiße OLEDs mit einem Farbfilter (WOLED)

RGB-SBS-AMOLED-Bildschirme sind so aufgebaut, dass jeder Subpixel eine der drei Grundfarben Rot, Grün oder Blau emittiert. Die Vorteile liegen in einem großen Farbraum (>100 % NTSC) und einer geringen Leistungsaufnahme verglichen mit WOLED-Bildschirmen. Nachteilig wirken sich jedoch das Herstellungsverfahren und die verschieden schnelle Alterung der Subpixel aus. Bei der Herstellung der SBS- AMOLEDs werden die Pixel durch eine fine metal mask (FMM) platziert bzw. auf das Substrat aufgetragen. Problematisch ist hierbei die hohe Genauigkeit, mit der die Maske ausgerichtet werden muss (±1 pm). Besonders bei hohen Auflösungen und großen Bild- schirmen fährt dies oft zu Fabrikationsfehlern, damit zu einem hohen Ausschuss und hohen Kosten. Diese Technik wird deshalb bei kleinen Bildschirmen wie Smartphones eingesetzt. Samsung ist hier ein großer Hersteller.

Hingegen werden bei der WOLED-Technologie keine verschiedenfarbigen Subpixel hergestellt. Der Einsatz einer FMM findet nicht statt. Bei dieser Technik trifft weiß emittiertes Licht auf einen Farbfilter, der die Grundfarben pro Pixel selektiert. Durch die fehlende FMM ist eine Produktion auch bei großen Bildschirmen in großen Stück zahlen möglich. Farbverschiebungen infolge unterschiedlich schnell alternder Subpixel treten hier nicht auf. Jedoch ist die Leistungsaufnahme wegen des lichtabsorbierenden Farbfilters höher und der Farbraum kann geringer ausfallen als bei SBS-AMOLEDs. LG beispielsweise setzt die WOLED Technik bei Fernsehgeräten ein.

Vorteile

Gedruckte OLED-Zeile, mit einer Batterie zum Leuchten gebracht

Ein Vorteil von OLED-Bildschirmen gegenüber den herkömmlichen Flüssigkristall- bildschirmen (LCDs) ist der sehr hohe Kontrast, da sie ohne Hintergrundbeleuchtung auskommen: Schwarze Pixel emittieren kein Licht. Während LCDs nur als farbige Filter wirken und im Dunkelzustand trotzdem etwas Licht durchscheint, emittieren OLEDs farbiges Licht nur bei Ansteuerung, was auch sehr gute Farbdarstellung verspricht. Dieses Verfahren ist deutlich effizienter, wodurch OLEDs, speziell bei der Darstellung dunkler Bilder, weniger Energie benötigen. Aus diesem Grund werden OLED-Geräte weniger warm als entsprechende Geräte mit LC-Bildschirmen, obschon durch die Umstellung von Kaltkathodenröhren auf LEDs für die LCD-Hintergrundbeleuchtung der Energieaufwand für Flüssigkristallbildschirme gesenkt wurde. Durch den geringen Energiebedarf können OLEDs gut in kleinen, tragbaren Geräten eingesetzt werden, bei- spielsweise Notebooks, Handys und MP3 -Playern. Aufgrund der nicht benötigten Hin tergrundbeleuchtung ist es möglich, OLEDs sehr dünn zu gestalten. Ein auf der „Display 2008“ vorgestelltes Modell von Sony hat eine Tiefe von lediglich 0,3 Millimetern.

Die Reaktionszeit (engl, response time) von OLED-Bildschirmen liegt bei einigen Ge- räten unter 1 Mikrosekunde und ist damit rund lOOOmal schneller als das aktuell schnellste LCD mit einer Millisekunde.

Ein Vorteil beruht auf der Möglichkeit, OLEDs großflächig auch auf drucktechnischem Wege herzustellen, was keine teuren Vakuum- und Reinraum-Bedingungen benötigt. Der Kostenvorteil ergibt sich daraus, dass die elektrisch leitenden farbgebenden Schich- ten in einem modifizierten Tintenstrahldruckverfahren oder neuerdings auch im Offsetdruck aufgebracht und ebenfalls ohne Vakuum- Aufdampfen anschließend beschichtet werden können. Führend auf diesem Gebiet der löslichen OLED- Materialsysteme sind DuPontund Merck. Die ersten OLEDs wurden unter Laborbedingungen bereits 1987 gedruckt. Leitmesse mit Kongress für die gedruckte Elektronik ist jährlich die LOPEC Messe in München. Auf der Drupa 2012, Leitmesse der Druckindustrie, wurden u. a. gedruckte OLEDs als Milliardenmarkt.

Das größte technische Problem stellt die vergleichsweise geringe Lebensdauer mancher aus organischen Materialien bestehenden Bauelemente dar. Bei (O)LEDs bezeichnet man als Lebensdauer die mittlere Betriebszeit, nach der die Leuchtdichte auf die Hälfte abgesunken ist. Dabei haben blaue OLEDs die geringste Lebensdauer. Für weiße Licht quellen, wie bei Monitoren, ist für die insgesamt nutzbare Lebensdauer daher die blaue Komponente die begrenzende. 2011 wurden für weiße Lichtquellen 5000 Stunden (bei 1000 cd/m 2 ) und 12.000 Stunden (beilOO cd/m 2 )[45] angegeben. Im Vergleich dazu weisen handelsübliche weiße LEDs für die Hintergrundbeleuchtung bei LCD- Monitoren eine mittlere Betriebszeit in der Größenordnung von 30.000 Stunden auf.

Die Lebensdauer von OLEDs ist temperaturabhängig: Eine gut gekühlte OLED (gleich welcher Farbe) mit geringer Anfangsleuchtstärke hat immer eine höhere Lebensdauer als eine OLED, die ohne Kühlung von Anfang an mit der maximalen Leuchtstärke betrieben wird. Der Grund sind Diffusionsprozesse in der OLED, die bei höheren Tempe- raturen schneller ablaufen. Die Lebensdauer bei mittlerer bis geringer Helligkeit wird aus dem Wert bei maximaler Helligkeit extrapoliert, da der Test von OLED-Materialien bei geringer Leuchtstärke über mehrere Zehn- bis wenige Hunderttausende von Stunden nicht praktikabel ist. Ein weiterer Nachteil der OLED ist die im Vergleich zu Leuchtdioden geringere Licht ausbeute im Bereich von 40 lm/W bis 60 lm/W bei handelsüblichen OLEDs. Spitzen werte von ausgesuchten Labormustem bei OLEDs erzielen Werte knapp über 100 lm/W.[47] Herkömmliche Leuchtdioden für Beleuchtungszwecke erzielen Werte von 200 l /W, bei speziell optimierten LEDs bis knapp über 300 lm/W.

Neben geringerer Lebensdauer und Lichtausbeute reagieren OLEDs auch auf bestimmte äußere Stoffe empfindlich. So kann neben Wasser, durch Luftfeuchtigkeit allgegenwärtig, auch eindringender Sauerstoff das organische Material zerstören.

Daher ist es wichtig, das Display hermetisch zu kapseln und vor äußeren Einflüssen zu schützen. Die nötige starre Kapselung beeinträchtigt die Flexibilität. Durch Korrosion mit Sauerstoff ist vor allem die hochreaktive Injektionsschicht aus Calcium und Barium gefährdet. Typische Versagenserscheinungen sind kreisrunde, wachsende nichtleuchtende Bereiche, sogenannte„Dark Spots“. Ursache ist häufig eine Partikelbelastung beim Aufdampfen der Metallschichten. Auch die mikroskopischen Kanten der Mehrschichtstruktur werden durch Korrosion unterwandert, was zur Abnahme der effektiv leuchtenden Pixelfläche bei Bildschirmanwendungen führt.

Kommerzielle OLEDs auf flexiblem Substrat befinden sich mit Stand 2017 in der Einführungsphase, da alle flexiblen Kunststoffsubstrate eine hohe Durchlässigkeit für Sauerstoff und Luftfeuchtigkeit haben. Dünnstglas (Glas mit einer Dicke von höchstens et- wa 0,2 mm) ist in der Verarbeitung schwer handhabbar, außerdem ist das Anodenmaterial Indiumzinnoxid ein Hartstoff und spröde. Wiederholtes Ein- und Ausrollen um einen geringen Radius führt zum Brechen und schnellen Versagen (Widerstandsanstieg) der Anode. OLEDs könnten in vielen Anwendungen die heute gebräuchlichen LCDs sowie Plasmabildschirme ersetzen. Die Lebensdauer gibt noch einige Probleme auf, denn die roten, grünen und blauen Leuchtpunkte altern unterschiedlich schnell. Durch dieses unregelmäßige Altern der Einzelfarben kommt es beim Gesamtbild im Laufe der Zeit zu Farbverschiebungen, die sich nur begrenzt durch eine - idealerweise automatische - Nachregelung (vor allem über die Verstärkung der Blauemission) ausgleichen lassen. Die Grundpatente für OLED-Strukturen stammen aus den 1980er Jahren. Dabei war Kodak führend. Seit 1980 sind zu dem Thema etwa 6600 Patente bekannt.

Forschungsschwerpunkte liegen in Japan, Südkorea und den USA. Die meisten Patente sind in Japan registriert, gefolgt von den USA und Europa. Deutschland liegt mit etwa 4,5 % auf Platz drei hinter den USA mit etwa 22 %.

Da selbstleuchtende OLED-Displays noch teurer als hintergrundbeleuchtete LC- Displays sind, werden sie bisher nur in speziellen Anwendungen verwendet. Wegen der ge- ringeren Abmessungen bieten sie größere Gestaltungsfreiräume für den Gerätehersteller. Auch der Stromverbrauch der OLEDs ist oft niedriger, da sie keine Hintergrundbe leuchtung benötigen.

Große OLED-Bildschirme sind bisher teurer als entsprechend große LCD- Bildschirme. Probleme stellen vor allem die Kapselung der Bauelemente und die aufwendigere Ansteuerung der Pixel dar. Bei LCDs erfolgt die Ansteuerung mit geringer Leistung, da LCD-Pixel als elektrische Kapazitäten durch eine angelegte Spannung nur umgesteuert werden, die Lichtenergie wird von der Hintergrundbeleuchtung erzeugt. Im Gegensatz dazu müssen OLEDs selbst mit der für die Lichtabgabe erforderlichen Energie beauf- schlagt werden, um Elektrolumineszenz zu erzeugen. Sie sind stromgesteuert, weshalb die bisher verwendete, ausgereifte Technologie aus dem LCD-Bereich nicht direkt übertragen werden kann.

Bei kleinen OLED-Bildschirmen kann die Steuerung über eine sogenannte Passivmatrix erfolgen: Ein bestimmtes Pixel wird durch das Anlegen einer Spannung an eine Zeile und Spalte angesteuert, wofür zwei Leitungen notwendig sind. Für große Bildschirme ist diese Methode nicht ausreichend, weil die Bahnwiderstände linear mit der Größe zunehmen und damit die Treiberkraft nicht mehr ausreicht, um das jeweilige Pixel anzusteuern. Zur Steuerung des Bildschirms muss hier eine Aktivmatrix eingesetzt werden, bei der jedes Pixel einzeln über einen eigenen Transistor adressiert wird, was vier Leitungen nötig macht; abgeleitet von Aktivmatrix-OLED (engl active matrix organic light emitting diode) wird die Technik unter den Begriffen AMOLED und Su- perAMOLED vertrieben. Die Bereitstellung von Schalt-(Spannungssignalen) wie auch Versorgungsstrom ist (wie bei Plasmabildschirmen) aufwendig und damit teuer und einer der Hauptgründe für die hohen Kosten großer Bildschirme.

Farbdisplays mit AMOLEDs in einer PenTile-Matrixanordnung sind für die Erfindung anwendbar. Die als am neuesten angesehene Technik ist Super AMOLED+. Hier wurde die PenTile-Matrix entfernt, so dass jedes Pixel alle drei Grundfarben zur Verfügung hat. Demnach werden ohne Pentile-Matrix nicht mehr mehrere Pixel„zusammenge- schlossen“, um alle Farben zu mischen. Aufgrund dieser Änderung wirkt die Auflösung solcher Displays deutlich höher, und es stechen keine einzelnen Pixel hervor. Weitere Verbesserungen sind bessere Schwarzwerte, erhöhter Kontrast, mehr darstellbare Farben, geringerer Stromverbrauch und verringerte Dicke des Displays. Allerdings ist der PenTile-Effekt bei sehr hohen Pixeldichten von weit über 300 ppi (pixel per inch) nicht oder bei genauer Betrachtung kaum wahrnehmbar. Dies ist einer der Gründe, warum Samsung bei neueren Produkten zu Full HD noch SuperAMOLED- Bildschirme einsetzen kann, ohne eine verminderte Qualität fürchten zu müssen. Hersteller

Bedeutende Hersteller von Leuchtmitteln mittels OLED-Technik sind Osram, Konica- Minolta und OLEDWorks, während LG, Samsung SDI und AU Optronics wichtige Hersteller von OLED-Informationsanzeigen sind. Daneben gibt es eine Vielzahl weiterer Hersteller. Philips und Osram stiegen 2004 bzw. 2007 aus dem Display- Geschäft aus und produzieren nur noch OLED-Leuchtmittel. Mitte 2015 zog sich Philips ganz aus der OLED-Produktion zurück und verkaufte die Produktionsanlage an OLED Works in Rochester, NY, USA.

Im Juni 2015 legte der Pharma- und Spezialchemiehersteller Merck KGaA an seinem Stammsitz in Darmstadt den Grundstein für ein neues Werk, das für die internationalen OLED-Elektronikhersteller die nötigen chemischen Basiselemente für die OLED- Technologie produzieren soll. Die Kosten für die neue Fabrikanlage betrugen 30 Mio. Euro. Die Anlage ging im September 2016 in Betrieb.

Im November 2015 verkündete die LG Group, in Südkorea ein Werk für OLEDs zu er- richten, das im ersten Halbjahr 2018 die Produktion aufnehmen soll. Die Investitionskosten betragen angeblich 8,2 Mrd. Euro.

Während des Jahres 2016 hat Samsung Electronics als bedeutender Hersteller und Nutzer von AMOLEDs angekündigt, dass in Zukunft großflächige Fernsehbildschirme nicht mehr in OLED-Technik gefertigt werden. Neben beschränkter Lebensdauer werden Bildeinbrennerscheinungen und verhältnismäßig hohe Herstellkosten als Gründe genannt.

LCD ist das Plasma oder die Röhre von morgen: eine Technologie, die von einer oder mehreren abgelöst werden wird. Heiß gehandelte Kandidaten dafür sind LED, OLED sowie MicroLED (weitere international gebräuchliche Abkürzungen: Micro- LED, mLED oder pLED). MicroLED wurde im Jahr 2000 erstmals von Forschern vorgestellt. Wie OLED kann mLED mit absolut hervorragenden Schwarz- und Kontrastwerten punkten. Zudem ist pLED sehr langlebig und energieeffizient, was gerade in Profi- Szenarien interessant ist (Betriebs- und Laufzeiten, Unterhalt und Stromkosten). Im Unterschied zu OLED basiert MicroLED auf GaN, also einer LED- Technologie. Gegenüber OLED Verweisen mLED-Befürworter auf eine höhere Lebensdauer sowie die hohe Luminanz der selbstleuchtenden LEDs. Jetzt hat Samsung zur derzeit laufenden CES 2018 ein Consumer-Produkt - mutmaßlich im Preissegment High End - präsentiert, das einmal mehr zeigt, dass zumindest der große koreanische Hersteller MicroLED für eine der Zukunftstechnologien hält - und zwar für Screens in allen möglichen Größen und B2C- und B2B-Anwendungen:„The Wall“, ein 146" mLED-TV, der weltweit erste modulare in dieser Klasse. Der Vorteil ist offensichtlich: Wie bei LED-Walls lassen sich aus Modulen sehr formffei Screens in theoretisch beliebiger Größe bauen oder personalisieren. Bereits in den letzten Jahren hatten auch chinesische Hersteller erste TVs mit LED- Modulen als Proof-of-Concept präsentiert, dies allerdings zumeist ausschließlich auf dem heimischen Markt. Als weltweit erster Micro-LED-TV gilt der bereits 2012 von Sony vorgestellte Prototyp eines 55" Full HD„Crystal-TVs“. Er gilt als Vorfahr des CLEDIS (Canvas Display). Die selbst emittierende Technologie CLEDIS nutzt ultrafeine LEDs mit R (Rot), G (Grün) und B (Blau) auf der Displayoberfläche. Jeder Pixel besteht aus einer separaten ultrafeinen R-, G- und B-LED und die Lichtquelle ist nur 0,003 mm2 groß. Die verbleibende Fläche ist zu mehr als 99% schwarz. Für Business to Business- Anwendungen haben sowohl Samsung wie auch andere Player wie Sony erste Produkte auf den Markt gebracht, die MicroLED-Architekturen nutzen: Sony hat seine Lösung CLEDIS, Samsung den Cinema-LED-Screen. Dabei setzen beide Konzerne auf extrem kleine, selbst leuchtende LEDs. Während CLEDIS auf der ISE 2017 in der Wirkung bereits überzeugte, könnten im Februar 2018 auch andere Hersteller neue Micro LED-Produkte auf der Fachmesse zeigen. Samsung ist zumindest ein Kandidat dafür - äußert sich derzeit allerdings noch nicht zum Thema.

Hätte, hätte, Lieferkette: Es gibt aus der Supply Chain der Displayindustrie mehr als einen Hinweis darauf, dass gLED noch in diesem Jahr in spezifischen Digital Signage- Produkten eingesetzt werden könnte - natürlich keine Garantie, aber doch starke Indizien. Denn auch der nun gezeigte 146" MicroLED-TV von Samsung war laut Marktgerüchten aus dem Herbst 2017 zufolge erwartet worden, allerdings als 150" TV.

Erstmals im Mai 2017 sowie dann im Herbst 2017 wurden Marktgerüchte laut, nach denen Samsung den 2014 gegründeten taiwanesischen mLED-Spezialisten PlayNitride Inc. kaufen, oder sich an diesem beteiligen würde. Während PlayNitride das dementierte, äußerte sich Samsung nicht zu den Berichten. Ende 2017 hieß es vonseiten PlayNitrides, dass es Kaufangebote von mehreren Firmen gebe. Bislang sind LED- Experte Epistar sowie der taiwanesische Halbleiterhersteller United Microelectronics Corporation (UMC) die einzig bekannten Anteilseigner von PlayNitride. Aber auch ohne Kauf setzt Samsung auf pLED: Eigenentwicklungen sowie mögliche Lizenzierungen machen dies möglich. Wie im Falle des LED-Cinema-Screens ersichtlich, hat der Konzern hier schon ein erstes serienreifes Produkt auf den Markt

- und in die reale Welt der Projekt-Installationen - gebracht.

Der für gewöhnlich mehr als gut unterrichtete Branchendienst Digitimes berichtete kürzlich von einem weiteren Hersteller, der konkrete MicroLED-Produkte in der Pipeline hat, der südkoreanische Hersteller Lumens (nicht zu verwechseln mit dem namensähnlichen taiwanesischen Hersteller Lumens, der auf der ISE 2018 unter den Ausstel- lern sein wird).

Dem Bericht von Digitimes zufolge sprechen Industriequellen von der Entwicklung von 0,57" MicroLED-Screens bis hin zu einem 100" Digital Signage-Screen, der 100 bis 300 Mikrometer„große“ pLED Module nutzen solle.

Ob auf der ISE oder bei der InfoComm oder einer der großen asiatischen Messen: Man sollte nicht zu überrascht sein, wenn in diesem Kalenderjahr der erste große Displayhersteller einen MicroLED Digital Signage-Screen präsentiert - etwa in der Klasse der 98" Large Format Displays.