Computern helfen, sich selbst zu helfen - IEEE Spectrum

2022-07-30 08:47:59 By : Mr. Roger Xie

IEEE-Websites platzieren Cookies auf Ihrem Gerät, um Ihnen die beste Benutzererfahrung zu bieten.Durch die Nutzung unserer Websites stimmen Sie der Platzierung dieser Cookies zu.Um mehr zu erfahren, lesen Sie unsere Datenschutzrichtlinie.Dies ist Teil des speziellen F&E-Berichts von IEEE Spectrum: They Might Be Giants: Seeds of a Tech Turnaround.Wenn Sie von einem großen, knurrenden Hund gejagt werden, müssen Sie sich keine Gedanken darüber machen, ob Sie Ihre Herzfrequenz anpassen oder eine genaue Menge an Adrenalin freisetzen.Ihr Körper erledigt das alles automatisch, dank des vegetativen Nervensystems, der Hauptkontrolle für unwillkürliche Funktionen von Atmung und Blutfluss bis hin zu Speichelfluss und Verdauung.Bei IBM Corp. [Rang (5) unter den Top 100 F&E Spenders] und anderswo ahmen Forscher dieses Modell nach, indem sie die Komponenten und Rückkopplungsschleifen entwickeln, die für Computersysteme erforderlich sind, um sich selbst zu betreiben.Die Hoffnung ist, dass das ständige und kostspielige Eingreifen von Datenbank- und Netzwerkadministratoren, die versuchen, herauszufinden, was zu tun ist, bald der Vergangenheit angehören wird.Zu den ersten dieser Projekte gehören einige, die es Computersystemen ermöglichen, Rechenressourcen und Datenspeicherung selbst zu optimieren.In weiter Ferne liegen andere Komponenten dieser autonomen Vision, wie die Aufrechterhaltung einer eisernen Sicherheit gegen unerwünschtes Eindringen, die Ermöglichung einer schnellen automatischen Wiederherstellung nach Abstürzen und die Entwicklung von Standards zur Gewährleistung der Interoperabilität zwischen unzähligen Systemen und Geräten.Systeme sollten auch in der Lage sein, Serverausfälle, Systemeinfrierungen und Betriebssystemabstürze zu beheben, wenn sie auftreten, oder, noch besser, zu verhindern, dass sie überhaupt auftreten.Die Herausnahme des Menschen aus dem Kreislauf ist angesichts der Aussichten für das nächste Jahrzehnt umso dringlicher.Einigen Schätzungen zufolge werden möglicherweise 200 Millionen IT-Mitarbeiter benötigt, um eine Milliarde Menschen zu unterstützen, die Computer in Millionen von Unternehmen verwenden, die über Intranets, Extranets und das Internet miteinander verbunden werden könnten.Um in einem so großen Markt erfolgreich bestehen zu können [siehe „IT-Services-Markt wächst weiter“ weiter unten], sind hohe Investitionen im Vorfeld erforderlich: IBM hat „den Großteil“ seines jährlichen F&E-Budgets von 5,3 Milliarden US-Dollar für autonome Forschung vorgesehen.Der Erfolg wird auch die Zusammenarbeit zwischen Unternehmens-, akademischen und staatlichen Forschungslabors erfordern.Big Blue zum Beispiel befindet sich in den frühen Stadien der Entwicklung solcher Beziehungen und veranstaltete im vergangenen April ein Symposium zum autonomen Rechnen.Die Veranstaltung, die im IBM Almaden Research Center (San Jose, Kalifornien) stattfand, zog mehr als 100 Teilnehmer von verschiedenen Universitäten und Unternehmen an, darunter Stanford, Columbia, Cornell und die University of California, Berkeley, sowie die Konkurrenten Sun Microsystems (42 ), Hewlett-Packard (30) und Microsoft (12).Die Netzwerkherausforderung ist heute viel größer als in den Tagen der großen Netzwerke in den 1980er Jahren, bemerkt Alan Ganek, Vizepräsident für Autonomic Computing, der die gesamte autonome Arbeit von IBM vom Thomas J. Watson Research Center (Hawthorne, NY) aus überwacht. .„Jetzt haben wir PCs, Laptops, Smartphones und PDAs, die alle mit unterschiedlichen Betriebssystemen laufen“, betont er.Der Umfang und die Komplexität dieser Netzwerke unterscheiden sich deutlich von beispielsweise einem Geldautomatennetzwerk einer Bank, das 20.000 Geldautomaten in einem privaten Netzwerk mit einem einzigen Rechenzentrum verbindet, sagt er.Ein frühes Ziel der Forschung und Entwicklung, das darauf abzielte, adaptive Computersysteme zu schaffen, unterstreicht das Komplexitätsproblem: die Zuweisung von Rechenleistung innerhalb von Grids, die oft heterogen verteilte CPUs und Datenspeichergeräte umfassen.Wie von Wolfgang Gentzsch, Director of Grid Computing bei Sun, definiert, ist ein Grid eine „Hardware- und Softwareinfrastruktur, die einen zuverlässigen, konsistenten, allgegenwärtigen und kostengünstigen Zugriff auf Rechenkapazitäten bietet“, indem verteilte Computer, Speichergeräte, mobile Geräte, Datenbanken und Software verbunden werden Anwendungen.Suns eigenes N1- oder Network One-Projekt ist ein langfristiger Plan zur Kombination einer Reihe unterschiedlicher Technologien, darunter Grid-Computing und Hochleistungsdateisysteme, so dass ein Pool von Ressourcen dynamisch zugewiesen werden kann, um eine Reihe von Benutzern zu bedienen braucht.In ähnlicher Weise ist HPs Planetary Computing eine Architektur für vernetzte Rechenzentren.Es ermöglicht jedem Zentrum, seine Softwareinfrastruktur automatisch neu zu konfigurieren und Datenspeicher- und Serverressourcen zuzuweisen, wann immer dies erforderlich ist.Sein erstes Produkt von Planetary Computing, das Utility Data Center, wurde Ende letzten Jahres auf den Markt gebracht, um „automatisierte Infrastruktur nach Bedarf mit wenig oder ohne Bedienereingriff bereitzustellen“.Die Vision von IBM für zukünftige Computersysteme ist etwas weiter gefasst als die seiner Konkurrenten.Die neuen Fähigkeiten, die es entwickelt, wurden in seinem Autonomic Computing Manifesto beschrieben, das letztes Jahr veröffentlicht wurde.Das Dokument beschreibt ein auf offenen Standards basierendes System, eines, das: seine eigenen Ressourcen verfolgt, damit es sie mit anderen Systemen teilen kann;repariert sich selbst;und maximiert die Nutzung seiner Ressourcen, sodass Workloads auf die Server und Datenspeichereinrichtungen verschoben werden können, die sie am effizientesten verarbeiten.Das System schützt sich auch selbst vor Viren und Hackern und antizipiert die Informationsbedürfnisse der Benutzer.Der Trick besteht darin, eine Schicht intelligenter Middleware tief in das System einzubetten.Diese Middleware überwacht die Systemleistung und führt bei Bedarf Reparaturen, Ressourcenzuweisungen und Anwendungen aus, ohne Netzwerkadministratoren mit neuen Parametern und Betriebsentscheidungen zu überhäufen.IBM Research hat bereits damit begonnen, das Unternehmen auf den autonomen Weg zu führen.Angebote in seiner Familie relationaler Datenbanken namens Database 2 (DB2) pflegen sich selbst und optimieren Abfragen.Dank des Projekts eLiza der Server Group kommen Server auf den Markt, die Speicher- und Rechenressourcen automatisch zuweisen.Noch im Prototypenzustand befindet sich ein redundantes Serversystem, das auf Speicher- und Rechenbausteinen basiert und als IceCube-Server bezeichnet wird.IceCube besteht aus einer Reihe von Collective Intelligent Bricks (CIBs) und ist der intelligentere Sohn von RAID-Systemen (Redundant Array of Inexpensive Disks) nach Industriestandard.Der IceCube-Server verfolgt seine eigenen Komponenten, den Zustand, die maximale Kapazität und die Beziehung zu anderen Systemen [siehe Abbildung].Es kann Daten auf viele CIBs verteilen, obwohl Ihr Computer denkt, dass sie alle an einem Ort sind.Das System umgeht jeden ausgefallenen Knoten und negiert die Dringlichkeit oder sogar die Notwendigkeit einer Reparatur.Fehlgeschlagene Steine ​​bleiben an Ort und Stelle, bis ein günstiger Zeitpunkt kommt, um den toten Soldaten herauszufischen.Eine schnellere Möglichkeit, eine Datenbank auszuführenDie Datenbankverwaltung ist einer der größten Zeitfresser für die Intelligenz der IT-Abteilung.Vor zehn Jahren verschlang Hardware laut Ganek 80 Prozent der Kosten eines Rechenzentrums.Jetzt geht die Hälfte des ausgegebenen Geldes an die Leute, die das Zentrum betreiben.Und dieser Anteil steigt.Warum so?Ganz einfach, Datenbanken sind sehr kompliziert und erfordern ständige Pflege und Fütterung.Stellen Sie sich vor, ein Verkäufer möchte wissen, wie viele Geräte sein Unternehmen im Jahr 2001 in Afrika verkauft hat. Als Antwort auf diese Anfrage durchsucht ein System alle weltweiten Verkaufsdaten für 2001 in seiner Datenbank nach Verkäufen, die sich auf Afrika beziehen.Alternativ könnte es nur nach Daten suchen, die sich auf Transaktionen in Afrika im Jahr 2001 beziehen. Offensichtlich ist die zweite Alternative die effizientere, weil es den kürzeren Index durchsucht (eine Liste von Schlüsselwörtern, die jeweils einen eindeutigen Datensatz identifizieren).Die Wahl des besten Ansatzes ist die Aufgabe von Abfrageoptimierern.Jetzt verstärkt IBM seinen Optimierer, um Abfragen spontan und automatisch anzupassen und zu optimieren.Alle großen Datenbankprodukte, die auf der beliebten Structured Query Language (SQL) basieren, einschließlich Oracle, Microsoft SQL Server, Informix und Sybase, verfügen über solche Optimierer, erklärt Guy Lohman, Manager für erweiterte Optimierungsforschung in der Abteilung für erweiterte Datenbanklösungen von Almaden.Der Optimierer ermittelt die beste Methode zur Beantwortung einer bestimmten Abfrage, indem er alternative Methoden zur Verarbeitung der SQL-Anweisung modelliert.Genauer gesagt bestimmt es verschiedene Möglichkeiten für den Zugriff und die Verknüpfung von Datensätzen, die als Zeilen in Tabellen aufgelistet sind, und es entscheidet auch die Reihenfolge, in der diese Zugriffs- und Verknüpfungsoperationen auf die Zeilen von Datensätzen angewendet werden.Abfragen bestehen aus Schlüsselwörtern und Feldern, die zusammen ein Element namens Prädikat bilden.Um auch nur zwei Tabellen mit einer Handvoll Prädikaten zu durchpflügen, könnte die aktuelle Version des DB2-Optimierers von IBM über hundert verschiedene Pläne berücksichtigen – bestimmte Sequenzen von Operatoren (mathematische Aktionen, die beispielsweise einen Wert mit einem anderen vergleichen).„Das wird alles automatisch vom Abfrageoptimierer von DB2 im Verborgenen erledigt. Der Benutzer ist sich dessen nicht einmal bewusst“, sagt Lohman, dessen Gruppe den Learning Optimizer LEO entwickelt.LEO ist Teil der IBM-Datenbanktechnologie SMART (self-managing and resource-tuning), die in zukünftige Versionen des DB2-Produkts des Unternehmens integriert wird.„Das ist autonom und wir machen das seit über 20 Jahren in DB2“, sagt er.Eine der Herausforderungen, die LEO überwindet, ist die Möglichkeit, dass die Statistiken in der Datenbank, wie z. B. die Anzahl der Zeilen in jeder Tabelle, veraltet sein könnten.„Wenn jede Minute 10.000 Transaktionen bei Amazon eingehen, möchten Sie keinen Teil der Datenbank sperren, in der diese Statistiken gespeichert sind“, sagt Lohman."Stattdessen sammeln wir regelmäßig Statistiken."LEO codiert einen Zähler in die Software, der die Anzahl der Zeilen tabelliert, die die Datenbank in jedem Schritt verarbeitet hat.Nachdem die Abfrage abgeschlossen ist, vergleicht das System die Schätzung des internen mathematischen Modells des Abfrageoptimierers mit der tatsächlichen Anzahl der verarbeiteten Zeilen und aktualisiert die Statistiken entsprechend.Wenn der Benutzer das nächste Mal eine Abfrage ausführt, die ein ähnliches Terrain in der Datenbank durchqueren muss, kennt LEO einen viel besseren Weg zu den Daten.Derzeit kann LEO, das sich noch im Prototyp befindet, Fehler in den Statistiken oder den Schätzungen für ein einzelnes Prädikat erkennen und korrigieren.Letztendlich hofft IBM, dass LEO weit genug entwickelt ist, um Korrelationen zwischen mehreren Prädikaten zu erkennen und den Plan einer Abfrage während der Ausführung anzupassen.Die Größe der Korrelation zwischen den Prädikaten beeinflusst, wie viele Zeilen durchlaufen werden müssen, und beeinflusst somit, welcher Plan als optimal angesehen wird.IBM sieht sich in diesem Bereich einer harten Konkurrenz durch ein Unternehmen gegenüber, das so tiefe Taschen hat wie es selbst.Microsoft Corp., das plant, seine F&E-Ausgaben in diesem Jahr um 20 Prozent auf 5,3 Milliarden US-Dollar zu erhöhen, hat bereits eine LEO-ähnliche Technologie auf dem Markt.Der Indexoptimierungs-Assistent wurde 1998 als Teil der SQL Server 7.0-Datenbank des Unternehmens Redmond, Washington, eingeführt.Der Assistent verfolgt das Verhalten des Servers als Antwort auf Abfragen und sammelt Informationen über die Arbeitslast.Durch die Untersuchung dieser Daten erkennt es potenzielle Leistungsprobleme, benachrichtigt den Datenbankadministrator und empfiehlt Korrekturen, wie z. B. das Erstellen eines Indexes zum Beschleunigen langsamer Abfragen.Der Assistent liefert dem Administrator auch eine Schätzung der erwarteten Leistungsverbesserung, wenn die vorgeschlagenen Änderungen ausgeführt werden – bis zu 50 Prozent gegenüber einem einfachen Datenbankdesign, gemäß einem Branchen-Benchmark zur Entscheidungsunterstützung.Bei der ersten Veröffentlichung war der Tuning Wizard das einzige kommerzielle Tool, das den Administrator beriet, wie er Änderungen am Design einer Datenbank vornehmen kann, um eine Abfrage zu beschleunigen und potenzielle Leistungsverbesserungen zu berechnen, sagt Surajit Chaudhuri, ein leitender Forscher im Bereich Data Management. Exploration and Mining-Gruppe bei Microsoft Research und Manager des AutoAdmin-Teams, das den Assistenten entwickelt hat.Die aktuelle Version des in SQL Server 2000 enthaltenen Optimierungsassistenten ist insofern einzigartig, als sie für eine bestimmte Arbeitslast eine sinnvolle Kombination aus Indizes und materialisierten Ansichten empfehlen kann.(Eine solche Ansicht ist ein Cache mit vorberechneten Antworten, die die Datenbank durchsucht, wenn sie eine bestimmte Art von Frage erkennt.)Das Ergebnis: eine geschätzte 80-prozentige Leistungssteigerung gegenüber einem einfachen Design.Die AutoAdmin-Forscher entwickeln weiterhin Datenbanken, die ihre eigene Nutzung nachverfolgen und sich entsprechend anpassen, um bei wechselnden Arbeitslasten und ständiger Erweiterung auf demselben Effizienz- und Zuverlässigkeitsniveau zu bleiben.„Man muss die Mechanik eines Autos nicht verstehen, um es zu fahren“, sagt Chaudhuri.„Sie müssen auch nicht verstehen, wie eine Datenbank läuft – Sie brauchen nur ein Steuerrad, um Richtlinien festzulegen und Informationen zu verwalten.“„Obwohl ich die biologische Metapher des autonomen Rechnens sehr niedlich finde, fällt sie auseinander“, erklärt der neue CTO des N1-Programms von Sun, Yousef Khalidi.Statt Autonomic Computing zieht Sun die Metapher vor, mit der es in den 1980er-Jahren bekannt wurde: Das Netzwerk ist der Computer.Als führendes Unternehmen in der Kommerzialisierung von Grid-Computing kombiniert die kürzlich vorgestellte N1-Initiative von Sun die Grid-Bemühungen des Unternehmens mit der sogenannten Netzwerkvirtualisierungstechnologie für die dynamische Zuweisung von Ressourcen.So hat Sun beispielsweise bereits damit begonnen, Kunden seiner 6900 Backend-Speicher-Arrays die Möglichkeit zu bieten, CPU- und Cache-Ressourcen dynamisch zuzuweisen.„Wir wollen, dass Menschen die Dienste verwalten, nicht die Server“, sagt Khalidi.„N1 modelliert Anwendungsanforderungen. Sobald Sie die Modelle haben, können Sie optimieren, automatisieren und Richtlinien festlegen.“Sun bringt sein Grid-Computing-Know-how in den Bereich der Netzwerkverwaltung ein.Das Unternehmen unterstützt jetzt Kunden mit rund 5000 Grids mit insgesamt 220 000 CPUs, wobei pro Woche 70 neue Grids aus dem Boden schießen.Laut Peter Jeffcock, Marketing Manager der Kunden- und technischen Marktproduktgruppe von Sun, nutzen Unternehmen wie Motorola (13) bereits einige der selbstanpassenden Funktionen der Open-Source-Grid-Engine des Unternehmens und seiner proprietären Version, der Grid-Engine-Enterprise-Edition-Software .Diese Software überwacht eine Aufgabenliste sowie die Liste der für die Grids verfügbaren CPUs.Abhängig von den vom Benutzer festgelegten Prioritäten weist das Programm den CPUs automatisch Tasks zu.Zum Beispiel hat Motorolas Wireless-Produktgruppe 250 CPUs in ihrem Grid und verwendet Grid Engine, um eine Richtlinie festzulegen, dass Ressourcen während der normalen Nutzung gleichmäßig auf, sagen wir, zwei Gruppen von Chipdesignern aufgeteilt werden.Wenn eine Gruppe sich einer Frist für die Fertigstellung eines Chipdesigns nähert und viel zusätzliche Rechenleistung benötigt, um Simulationen durchzuführen, die die funktionale Genauigkeit des Designs testen, weist die Software diesen Aufgaben mehr Ressourcen zu.Die Idee ist, die CPU-Auslastung von den typischen 1030 Prozent, die verwendet werden, wenn CPUs nicht am Netz sind, auf 98 Prozent oder mehr zu erhöhen, wenn sie am Netz sind, und gleichzeitig die Ressourcen für das unternehmenskritischste Projekt zur Verfügung zu stellen.IBMs erstes Produkt, das darauf abzielt, die Netzwerkadministration weniger belastend für menschliche Administratoren zu machen, kam letztes Jahr auf dem Rücken einer Eidechse auf den Markt: Project eLiza, ein Versuch, selbstverwaltende Server zu erstellen.Liza ist die Abkürzung für Eidechse, ein Name, der gewählt wurde, nachdem Forscher die Rechenleistung von Deep Blue – dem berühmten schachspielenden Supercomputer, der den Weltmeister Gary Kasparov besiegte – auf eine Stufe mit der einer Eidechse geschätzt hatten.Das Ziel von Project eLiza ist es dann, das Maß an Autonomie einer Eidechse in die Server-Arena zu bringen, damit Server überleben und sich in unvorhersehbaren Umgebungen anpassen können.Bisher hat eLiza die eServer-Produktlinie von IBM hervorgebracht, die ersten kommerziellen Produkte aus autonomer Forschung und Entwicklung, und zuletzt Enterprise Workload Management (eWLM)-Software, die auf der Arbeit am Thomas J. Watson Research Center von IBM basiert.Da die heutigen Serverfarmen mehrere tausend Computer beherbergen, ist es für einen Administrator fast unmöglich, über die Topologie eines Servernetzwerks auf dem Laufenden zu bleiben: die physischen Server, die Speicher- und Netzwerkkapazität, die Computer, auf denen sich Datenbanken und Anwendungen befinden, und der Pfad die eine eingehende Transaktion dauert.Die manuelle Konfiguration jedes Servers zur ordnungsgemäßen Verarbeitung von Transaktionen kann Wochen dauern.„Jeder [Server-]Kunde würde Ihnen sagen, dass er, wenn die Anzahl der zu verwaltenden Server 20 übersteigt, den Überblick darüber verliert, welche Art von Servern sich auf welcher Etage befinden oder welches Betriebssystem darauf läuft“, sagt Donna Dillenberger, a leitender technischer Mitarbeiter bei Watson.Die eWLM-Software von IBM erkennt automatisch, welche Serverressourcen, einschließlich Computer und Anwendungen, sich auf einer Serverfarm befinden;welche Anforderungen die eingehenden Transaktionen an Anwendungen stellen;und welchen Weg diese Transaktionen durch die Farm nehmen.eWLM identifiziert dann Verzögerungen im Zusammenhang mit CPUs, E/A, Speicher, Netzwerk, Anwendungen und sogar bestimmten Maschinen.Unter Verwendung selbstlernender Algorithmen leitet eWLM eine Transaktion dynamisch um einen überlasteten Teil des Netzwerks herum.Das aktuelle eLiza-Element wird bei mehreren Versicherungs- und Finanzdienstleistungsunternehmen getestet, bevor es später in diesem Jahr vollständig veröffentlicht wird.Dillenberger und ihr Team arbeiten auch hart daran, die Feedback-Schleife zu schließen, damit die Software auf der Grundlage der Informationen, die sie über ihre Ressourcen sammelt, das gesamte System selbst optimieren kann, um bestimmte Leistungsziele zu erreichen.Beispielsweise könnte ein Systemadministrator bei einer Vermögensverwaltungsfirma eine Richtlinie erlassen, dass alle Aktienhandelstransaktionen in einer Sekunde abgeschlossen sein müssen, während andere Aufgaben möglicherweise länger dauern.eWLM, sagt Dillenberger, sollte in der Lage sein, sich die Topologie des Netzwerks anzusehen und vorherzusagen, ob es dazu in der Lage ist.Wenn nicht, könnte eWLM die Topologie ändern und möglicherweise einen anderen Server in der Farm erfordern, um vorübergehend Abhilfe zu schaffen."Sie sollten in der Lage sein, sich in einfachem Englisch Ziele auf hohem Niveau zu setzen, und der Computer lernt, wie man die Knöpfe einstellt", sagt sie.Während die Zuweisung von Ressourcen und die Optimierung der Leistung fester Bestandteil der autonomen Vision sind und sich bereits in Produkten zeigen, ist die automatische Wiederherstellung nach Abstürzen eine Funktion, die mehr angewandte Forschung erfordert.Eine laufende Anstrengung wird von David Patterson von der University of California, Berkeley, geleitet, der sich unter anderem durch die Miterfindung des RAID-Speicheransatzes auszeichnet.Das ein Jahr alte Recovery-Oriented Computing (ROC)-Projekt, das er in Zusammenarbeit mit Armando Fox von Stanford durchgeführt hat, verschiebt sich weg vom üblichen auf Fehlervermeidung basierenden Ansatz für das Systemdesign und hin zu einer Betonung auf schnellere Wiederherstellung.ROC wird von der National Science Foundation, Microsoft, Hewlett-Packard, Velocity und IBM finanziert.Ein gängiger Ansatz zur Vermeidung von Fehlern ist die vorbeugende Wartung.Große kommerzielle Websites wie eBay sind jede Woche mitten in der Nacht für ein paar Stunden nicht verfügbar, sodass Administratoren alle Teile reparieren können, die kurz vor dem Ausfall stehen.Anstatt die gesamte Site offline zu nehmen, besteht der ROC-Ansatz darin, einzelne Komponenten zu reparieren, während die Site live ist.Eine weitere Absicht von ROC ist es, systemweite Unterstützung für den Undo-Befehl hinzuzufügen.Wenn ein Benutzer fast aller Desktop-Softwarepakete, von Textverarbeitungsprogrammen bis hin zu E-Mail-Clients, einen Fehler macht, macht das Paket den Fehler einfach zu korrigieren.Durch einfaches Drücken einiger Tasten wird das System wieder in den Zustand versetzt, in dem es vor der Ausführung des falschen Befehls war.Das ROC-Projekt fügt diese Funktion ganzen Systemen wie E-Mail-Servern hinzu.Wenn Ihr gesamter E-Mail-Ordner versehentlich in den Papierkorb geht, kann der Computer den Ordner auf diese Weise finden und wiederherstellen.„Rückgängig machen ist ein dreistufiger Prozess, bei dem die Zeit zurückgespult, Probleme entwirrt und das System dann wieder auf die aktuelle Zeit zurückgespielt wird“, sagt Patterson.Dennoch treten Herausforderungen auf, wenn Rückgängig auf kompliziertere Probleme angewendet wird.Wenn beispielsweise eine E-Mail-Nachricht unwissentlich heruntergeladen und nicht auf Viren gefiltert wird, würde ROC einem Netzwerkadministrator erlauben, zu dem Zustand des E-Mail-Servers zurückzukehren, bevor die E-Mail gefiltert wurde, um den Filter zu installieren, sagt Patterson , und führen Sie den Vorgang dann erneut mit dem Filter aus.Kniffliger wird es allerdings, wenn jemand die virenverseuchte E-Mail bereits geöffnet hat, bevor das Undo ausgeführt wurde.Letztendlich ist eine autonome Architektur nur so gut wie ihre Fähigkeit, mit Heterogenität umzugehen – den diversifizierten Plattformen, Betriebssystemen, Geräten und Software in den heutigen großen Netzwerken.Laut IBM sind offene Standards nicht nur für den Einsatz autonomer Technologien unerlässlich, sondern sie gleichen auch die Wettbewerbsbedingungen für die Unternehmen, die Innovationen durchführen."Wir möchten unsere Middleware auf der Grundlage eines fairen Wettbewerbs mit gleichen Standards verkaufen", sagt Robert Morris, Direktor des Almaden Research Center.„Die Leute sollten unseren Toaster kaufen, weil er Brot am besten toastet, nicht weil er den einzigen Stecker hat, der in die Steckdose passt.“IBM, HP, Microsoft, Sun und andere IT-Firmen und Universitäten legen bereits die Grundregeln für die gemeinsame Nutzung von Anwendungen und Rechenressourcen über das Internet fest.Das Globus-Projekt ist eine multiinstitutionelle F&E-Bemühung zur Einrichtung von Rechengittern gemeinsam genutzter Ressourcen.In Zusammenarbeit mit dem Projekt stellte das Global Grid Forum im Februar die Open Grid Services Architecture vor, eine Reihe von Spezifikationen und Standards, die für die gemeinsame Nutzung von Ressourcen und Webdienste gelten.„In der Autonomic-Computing-Technologie gibt es keine Geheimnisse“, fügt Morris hinzu.„Vieles können wir schon, wir haben es nur noch nicht angewendet. Aber die Anwendung ist genauso wichtig wie die Erfindung.“DAVID PESCOVITZ ist Writer-in-Residence am College of Engineering der University of California in Berkeley (david@pesco.net) und trägt zu Wired bei.Was sich IBM Corp. für Computersysteme der Zukunft vorstellt, lesen Sie in seinem Autonomic Computing Manifesto unter http://www.research.ibm.com/autonomic/.Wolfgang Gentzsch von Sun Microsystems Inc. beschreibt die sich entwickelnde IT-Infrastruktur von Unternehmen in "Grid Computing, A Vendor's Vision", Proceedings of the 2nd IEEE/ACM International Symposium on Cluster Computing and the Grid, 2002, S. 27277.Folgen Sie David Pattersons Recovery-Oriented Computing (ROC)-Projekt unter http://roc.cs.berkeley.edu/.Seine Softwarebibliotheken trieben das Wachstum des Hochleistungsrechnens voranKathy Pretz ist Chefredakteurin von The Institute, das alle Aspekte des IEEE, seiner Mitglieder und der Technologie abdeckt, an der sie beteiligt sind. Sie hat einen Bachelor-Abschluss in Angewandter Kommunikation von der Rider University in Lawrenceville, NJ, und einen Master-Abschluss Abschluss in Unternehmens- und öffentlicher Kommunikation von der Monmouth University in West Long Branch, NJ2021 UhrTuring-Preisträger und IEEE Life Fellow Jack Dongarra.Jack Dongarras Traumberuf war es, an einer öffentlichen High School in Chicago Naturwissenschaften zu unterrichten.„Ich war ziemlich gut in Mathematik und Naturwissenschaften, aber ich war kein besonders guter Schüler“, sagt Dongarra lachend.Nachdem er die High School abgeschlossen hatte, gab es nur eine Universität, die er besuchen wollte: die Chicago State.Das liegt daran, sagt er, dass es dafür bekannt war, „Lehrer am laufenden Band zu produzieren“.Der Staat Chicago akzeptierte seine Bewerbung und er entschied sich für Mathematik als Hauptfach.Sein Physikprofessor schlug Dongarra vor, sich für ein Praktikum am Argonne National Laboratory in Lemont, Illinois, einem nahe gelegenen Wissenschafts- und Ingenieurforschungszentrum des US-Energieministeriums, zu bewerben.16 Wochen lang arbeitete er mit einer Gruppe von Forschern an der Gestaltung und Entwicklung von EISPACK, einem Paket von Fortran-Routinen, die die Eigenwerte und Eigenvektoren von Matrizen berechnen – Berechnungen, die im wissenschaftlichen Rechnen üblich sind.Dongarra räumt ein, dass er weder Hintergrund noch Wissen über Eigenwerte und Eigenvektoren – oder lineare Algebra – hatte, aber er liebte, was er tat.Die Erfahrung bei Argonne, sagt er, war transformativ.Er hatte seine Leidenschaft gefunden.„Ich fand das cool“, sagt er, „also habe ich weitergemacht.“Arbeitgeber: Universität von Tennessee, KnoxvilleTitel: Emeritierter Professor für InformatikAlma Mater: Chicago State UniversitySeitdem hat der IEEE Life Fellow bahnbrechende Beiträge zu numerischen Algorithmen und Bibliotheken für lineare Algebra geleistet, die es Software ermöglichten, leistungsstarke Hardware sinnvoll zu nutzen.Seine Open-Source-Softwarebibliotheken werden in nahezu jedem Computer verwendet, von Laptops bis zu den schnellsten Supercomputern der Welt.Die Bibliotheken umfassen grundlegende lineare Algebra-Unterprogramme (BLAS), das lineare Algebra-Paket LAPACK, parallele virtuelle Maschinen (PVMs), automatisch abgestimmte lineare Algebra-Software (ATLAS) und den High-Performance Conjugate Gradient (HPCG) Benchmark.Für seine Arbeit wurde er dieses Jahr mit dem AM Turing Award 2021 der Association for Computing Machinery ausgezeichnet.Als Teil der Auszeichnung, die als Nobelpreis für Computer bekannt ist, erhielt er 1 Million US-Dollar.„Wenn ich an frühere Turing-Preisträger denke, fühle ich mich geehrt, wenn ich daran denke, was ich aus ihren Büchern und Artikeln gelernt habe“, sagt Dongarra.„Ihre Programmiersprachen, Theoreme, Techniken und Standards haben mir geholfen, meine Algorithmen zu entwickeln.„Es ist eine enorme Ehre, der diesjährige Preisträger zu sein.Die Auszeichnung ist eine Anerkennung der Informatik-Community, dass die Beiträge, die wir zum Hochleistungsrechnen leisten, wichtig sind und sich auf die breitere Informatik-Community und die Wissenschaft im Allgemeinen auswirken.“Dongarra unterrichtete Highschool-Schüler nicht in Naturwissenschaften.Stattdessen wurde er Professor für Elektrotechnik und Informatik an der University of Tennessee in Knoxville, wo er 33 Jahre lang lehrte.Die Universität ernannte ihn kürzlich zum emeritierten Professor.Nach seinem Abschluss an der Chicago State University im Jahr 1972 mit einem Bachelor-Abschluss in Mathematik machte Dongarra einen Master-Abschluss in Informatik am Illinois Institute of Technology, ebenfalls in Chicago.Dort arbeitete er einen Tag pro Woche für Argonne mit demselben Forscherteam.Nachdem er 1973 seinen Abschluss gemacht hatte, stellte ihn das Labor als Vollzeitforscher ein.Von seinen Kollegen ermutigt, zu promovieren, verließ er das Labor, um angewandte Mathematik an der University of New Mexico in Albuquerque zu studieren.Dort verfeinerte er seine Kenntnisse der linearen Algebra und begann, Algorithmen auszuarbeiten und Software zu schreiben.Nach seiner Promotion 1980 kehrte er in die Argonne zurück und arbeitete dort als leitender Wissenschaftler, bis er 1989 die Möglichkeit bekam, sich seinen Traum vom Lehren zu erfüllen.Ihm wurde eine gemeinsame Stelle angeboten, wo er Informatik an der University of Tennessee unterrichtet und am nahe gelegenen Oak Ridge National Laboratory forscht, das wie Argonne eine Einrichtung des Energieministeriums ist.„Es war Zeit für mich, etwas Neues auszuprobieren“, sagt er.„Ich war bereit, mich an der Wissenschaft zu versuchen.“Er sagt, Oak Ridge funktionierte ähnlich wie Argonne, und die Kultur dort war mehr oder weniger dieselbe.„Die Herausforderung“, sagt er, „war, Universitätsprofessor zu werden.“„Der Turing Award ist eine Anerkennung der Informatik-Community, dass die Beiträge, die wir zum Hochleistungsrechnen leisten, wichtig sind und sich auf die breitere Informatik-Community und die Wissenschaft im Allgemeinen auswirken.“Die Universitätskultur sei ganz anders als die in einem Regierungslabor, sagt er, aber er sei schnell in den Rhythmus des akademischen Umfelds geraten.Obwohl er gerne unterrichtete, sagte er, war er auch von der Möglichkeit angezogen, die die Universität ihren Dozenten bot, an Technologien zu arbeiten, für die sie sich begeistern.„Man geht seinen eigenen Weg und Forschungskurs“, sagt er.„Ich bin in diesem Umfeld erfolgreich geworden.Ich interagiere mit intelligenten Menschen, ich habe die Möglichkeit, um die Welt zu reisen, und ich arbeite mit Menschen in vielen Ländern zusammen.„Die Wissenschaft gibt Ihnen diese Freiheit, Dinge zu tun und sich nicht durch den Antrieb oder die Motivation eines Unternehmens einschränken zu lassen.Vielmehr arbeite ich an dem, was mich motiviert.Deshalb bin ich so viele Jahre in der Wissenschaft geblieben.“1980 arbeitete Dongarra als leitender Wissenschaftler am Argonne National Laboratory in Lemont, Illinois, Jack DongarraDongarra gründete das Innovative Computing Laboratory der Universität, dessen Aufgabe es ist, der wissenschaftlichen Gemeinschaft Werkzeuge für Hochleistungsrechnen bereitzustellen.Er leitet auch das Zentrum für Informationstechnologieforschung der Schule.Er ist jetzt ein angesehener Forscher in Oak Ridge, das er „einen wunderbaren Ort mit seiner hochmodernen Ausrüstung und den neuesten Computern“ nennt.Es war die Arbeit in kreativen Umgebungen, die Dongarra dazu veranlasste, Softwarebibliotheken zu entwickeln, die viele als weltverändernd bezeichnen, die zum Wachstum des Hochleistungsrechnens in vielen Bereichen beigetragen haben, darunter künstliche Intelligenz, Datenanalyse, Genomik und Gesundheitswesen.„Die von uns entworfenen Bibliotheken verfügen über grundlegende Komponenten, die in vielen Bereichen der Wissenschaft benötigt werden, sodass Benutzer auf diese Komponenten zurückgreifen können, um ihnen bei der Lösung ihrer Rechenprobleme zu helfen“, sagt er.„Diese Software ist portabel und effizient.Es hat alle Eigenschaften, die wir uns wünschen, um verständlich zu sein und zuverlässige Ergebnisse zu liefern.“Derzeit arbeitet er an der Erstellung einer Softwarebibliothek für den schnellsten Supercomputer der Welt, Frontier, der kürzlich im Labor von Oak Ridge installiert wurde.Es ist der erste Computer, der mehr als 1 Trillion Operationen pro Sekunde verarbeiten kann.Dongarra ist seit mehr als 30 Jahren IEEE-Mitglied.„Ich genieße es, mit der Community zu interagieren“, erklärt er, warum er weiterhin dazugehört.„Außerdem lese ich gerne IEEE Spectrum und Zeitschriften, die für mein Fachgebiet relevant sind.“Er war Herausgeber mehrerer IEEE-Zeitschriften, darunter Proceedings of the IEEE, IEEE Computer Architecture Letters und IEEE Transactions on Parallel and Distributed Systems.Dongarra sagt, er sei ein großer Förderer von IEEE-Meetings und -Workshops, insbesondere der International Conference for High Performance Computing, Networking, Storage, and Analysis, gesponsert von ACM und der IEEE Computer Society, deren Mitglied er ist.Er nimmt seit 1988 jedes Jahr an der Veranstaltung teil. Für seine Beiträge hat er auf der Konferenz viele Auszeichnungen erhalten.„Diese Konferenz ist wirklich eine Heimkehr für die High-Performance-Computing-Community“, sagt er, „und IEEE spielt eine wichtige Rolle.“IEEE ist stolz auf Dongarras Beiträge zur Computertechnik und hat ihn im Laufe der Jahre geehrt.2008 erhielt er die erste IEEE Medal of Excellence in Scalable Computing.Er erhielt außerdem den Computer Pioneer Award 2020, den ACM/IEEE Ken Kennedy Award 2013, den IEEE Charles Babbage Award 2011 und den Sidney Fernbach Award 2003.„Ich bin sehr glücklich und stolz darauf, Mitglied des IEEE zu sein“, sagt er."Ich denke, es leistet einen wertvollen Dienst für die Gemeinschaft."Kubisches Borarsenid könnte sogar das bestmögliche seinCharles Q. Choi ist ein Wissenschaftsreporter, der regelmäßig zum IEEE Spectrum beiträgt.Er hat unter anderem für Scientific American, The New York Times, Wired und Science geschrieben.Boratome [orange] verbinden sich mit Arsenatomen [schwarz] zu einer kubischen Kristallstruktur namens kubisches Borarsenid (c-BAs) – ein schwierig herzustellender Halbleiter, aber auch einer mit hoher Ladungsträgermobilität und hoher Wärmeleitfähigkeit.Silizium ist die Grundlage der Elektronikindustrie.Seine Leistungsfähigkeit als Halbleiter lässt jedoch zu wünschen übrig.Jetzt haben Wissenschaftler entdeckt, dass ein obskures Material, das als kubisches Borarsenid (c-BAs) bekannt ist, möglicherweise viel besser abschneidet als Silizium.Tatsächlich könnte es der beste Halbleiter sein, der jemals gefunden wurde, und möglicherweise sogar der bestmögliche.Silizium ist eines der am häufigsten vorkommenden Elemente auf der Erde.In seiner reinen Form ist Silizium der Schlüssel zu vielen modernen Technologien, von Mikrochips bis hin zu Solarzellen.Seine Eigenschaften als Halbleiter sind jedoch alles andere als ideal.„Wir haben erstmals ein neues Material mit hoher Ladungsträgermobilität und gleichzeitig hoher Wärmeleitfähigkeit demonstriert.“—Zhifeng Ren, Universität von HoustonZum einen leitet Silizium Wärme nicht sehr gut.