Warum brauchen wir unterschiedliche CPU-Architektur für Server & Mini / Mainframe & Mixed-Core? [geschlossen]

8

Ich habe mich nur gefragt, welche anderen CPU-Architekturen außer INTEL & amp; AMD. Also, Liste der CPU-Architekturen auf Wikipedia gefunden.

Kategorisiert bemerkenswerte CPU-Architekturen in folgende Kategorien.

  1. Integrierte CPU-Architekturen
  2. Mikrocomputer-CPU-Architekturen
  3. Workstation / Server-CPU-Architekturen
  4. Mini / Mainframe-CPU-Architekturen
  5. Mixed-Core-CPU-Architekturen

Ich habe ihre Absichten analysiert und habe wenig Zweifel. Nehmen wir Microcomputer CPU (PC) Architektur als Referenz und vergleichen sie mit anderen:

Integrierte CPU-Architektur:

  • Sie sind eine völlig neue Welt.
  • Eingebettete Systeme sind klein & amp; tun sehr spezifische Aufgabe meist Echtzeit & amp; geringer Stromverbrauch so brauchen wir nicht so viele & amp; solche breiten Register sind in einer Mikrocomputer-CPU (typischer PC) verfügbar. Mit anderen Worten, wir brauchen ein neues kleines & amp; winzige Architektur. Daher neue Architektur & amp; neue Anweisung RISC.
  • Der obige Punkt verdeutlicht auch, warum wir ein separates Betriebssystem (RTOS) benötigen.

Workstation / Server-CPU-Architekturen

  • Ich weiß nicht, was eine Workstation ist. Jemand klärt über die Workstation.
  • Ab dem Server. Es ist für die Ausführung einer bestimmten Software (Server-Software wie httpd, mysql etc.) bestimmt. Selbst wenn andere Prozesse ausgeführt werden, müssen wir dem Serverprozess Priorität einräumen, daher besteht ein Bedarf für ein neues Ablaufplanungsschema und daher brauchen wir ein Betriebssystem, das sich von dem allgemeinen Zweck unterscheidet. Wenn Sie weitere Punkte für die Notwendigkeit eines Server-Betriebssystems haben, geben Sie dies bitte an.
  • Aber ich verstehe nicht, warum wir eine neue CPU-Architektur brauchen. Warum kann Microcomputer-CPU-Architektur die Arbeit nicht leisten. Kann jemand bitte klären?

Mini / Mainframe-CPU-Architekturen

  • Wieder weiß ich nicht, was diese & amp; Für welche Miniframes oder Mainframes? Ich weiß nur, dass sie sehr groß sind und den ganzen Boden einnehmen. Aber ich lese nie etwas über reale Probleme, die sie zu lösen versuchen. Wenn jemand an einem davon arbeitet. Teilen Sie Ihr Wissen.
  • Kann jemand seinen Zweck klären & amp; Warum ist das Mikrocomputer-CPU-Abbild dafür nicht geeignet?
  • Gibt es dafür auch ein neues Betriebssystem? Warum?

Mixed-Core-CPU-Architekturen

  • Hab noch nie davon gehört.

Wenn möglich, bitte halten Sie Ihre Antwort in diesem Format:

  

XYZ-CPU-Architekturen

     
  • Zweck von XYZ
  •   
  • Brauchen Sie eine neue Architektur. warum kann nicht aktuellen Mikrocomputer CPU   Architektur arbeiten? Sie gehen bis 3GHZ & amp;   haben bis zu 8 Kerne.
  •   
  • Benötigen Sie ein neues Betriebssystem? Warum brauchen wir eine neue Art zu arbeiten?   System für diese Art von Architekuren?
  •   

BEARBEITEN:

Jungs, das ist kein Hausaufgabenproblem. Ich kann nichts tun, um euch glauben zu machen. Ich weiß nicht, ob die Frage nicht klar oder etwas anderes ist, aber ich bin nur an bestimmten technischen Details interessiert.

Lassen Sie mich einen Teil dieser Frage auf andere Weise stellen. Sie sind in einem Interview und wenn der Interviewer Sie fragt, "sagen Sie mir, Mikrocomputer-Prozessoren sind schnell und sehr fähig und unsere PC-Betriebssysteme sind gut. Warum brauchen wir eine andere Architektur wie SPARC, Itanium und brauchen ein anderes Betriebssystem wie Windows Server für Server? ". Was würdest du antworten? Ich hoffe, ich habe verstanden.

    
claws 19.04.2010, 12:17
quelle

8 Antworten

9

Workstations sind heute fast ausgestorbene Computer. Im Grunde genommen waren sie High-End-Computer, die wie Desktops aussahen, aber mit einigen wichtigen Unterschieden, wie RISC-Prozessoren, SCSI-Laufwerken anstelle von IDE und laufender UNIX- oder (später) NT-Reihe von Windows-Betriebssystemen. Mac Pro kann als eine aktuelle Form der Workstation angesehen werden.

Mainframes sind groß (obwohl sie nicht unbedingt den ganzen Boden belegen) Computer. Sie bieten eine sehr hohe Verfügbarkeit (die meisten Teile eines Mainframes, einschließlich Prozessoren und Speicher, können ausgetauscht werden, ohne dass das System herunterfährt) und Abwärtskompatibilität (viele moderne Mainframes können unmodifizierte Software ausführen, die für 70 Mainframes geschrieben wurde).

Der größte Vorteil der x86-Architektur ist die Kompatibilität mit der x86-Architektur. CISC wird normalerweise als veraltet angesehen, weshalb die meisten modernen Architekturen auf RISC basieren. Sogar neue Intel & amp; AMD-Prozessoren sind RISC unter der Haube.

In der Vergangenheit war die Lücke zwischen Heimcomputern und "professioneller" Hardware viel größer als heute, so dass "Mikrocomputer" -Hardware für Server nicht geeignet war. Als die meisten RISC- "Server" -Architekturen (SPARC, PowerPC, MIPS, Alpha) erstellt wurden, waren die meisten Mikrocomputerchips immer noch 16 Bit. Erster 64-Bit-PC-Chip (AMD Opteron) ausgeliefert über 10 Jahre nach MIPS R4000. Das gleiche galt für Betriebssysteme: PC-Betriebssysteme (DOS und Nicht-Windows NT) waren für Server einfach nicht geeignet.

In eingebetteten Systemen sind x86-Chips einfach nicht leistungsfähig genug. ARM-Prozessoren bieten eine vergleichbare Verarbeitungsleistung mit viel weniger Energie.

    
el.pescado 19.04.2010 19:30
quelle
6
  

Ich weiß nicht, was eine Workstation ist.   Jemand klären über die   Workstation.

Workstations waren früher eine Klasse von Systemen, die von einzelnen (oder wechselnden) Benutzern für Aufgaben verwendet werden sollten, die mehr Rechenleistung erforderten als ein PC. In den 1990er Jahren starben sie praktisch aus, da es aufgrund der Skaleneffekte in R & D Standard-PC-Hardware möglich war, die gleiche (und letztendlich mehr) Leistung zu einem viel niedrigeren Preis anzubieten.

Workstations wurden von Firmen wie Sun, SGI und HP hergestellt. Sie hatten normalerweise eine proprietäre Unix-Variante und hatten oft spezialisierte Hardware. Typische Anwendungen waren wissenschaftliche Datenverarbeitung, CAD und High-End-Grafik.

"Workstation-Architekturen" zeichneten sich durch das Ziel aus, eine hohe Leistung für Einzelplatzanwendungen zu bieten, wobei der Preis eine sehr untergeordnete Rolle spielte.

    
Michael Borgwardt 19.04.2010 19:32
quelle
4

Es wird wahrscheinlich helfen, darüber nachzudenken, wie die Welt vor zwanzig Jahren aussah.

Damals war es nicht so teuer, CPUs von Weltklasse zu entwickeln und zu bauen, und so viele Firmen hatten ihre eigenen. Was seitdem passiert ist, ist größtenteils durch die steigenden Preise für CPU-Design und Fabs erklärbar, was bedeutet, dass das, was in sehr großen Stückzahlen verkauft wird, viel besser überstanden hat als das, was nicht.

Es gab Mainframes, hauptsächlich von IBM. Diese sind auf hohen Durchsatz und Zuverlässigkeit spezialisiert. Sie würden nichts Besonderes mit ihnen machen, da es viel kostengünstiger ist, kostengünstigere Maschinen zu verwenden, aber sie waren und sind ideal für große Geschäftstransaktionen, wie sie in COBOL programmiert sind. Banken verwenden viele davon. Dies sind spezialisierte Systeme. Außerdem führen sie Programme von weit her aus, daher ist die Kompatibilität mit frühen IBM 360s in Architektur und Betriebssystem viel wichtiger als die Kompatibilität mit x86.

Damals gab es Minicomputer, die kleiner als Mainframes waren, in der Regel einfacher zu benutzen und größer als alles Persönliche. Diese hatten ihre eigenen CPUs und Betriebssysteme. Ich glaube, sie starben zu der Zeit, und sie sind jetzt größtenteils tot. Die führende Minicomputerfirma, Digital Equipment Corporation, wurde schließlich von Compaq, einem PC-Hersteller, gekauft. Sie neigten dazu, spezielle Betriebssysteme zu haben.

Es gab auch Workstations, die hauptsächlich als Personal Computer für Leute gedacht waren, die viel Rechenleistung benötigten. Sie hatten wesentlich sauberere CPUs als Intels im Allgemeinen, und zu dieser Zeit konnten sie viel schneller laufen. Eine andere Form der Workstation war die Lisp Machine, die zumindest in den späten 80er Jahren von Symbolics und Texas Instruments erhältlich war. Dies waren CPUs, die entworfen wurden, um Lisp effizient zu betreiben. Einige dieser Architekturen bleiben bestehen, aber im Laufe der Zeit wurde es viel weniger kosteneffektiv, diese aufrechtzuerhalten. Mit Ausnahme von Lisp-Rechnern liefen diese Versionen von Unix.

Der Standard-IBM-kompatible Personal Computer der damaligen Zeit war nicht so leistungsstark, und die Komplexität der Intel-Architektur hielt ihn deutlich zurück. Das hat sich geändert. Die Macintoshes der Zeit liefen auf Motorolas 680x0-Architekturen, die erhebliche Vorteile in der Rechenleistung boten. Später wechselte man zur PowerPC-Architektur, die von IBM Workstations entwickelt wurde.

Embedded CPUs, wie wir sie heute kennen, stammen aus den späten 1970ern. Sie zeichneten sich dadurch aus, dass sie komplette Low-End-Systeme mit geringer Chipanzahl, vorzugsweise mit wenig Leistung, waren. Der Intel 8080 war, als er herauskam, im Wesentlichen eine Drei-Chip-CPU und benötigte zusätzliche Chips für ROM und RAM. Der 8035 war ein Chip mit einer CPU, ROM und RAM an Bord, entsprechend weniger leistungsstark, aber für eine Vielzahl von Anwendungen geeignet.

Supercomputer hatten von Hand entworfene CPUs und zeichneten sich dadurch aus, dass sie das parallele Rechnen so einfach wie möglich machten und die CPU für (hauptsächlich) Fließkomma-Multiplikationen optimierten.

Seither sind Mainframes sehr erfolgreich in ihrer Nische geblieben, und Minicomputer und Workstations wurden stark eingeschränkt. Einige Workstation-CPUs bleiben teilweise aus historischen Gründen übrig. Macintoshes wechselte schließlich von PowerPC zu Intel, obwohl IIRC der PowerPC in Xbox 360 und einigen IBM Maschinen weiterlebt. Die Kosten für die Aktualisierung eines guten Betriebssystems sind gestiegen, und moderne Nicht-Mainframe-Systeme neigen dazu, entweder Microsoft Windows oder Linux zu verwenden.

Eingebettete Computer sind auch besser geworden. Es gibt immer noch kleine und billige Chips, aber die ARM-Architektur wird immer wichtiger. Es war in einigen frühen Netbooks und ist im iPhone, iPad und vielen vergleichbaren Geräten. Es hat den Vorteil, dass es bei geringem Stromverbrauch relativ leistungsstark ist, wodurch es sich sehr gut für tragbare Geräte eignet.

Die andere Art von CPU, auf die Sie auf herkömmlichen Systemen stoßen werden, ist die GPU, die speziell für die Hochgeschwindigkeits-Parallelverarbeitung entwickelt wurde. Es gibt Softwareplattformen, die es den Programmierern ermöglichen, andere Dinge zu tun und ihre Stärken zu nutzen.

Der Unterschied zwischen Desktop- und Serverversionen von Betriebssystemen ist nicht mehr grundlegend. In der Regel haben beide das gleiche zugrunde liegende Betriebssystem, aber die Schnittstellenebene ist sehr unterschiedlich. Ein Desktop oder Laptop ist so konzipiert, dass er von einem Benutzer leicht verwendet werden kann, während ein Server von einer Person verwaltet werden muss, die auch eine ganze Reihe anderer Server verwaltet.

Ich werde einen Stich im gemischten Kern machen, aber ich bin vielleicht nicht genau (Korrekturen sind willkommen). Die Sony Playstation 3 hat einen seltsamen Prozessor mit verschiedenen Kernen, die für verschiedene Zwecke spezialisiert sind. Theoretisch ist dies sehr effizient. Praktischerweise ist es sehr schwierig, ein Mixed-Core-System zu programmieren, und sie sind eher spezialisiert. Ich denke nicht, dass dieses Konzept eine besonders glänzende Zukunft hat, aber es macht schöne Dinge für den Verkauf von Sony in der Gegenwart.

    
David Thornley 19.10.2010 17:54
quelle
4

Eine Ergänzung für die Embedded-CPU-Architektur: Sie müssen in der Regel billiger sein als Mainstream-Prozessoren, so dass sie die Lebensdauer des Produkts nicht wesentlich erhöhen.

Mixed-Core-CPU-Architekturen

  • Sie werden normalerweise dort eingesetzt, wo ein hoher Durchsatz, eine höhere Geschwindigkeit und / oder geringere Leistungsanforderungen erforderlich sind - eingebettete Anwendungen, DSPs, Kryptographie, Spiele, Hochleistungsrechnen.

  • Mixed-Core-Architekturen bieten neben dem General Purpose (GP) -Kern einen oder mehrere spezialisierte Cores, die zu einer bestimmten Problemdomäne passen. Die spezialisierten Kerne können als Beschleuniger für einen bestimmten Teil der Anwendung verwendet werden, der als Engpass betrachtet wird. Obwohl man die gleiche Leistung durch Hinzufügen von mehr GP-Kernen erreichen kann, kann dies aufgrund der verwendeten Technologie, der Chipgröße, der Leistungsbeschränkungen, der Verlustwärme oder der Programmierbarkeit unpraktisch sein - die spezialisierten Kerne machen eine Sache oder zumindest einige Dinge schneller und effizienter als ein GP-Kern. Sie existieren aus den gleichen Gründen, warum Grafikkarten eine andere Architektur in ihren GPUs verwenden.

  • Mainstream-Betriebssysteme werden für Mainstream-CPUs geschrieben und optimiert. Sie sind auf eine Mainstream-Prozessorarchitektur abgestimmt. Darüber hinaus sind die spezialisierten Kerne normalerweise nicht generisch genug, um ihr Betriebssystem zu betreiben. Daher brauchen wir nicht explizit ein neues Betriebssystem, nur Modifikationen, die es dem System ermöglichen, die spezialisierten Kerne zu erkennen und zu verwenden - entweder durch eine Bibliothek oder durch einen Treiber. Die Verwendung des spezialisierten Kerns erfordert eine teilweise Neukompilierung, damit der ausführbare Code auf den spezialisierten Kern abzielt.

Einige Anmerkungen:

  • Mainstream-Chips sind effektiv gemischte Kerne. Sie haben MMX-, SSE-, SSE2-, SSE3-Befehle, Fließkomma-Befehle und manchmal kryptografische Erweiterungen. Dies macht sie effektiv zu einer "Mixed-Core" -Architektur. Sie sind jedoch so beliebt, dass sie in der Mikrocomputer-Prozessor-Kategorie enthalten sind. Denken Sie an AMDs Fusion und Intel Larrabbee.

  • x86 ist so beliebt, weil es viel Forschung, Anstrengung und Investitionen gibt, um gute Tools (Compiler, Debugger usw.) für sie zu entwickeln. Darüber hinaus ist die Mehrheit der Programme Closed Source und kompiliert für x86, so dass Sie sie auf keiner anderen Architektur ausführen können. Schließlich enthält viel Code handgeschriebene Optimierungen oder Annahmen im Code, der auf einem x86 kompiliert und ausgeführt wird. Dies würde ein partielles Neuschreiben der Anwendung erfordern, um für eine andere Architektur zu kompilieren.

  • Ein weiterer guter Grund für unterschiedliche Architekturen ist die Kontrolle und enge Integration verschiedener Subsysteme. IBM verfügt über eigene CPUs (PowerPC), Betriebssystem (AIX) und Bibliotheken, die ein optimal abgestimmtes Paket bieten, von dem man sich nach dem Kauf kaum trennen kann. Gleiches gilt für Sun (jetzt Oracle) mit SPARC und Solaris und vor ein paar Jahren mit HP mit HP-RISC und HP / UX. Es ist nichts Böses oder Ähnliches: Sie bieten ein Paket, das genau zu Ihrer Anwendung passt, und sie wissen und können leicht reproduziert werden, wenn etwas schief geht, weil sie mit allen Aspekten des Systems vertraut sind, sowohl mit Hardware als auch mit Software.

ipapadop 26.10.2010 17:18
quelle
3

Es scheint, als ob Ihre Frage und Ihr Ziel darin besteht, die Geschichte der Computerarchitektur zu verstehen. Wenn das stimmt, brauchst du dieses Buch. Es sollte Ihnen helfen, das Verständnis zu bekommen, nach dem Sie suchen:

Ссылка

Dr. Brooks behandelt die Geschichte der Computerarchitektur, die Entstehung neuer Ideen und verfolgt die Entwicklung dieser Ideen durch verschiedene Maschinen im Laufe der Zeit.

    
James Branigan 25.10.2010 01:14
quelle
2

Großrechner

  • Verarbeitet eine große Menge an Informationen mit einer Vielzahl von Anweisungen, die gleichzeitig ausgeführt werden.
  • Ein Heimcomputer (PC / Desktop) kann nicht viel Code gleichzeitig verarbeiten und verarbeitet nicht viele Daten.
  • Ein für die jeweilige Architektur spezifisches Betriebssystem macht es für die spezifische Hardware effizienter.

HW-Architekturbeispiel

Ein Wetter-Mainframe, der Echtzeitinformationen von Sensoren in verschiedenen Zuständen verarbeitet.

OS-Architekturbeispiel

Nehmen wir an, der normale Befehl zum Zeichnen ist: DRAW "text". Das ist auf einem normalen PC. Nehmen wir nun an, Sie haben viele Bildschirme und möchten auf jedem das gleiche Bild zeichnen. Auf diesem PC müssen Sie für jeden Text DRAW "text" aufrufen. Sie können jedoch auch etwas Hardware mit dem Befehl "DRAWS" erstellen, der automatisch den gleichen Text auf jedem Bildschirm zeichnet: DRAWS "text"

    
Christian 19.04.2010 12:33
quelle
0

Auf den Punkt gebracht: Jedes Design muss einige Anforderungen erfüllen. Um komplexe Anforderungen zu erfüllen, müssen Kompromisse gemacht werden. Wenn die Anforderung X bis zum n-ten Grad erfüllt wird, kann es unmöglich sein, die Anforderung Y zu erfüllen. Also, ob es sich um CPUs oder Waschmaschinen handelt, wird es eine Vielzahl geben Designs, um eine Vielzahl von Anforderungen zu erfüllen.

Die Situation wird durch die Entwicklung beider Technologien und der Anforderungen im Laufe der Zeit komplexer, aber nicht wesentlich verändert.

    
High Performance Mark 19.04.2010 12:41
quelle
-1

Könnten Sie zum Beispiel alle Verkehrsprobleme in der Welt lösen, wenn das einzige Fahrzeug ein Toyota Toyotasystem mit Automatikgetriebe wäre (die alten kleinen nicht die neueren Vollgrößen)?

Warum würden Sie jemals etwas anderes brauchen?

Nun, nicht jeder kann einen Stock fahren, nicht jeder passt in einen Toyota (ich denke an Höhe mehr als Breite). Du kannst die Familie nicht tragen. Sie können keine großen Objekte transportieren, sicherlich nicht effizient. Wie bringen Sie die LKWs zum Händler zum Verkaufen? Sie einzeln fahren?

Wenn wir einen Prozessor der Serverklasse in unserer Fernsehfernbedienung verwenden würden, bräuchten wir ein Verlängerungskabel und einen Kühlungslüfter oder müssten die Batterien bei jedem Tastendruck ersetzen und warten, bis sie zuerst gestartet wird.

Rtoses und Betriebssysteme, gleiche Antwort wie oben. Sie verwenden kein Rtos in einem Mikrocontroller mit niedriger Leistung, normalerweise nicht, Sie haben oft ROM in Hunderten von Bytes gemessen und RAM in Dutzenden von Bytes gemessen. Kein Platz für Bloatware. Speziell entwickelte Software für speziell entwickelte Hardware.

Sehen Sie sich die ARM vs Intel-Sache an, die jetzt läuft, Intel ist schrecklich im Hardware-Design, sein Erfolg ist rein in Konferenzräumen und Telecons nicht in Hardware auf einem Motherboard. Sie können die gleiche Leistung mit alternativen Anweisungssätzen von alternativen Anbietern zu einem Bruchteil der Anfangs- und Betriebskosten erzielen. Warum sich mit einer alten Lösung zufrieden geben?

Wenige Betriebssysteme sind zuverlässig, genauso wie Compiler und Hardware. Einige Software und Hardware ist auf Leistung oder Zuverlässigkeit ausgelegt, aber nicht unbedingt auf Benutzerfreundlichkeit. Ich möchte nicht, dass der Fahrwerkshebel den Piloten dazu bringt, zu einer Maus zu greifen und die OK-Taste auf dem "Bist du sicher, dass du das Fahrwerkfenster aufstellen willst" zu überprüfen und dann die Sanduhr zu sehen, während sie darüber nachdenkt ob man es macht oder nicht.

Aus dem gleichen Grund brauchen Sie einen Pickup-Truck für einige Jobs und einen Traktor-Trailer für andere, Sie benötigen eine Klasse von Maschine (und Software) für Home-Desktop, eine andere für kleine und mittlere Business-Server und eine andere für große Unternehmen. Sie können nicht einfach eine Pickup kleiner und unendlich größer je nach Job, Sie brauchen mehr Räder manchmal, Gehäuse oder nicht, mehr oder weniger Sitze, Zapfwellen, Hydraulik oder nicht, etc je nach der Aufgabe, für die es konzipiert ist.

>

Wo wären wir, wenn wir beim 8-Bit-Prozessor mit CP / M gestoppt hätten? Es löst alle Probleme der Welt, warum sollte jemals eine Alternative entwickelt werden? 100% der Innovationen, Kosteneinsparungen, Leistungssteigerungen sind das Ergebnis der Befragung der aktuellen Lösung und dem Versuch, etwas anderes zu versuchen.

Eine Größe passt allen passt niemand gut.

    
old_timer 19.04.2010 15:17
quelle