Rechner der Zukunft?

Längenunabhängige Übertragungsgeschwindigkeit: Theoretisch denkbar durchaus. Man benötigt ja bloß sowas wie Lichtübertragung im Vakuum. Da geht's ja auch über die Unendlichkeit vollkommen problemlos.

Allerdings müßte die auch noch mit unendlicher Fokussierung gekoppelt werden. Spätestens an diesem Punkt ist schon wieder Ebbe.

Und wenn wir noch etwas realistischer bleiben, wird die Übertragung immer durch irgendwelche dämpfenden und wellenlängenabhängigen und damit signalverzerrenden Medien gehen. Und damit ist der Traum doppelt aus.

----

Ich reche statt mit Quantencomputern eher damit, daß durchallmähliche mehrschichtige Fortschritte (einschließlich Materialientausch) noch ein Skalieren in den Bereich von vielleicht 10 Nanometern Strukturgröße möglich sein wird. Allerdings wesentlich langsamer, als es bis zur Jahrtausendwende möglich war. Und mit der Verkleinerung immer langsamer werdend.

Daß Schaltungslogik in der Größenordnung von unter 10 Nanometern auf Basis von Quantencomputern herstellbar sein wird, sehe ich noch nicht:

"Richtige" Quantencomputer benötigen nach allem, was bisher an puren Ideen zur Erzeugung solcher Funktionseinheiten geboren wurde, vollkommen undiskutable gigantische Steuerwerke drumherum. Es gibt auch noch keine Ideen, diese durch irgendwelche alternativen physikalischen Prinzipien zu ersetzen, die deutlich kleiner ausfallen könnten.

Und die "Quasi"-Quantencomputer, die nur _analoges_ Verhalten mit Hilfe von größeren Atomgruppen erzielen, haben mindestens noch einen sehr langen Weg vor sich, ehe sie ERSTMAL zu einem Zustand kommen, wo sie im Laborversuch bei gleicher Strukturgröße gleiches leisten können, wie die "herkömmliche" Halbleitertechnik, und dann NOCHMAL einen langen Weg, bis ihre großtechnische Herstellung konkurrenzfähig werden kann. Das halte ich aber für noch nicht absehbar.

Auch 3D-Einheiten durch Stapelung halte ich nicht für sehr aussichtsreich.
Bereits mit 2D-technik ist der räumliche Aufwand zum Wärmeabtransport rund das Millionenfache des Raumes, in dem die Wärme entsteht.
Durch Stapelung wird daran absolut NULL Änderung erfolgen.
Und dann folgt zwingend: Es wird wahrscheinlich BILLIGER sein, um jede Halbleiterlage einen eigenen Block von zwei, drei Litern Lüfterraum zu organisieren, als eine extrem aufwendigere Technik zum mehrfach schnelleren Ableiten der Wärme mit einem genauso großen Kühlraum (in Bezug auf gleiche Rechenleistung) zu kombinieren.
Das sah alles mal vor einigen Jahren noch anders aus, als die Ausreizung der Halbleitertechnik noch nicht so fortgeschritten war wie heute: Damals schien das Stapeln von sehr leistungsarmen CMOS-Transistorschichten als vollkommen logische Entwicklungsrichtung. Heutzutage (nein, schon seit rund 10 Jahren) ist das längst kalter Kaffee.

----

Softwaremäßig kann ich mich auf kürzere und mittelfristige Sicht nur GambaJo anschließen: Ich kenne bisher keine Projekte, die durch das Aufblähen von Schnittstellen und an Kunden ausgelieferte Debug-Layer oder durch Folgen purer Modegeilheit im Softwarebereich besser funktionieren würden, leichter verständlich wären oder gar sicherer sein würden als gut designter, schlank gehaltener Code. Eher trifft das Gegenteil zu.
 
Original von GambaJo
Wenn ich mit meinem Linux genau das Gleiche machen kann, wie mit Vista (oder XP), Vista aber ein Mehrfaches an Ressourcen benötigt, nur damit es selbst läuft, kann es nicht an der Komfort liegen.

Mein (optimiertes) XP benötigt inklusive Virensoftware, Messenger und Firewall gerade 197mb.
Wollte ich gesagt haben.

// hoppala, brauchte 197mb bevor ich mir einen 22" TFT gekauft habe. Jetzt ists etwas mehr ;)
 
@sTEk:
Das ist vollkommen richtig, aber wie viel Prozent der User sind Ingenieure, Wissenschaftler, etc.? Ich denke, dass das nicht die Hauptzielgruppe der Industrie ist.

Original von sTEk
Das Thema Software ist ein anderes. Ich kann mir durchaus vorstellen, dass man im Privatbereich bestimmte (unkritische) Anwendungen auf Server auslagert. Das kann Textverarbeitung oder Tabellenkalkulation sein, eben alles, was nicht so viele Daten verbraucht. Bei Firmen kann diese Möglichkeit nicht wahrgenommen werden, da die Daten meist zu sensibel sind und von daher die Anwendungen höchstens auf Firmenserver verlagert werden.

Das gibt es auch schon. Wird von google und anderen Anbietern angeboten (lol, tolles Deutsch).

@[starfoxx]:
Ich hab bei meinem Gnome noch diverse Applets laufen, Firewall und Messenger sind Standard. Antiviren-Software brauche ich nicht.
Ich will jetzt aber auch keine Haare spalten. Vergleich mal den Ressourcenhunger von Vista mit gleichen gestarteten Anwendungen. Und hat man mehr davon?


Ich glaube auch, dass man zu den MultiCores geht, weil irgendwann die physikalische Grenze der Verkleinerung erreicht ist. So verlegt man sich von Minimalisierung auf Quantität.
 
Hö? Ich glaube eher, Du machst was falsch. Ich hab mein Swap abgeschaltet, weil ich genug Ram habe.

Da hat doch das eine mit dem anderen nix zu tun.
Der Swap ist dafür da, um komplette (blockierte) Prozesse auszulagern, wenn der RAM knapp wird. Im RAM werden vom OS Daten gecacht, um Lesezugriffe auf die HDD einzusparen / zeitlich zu optimieren.

So, und jetzt Schluss mitm OT :)
 
Original von GambaJo
@sTEk:
Das ist vollkommen richtig, aber wie viel Prozent der User sind Ingenieure, Wissenschaftler, etc.? Ich denke, dass das nicht die Hauptzielgruppe der Industrie ist.
Das stimmt schon - aber die Frge war auch allgemein, jedenfalls habe ich sie so verstanden. Und ganz allgemein gibt es genug Anwendungsgebiete (Fahrzeugbau, Architektur, Medizin, Chemie, Leittechnik, Elektrotechnik, Maschinenbau etc.), die auf viel Rechenkraft angewiesen sind. Und ganz nebenbei - dort wird nun mal das Geld verdient, damit die Leute was zum ausgeben haben. Wer nicht entwickelt schaufelt sich sein eigenens Grab...

Original von GambaJo
Original von sTEk
Das Thema Software ist ein anderes. Ich kann mir durchaus vorstellen, dass man im Privatbereich bestimmte (unkritische) Anwendungen auf Server auslagert. Das kann Textverarbeitung oder Tabellenkalkulation sein, eben alles, was nicht so viele Daten verbraucht. Bei Firmen kann diese Möglichkeit nicht wahrgenommen werden, da die Daten meist zu sensibel sind und von daher die Anwendungen höchstens auf Firmenserver verlagert werden.

Das gibt es auch schon. Wird von google und anderen Anbietern angeboten (lol, tolles Deutsch).
Ich weiß das - und darauf zielte meine Verallgemeinerung und Standardisierung auch hinaus. Auch wenn es solche Dienste bereits gibt, die wenigsten nehmen sie doch war.
 
Kann es jetzt nicht verifizieren, aber es scheint so, dass die Mozilla-Community an einem eigenem Online- OS arbeitet.

Wird wohl doch auf einen Mix von Home PC und Webspace mit Anwendungen hinauslaufen.
 
Zurück
Oben