Zitat
Original von Balthazzar
glaub ich ned... schonmal versucht für UT2k3 ne Map auf zu setzen?? 2 Wochen mindestens, damits einigermassen gut aussieht, und für Fotorealistische Grafik, muss die Genauigkeit MINDESTENS nochmal um faktor 30 steigen! Selbst wenn irgendwann mal PCs rauskommen würden die diese Leistung erbringen würden, welcher Programmierer wäre so krank, für derartie Grafikengines gebührende Models, Maps, effekte etc. zu coden??? ich denke wir stehen kurz vor der Grenze, bei der man von einem sinnvollen Aufwands zu Ertrags Verhältnis sprechen kann. Evtl. haben wir sie schon überschritten. Es kommen immer weniger games mit bahnbrechender Grafik, oder auch nur etwas in der nähe davon, raus.
Es warhscheinlich keine Leute geben, die solche Sachen per Hand eingeben.
Früher musste mal einer Binärcode programmieren, dann Assembler und dann einfache Programmiersprachen. Heute ist PureBasic (oder wie mans auch immer schreibt) eine Basic-Language mit grossem Umfang für Games.
In ein paar Jahren wirds dann Sprachen geben, mit der man Fotorealistische Games relativ einfach programmieren kann (natürlich nur in Firmen, versteht sich).
Oder man verwendete die bereits schon erwähnt wurde: AI. Der PC macht dann alles.
Für alle die noch einen Weg suchen, die CPU voll auszureizen: Pi auf mehrere Trilliarden Stellen nach dem Komma ausrechnen.
Der PC ist schon Heute auf kleinstgrösse angewachsen. Was die Tweaker und Bürolisten als Computer bezeichnen sind eigentlich nur primitve alte Kisten mit Rechenpower. Erst PDAs, Laptops oder Natels bringen den Chip dorthin, wo er hingehört: In nützliche (oder zur Zeit noch eher weniger nützliche) Kleingeräte. Bei der Digitaluhr ist die Erfindung des Transistors nützlich, bei der Erfindung von Games und Tönen für Natels nicht.
Wenn mal alle PC nur noch sehr klein sind, werden schnelle Prozzis (relativ zur Grösse des Gerätes) sicher von Vorteil sein, da man sicherlich Videos aufnehmen und encoden in mehr als Echtzeit kann.
Dass wir eines Tages an die Grenzen des Machbaren stossen, ist klar. Denn irgendwann arbeiten wird mit Quantenquarks oder noch kleiner.
Und dann wird man feststellen, dass solche Präzision für den menschlichen Verstand nicht gut ist und die Roboter werden immer mehr zu dem, was wir für Tiere halten. Dann sind wir wieder bei der Natur, die viel Rechenleistung auf geringen Raum erbringt dank dem, dass sie nur das rechnet, was nötig ist.
Genug des unsinnigen Geschwafels.
Ich bin dafür, dass die Prozzis immer schneller werden.