Virtual Reality hat in den letzten Jahren enorme Fortschritte gemacht.Angesichts der jüngsten Entwicklungsschübe mag es überraschen, dass die Ideen, die dem zugrunde liegen, was wir heute als VR bezeichnen, bereits in den 60er Jahren entwickelt wurden.Nicht alle erdachten Möglichkeiten sind eingetreten, aber wir haben viel darüber gelernt, was für ein überzeugendes VR-Erlebnis wichtig ist (und was nicht), und Erkenntnisse darüber gewonnen, was als nächstes passieren könnte.Wenn die besten Ideen für Virtual Reality aus den 60er Jahren stammten, welche waren das und wie haben sie sich entwickelt?Zunächst möchte ich kurz auf zwei wichtige Vorläufer dessen eingehen, was wir unter VR verstehen: Interaktion und Simulation.Vor den 1960er Jahren waren Link Trainer und Sensorama hochmoderne Beispiele für beide.Der Link Trainer war eine frühe Art von Flugsimulator, und sein Ziel war es, realistische Instrumentierung und Force-Feedback für die Flugsteuerung von Flugzeugen zu liefern.Dies ermöglichte es einem Schüler, ein sicheres Verständnis für verschiedene Flugbedingungen zu erlangen, obwohl er sie nicht wirklich erlebte.Der Link Trainer simulierte keinen anderen Teil des Flugerlebnisses, aber sein Erfolg zeigte, wie Feedback und Interaktivität – selbst wenn sie künstlicher und begrenzter Natur waren – es einer Person ermöglichen konnten, ein „Gefühl“ für Kräfte zu entwickeln, die nicht wirklich vorhanden waren.Sensorama war ein spezialisierter Pod, der Kurzfilme in stereoskopischem 3D abspielte, während er mit Ventilatoren, Geruchsemittern, einem motorisierten Stuhl und Stereoton synchronisiert war.Es war ein ernsthafter Versuch, die Sinne eines Benutzers so anzusprechen, dass eine Umgebung simuliert werden sollte.Da es sich jedoch um eine vorab aufgezeichnete Erfahrung handelte, war sie von Natur aus passiv und hatte keine interaktiven Elemente.Die effektive Kombination von Interaktion und Simulation musste bis in die 60er Jahre warten, als die digitale Revolution und Computer die richtigen Werkzeuge bereitstellten.1965 verfasste Ivan Sutherland, ein Informatiker, einen Aufsatz mit dem Titel The Ultimate Display (PDF), in dem er Ideen darlegte, die weit über das hinausgingen, was mit der damaligen Technologie möglich war.Man könnte erwarten, dass The Ultimate Display ein langes Dokument ist.Es ist nicht.Es ist kaum zwei Seiten lang, und der größte Teil der ersten Seite beschäftigt sich mit den aufkeimenden interaktiven Computereingabemethoden der 60er Jahre.Im zweiten Teil wird es interessant, wenn Sutherland die Zukunft teilt, die er für computergesteuerte Ausgabegeräte sieht, und ein ideales „kinästhetisches Display“ beschreibt, das möglichst viele Sinne bedient.Sutherland erkannte das Potenzial für Computer, Ideen zu simulieren und nicht nur visuelle Informationen auszugeben, sondern auch sinnvolle Ton- und Berührungsausgaben zu erzeugen, während sie gleichzeitig die Eingaben eines Benutzers akzeptieren und in eine sich selbst modifizierende Rückkopplungsschleife integrieren.Das war zukunftsweisendes Zeug;Erinnern Sie sich daran, dass Computer, als dieses Dokument geschrieben wurde, nicht einmal bedeutungsvolle Klänge von wirklicher Komplexität erzeugten, geschweige denn visuelle Anzeigen, die beliebigen Inhalt haben konnten.Nahaufnahme von Sutherlands Damoklesschwert, einem an der Decke aufgehängten System, in das der Kopf eines Benutzers geschnallt wurde.[Bildquelle: History of VR]Sutherlands Hauptidee war folgende: Als Menschen sind wir intuitiv mit dem vertraut, was wir sehen und fühlen können.Die Auswirkungen der Schwerkraft, wie es sich anfühlt, etwas zu starten oder zu stoppen oder sich vorzustellen, wie ein Objekt aus einem anderen Blickwinkel aussehen wird, das sind alles Dinge, die wir mühelos verstehen.Was wäre, wenn wir auf ähnliche Weise Konzepte erleben könnten, die in unserer physischen Welt nicht verwirklicht werden könnten?Es wäre ein Weg, eine intuitive und vertraute Vertrautheit mit Konzepten zu erlangen, die uns sonst nicht zur Verfügung stehen.Als ersten Schritt zur Verwirklichung dieser Ideen schufen Sutherland und einige seiner Schüler ein großes, an der Decke aufgehängtes System mit dem Namen Sword of Damocles.Es war das erste Head-Mounted-Display, dessen Bilder nicht von einer Kamera, sondern von einem Computer generiert wurden.Es zeigte nur zeilenbasierte Vektorgrafiken an, konnte das Gezeigte jedoch basierend auf der Kopfposition und der Benutzereingabe in Echtzeit ändern.Die Nutzung der Fähigkeit eines Computers, Feedback zu verarbeiten und dynamisch visuelle Elemente zu generieren, war der Schlüssel zu einem interaktiven System, das in der Lage ist, seine eigene simulierte Umgebung zu generieren.Zum ersten Mal war ein Weg, Interaktion sinnvoll mit abstrakter Simulation zu verschmelzen, in greifbare Nähe gerückt, und es gab keinen anderen Weg als nach oben.Viele Konzepte, die Sutherland vorhergesagt hat, haben sich zumindest teilweise erfüllt und sind in irgendeiner modernen Form erkennbar.In der Lage zu sein, Dinge frei von den Grenzen der physischen Realität zu definieren und ihre Eigenschaften nach Belieben anzupassen, umfasst Funktionen wie CAD-Modellierung und andere Simulationsarbeiten sowie Unterhaltung wie Spiele.Tatsächlich wäre es sogar fair zu sagen, dass Gaming in diesem Bereich besonders gedeiht.Sutherland stellte sich ein computergesteuertes Display als Spiegel in ein mathematisches Wunderland vor.Ein großartiges Beispiel für dieses Konzept ist diese 3D-Engine für nicht-euklidische Geometrie, die unmögliche Geometrien auf vertraute, interaktive Weise darstellt.Heutige VR-Controller (und mobile Geräte wie Telefone) verlassen sich stark darauf, eine Reihe subtiler Vibrationen als sinnvolles Feedback liefern zu können.Obwohl es nicht Sutherlands Ideal entspricht, Dinge wie komplexe Physik genau zu simulieren, vermittelt es den Benutzern dennoch ein intuitives Verständnis von unsichtbaren Kräften und Grenzen, wenn auch einfachen, wie Knöpfen, die nicht als physische Objekte existieren.Das Ändern der Anzeige je nachdem, wohin man schaut, ist ein Hauptmerkmal von VR.Während Sutherland dieses Konzept nur kurz erwähnte, hat sich genaues Tracking mit geringer Latenz als ein Merkmal von entscheidender Bedeutung herausgestellt.Als Valve zum ersten Mal VR und AR untersuchte, war ein früher Indikator dafür, dass sie auf etwas gestoßen waren, als die Forscher erlebten, was möglich war, wenn Displays mit geringer Persistenz mit hochwertigem Tracking kombiniert wurden;es wurde beschrieben als Blick durch ein Fenster in eine andere Welt.Sutherland stellte sich die Fähigkeit eines Computers vor, den Körper eines Benutzers als Eingabemethode zu lesen, insbesondere Körperteile mit hoher Fingerfertigkeit wie Hand und Augen.Hand-Tracking ist heute ein zunehmend verbreitetes Merkmal in VR-Systemen für Verbraucher.Eyetracking existiert, aber dazu gleich mehr.Es gibt eine Reihe von Konzepten, die noch nicht umgesetzt wurden oder nur sehr begrenzt existieren, aber diese Liste wird immer kürzer.Hier sind die bemerkenswertesten Herausragenden.Sutherland schrieb: „Es bleibt abzuwarten, ob wir eine Sprache der Blicke verwenden können, um einen Computer zu steuern“, und bisher ist das so geblieben.Es stellt sich heraus, dass die Augenverfolgung ziemlich einfach ist, meistens richtig zu machen: Man richtet einfach eine Kamera auf einen IR-beleuchteten Augapfel, sucht nach dem schwarzen Kreis der Pupille und misst ihre Position, um festzustellen, wohin ihr Besitzer schaut.Keine Probleme, und unternehmungslustige Hacker haben viele clevere Eye-Tracking-Projekte gemacht.Eye-Tracking wird schwieriger, wenn ein hohes Maß an zuverlässiger Genauigkeit erforderlich ist, z. B. um zu ändern, wie visuelle Elemente basierend auf dem genauen Blickwinkel eines Benutzers gerendert werden.Dafür gibt es eine Reihe von Gründen: Das menschliche Auge macht nicht nur häufige, unwillkürliche Bewegungen, die als Sakkaden bezeichnet werden, sondern etwa 1 % der Menschen haben Pupillen, die nicht als schöne runde schwarze Formen erscheinen, was es für Software schwierig macht, sie zu erkennen.Darüber hinaus gibt es ein tieferes Problem.Da eine Pupille nichts anderes als eine Öffnung im flexiblen Gewebe der Iris ist, hat sie nicht immer eine einheitliche Form.Die Pupille wackelt und wackelt tatsächlich, wenn sich das Auge bewegt – was häufig vorkommt – und dies erschwert die Interpretation einer hochgenauen Positionierung.Hier ist ein Link (auf 37:55 in) zu einer Videopräsentation, die diese Probleme erklärt und zeigt, warum es wünschenswert ist, Eye-Tracking in bestimmten Anwendungen zu vermeiden.Force-Feedback-Geräte gibt es seit Jahren, und dank der VR-Entwicklung gibt es ein erneutes Interesse an Force-Feedback.Aber wir sind weit davon entfernt, es so zu verwenden, wie Sutherland es sich vorgestellt hat: um komplexe Konzepte und Phänomene zu simulieren und intuitiv mit ihnen vertraut zu machen und sie so zu lernen, wie wir unsere eigene natürliche Welt kennen.Die Simulation von so etwas wie einem Händedruck oder einer Umarmung sollte nach dieser Metrik einfach sein, aber Force-Feedback, das einfache Physik sinnvoll simulieren kann, bleibt das Reich teurer Nischenanwendungen, die ohne spezialisierte Hardware nicht existieren können.Der wahrscheinlich am häufigsten zitierte Teil von The Ultimate Display sind die letzten paar Sätze, in denen Sutherland etwas beschreibt, das bemerkenswert nach dem Holodeck aus Star Trek klingt:Das ultimative Display wäre natürlich ein Raum, in dem der Computer die Existenz von Materie kontrollieren kann.Ein Stuhl, der in einem solchen Raum ausgestellt ist, wäre gut genug, um darin zu sitzen. Handschellen, die in einem solchen Raum ausgestellt sind, würden einengen, und eine in einem solchen Raum ausgestellte Kugel wäre tödlich.Bei entsprechender Programmierung könnte ein solches Display buchstäblich das Wunderland sein, in das Alice ging.Natürlich sind wir noch lange nicht an diesem Punkt angelangt, aber wenn wir es jemals sind, ist es vielleicht das Letzte, was wir jemals erfinden müssen.Die besten Ideen stammen vielleicht aus den 60er Jahren, aber wir haben seitdem viel darüber gelernt, was wirklich wichtig ist und was nicht, um immersive Erlebnisse zu schaffen.Wichtige Funktionen sind diejenigen, die eine Technologie wirklich erfüllen muss, da sie für die Immersion entscheidend sind.Immersion ist eine Art kritische Masse, ein sinnliches „Aha!“Moment, in dem man aufhört, die einzelnen Arbeitsschritte zu bemerken, und beginnt, nahtlos und intuitiv mit den Inhalten in einem Zustand des Flusses zu interagieren.Wichtige Funktionen helfen dabei.Zum Beispiel scheint es, dass ein weites Sichtfeld in einem HMD wichtig für die Immersion ist, aber das ist nicht ganz der Fall.Wir haben eine faszinierende Präsentation darüber behandelt, wie das menschliche Sehen alle möglichen Hinweise verwendet, um zu entscheiden, wie „real“ etwas ist, und was das für die HMD-Entwicklung bedeutet.Es stellt sich heraus, dass ein sehr breites Sichtfeld in einem Display wünschenswert ist, aber es ist nicht besonders wichtig, um die Immersion zu erhöhen.Audio hat ähnliche Probleme, wobei alle möglichen Dinge als wichtig für die Bereitstellung einer überzeugenden Audiosimulation entdeckt werden.Zum Beispiel erweist sich das direkte Einleiten von Schall über Ohrstöpsel in die Gehörgänge als eine leistungsstarke Möglichkeit für das Gehirn, Geräusche als „nicht echt“ zu klassifizieren, egal wie genau sie simuliert wurden.Toll zum Musikhören, weniger für eine überzeugende Simulation.Ein weiteres Merkmal von entscheidender Bedeutung ist ein Display mit robustem Tracking und geringer Latenz.Ich habe dies selbst erlebt, als ich zum ersten Mal eine fehlerfreie Bewegungsverfolgung auf einem modernen VR-Headset ausprobiert habe.Egal wie ich mich bewegte oder umsah, es gab keine wahrnehmbare Verzögerung oder Drift.Ich konnte fast spüren, wie mein Gehirn mühelos in eine Rille glitt, als hätte es entschieden, dass der Raum, in dem ich mich befand, und die Dinge, die ich betrachtete, völlig getrennt von dem Ding existierten, das ich auf meinem Kopf trug.Das war etwas, was ich definitiv nicht gespürt habe, als ich Mitte der 90er Jahre ein Forte VFX1 VR-Headset trug.Damals war es nicht die geringe Auflösung oder das kleine Sichtfeld, die mich gestört haben, sondern das driftende und ungenaue Headtracking, an das ich mich am meisten erinnere.Es gab Potenzial, aber es ist kein Wunder, dass VR in den 90er Jahren nicht aufblühte.Eine Sache, die zu Sutherlands allgemeinen Vorhersagen über die Körperverfolgung passt, die er aber wahrscheinlich nicht kommen sah, ist die Gesichts- und Ausdrucksverfolgung.Es ist eine experimentelle Arbeit von Facebook, gewinnt aber vor allem für den Zweck der digitalen Interaktion mit anderen Menschen an Bedeutung und nicht als Mittel zur Computereingabe.Apropos Facebook, ein soziales Netzwerk, das die VR-Entwicklung anführt (während sie es fester im Griff hat), wurde in den 60er Jahren definitiv nicht vorhergesagt, aber es scheint dennoch das nächste für VR zu sein.Aber ich habe nie gesagt, dass die Zukunft von VR aus den 60er Jahren kommt, nur dass die guten Ideen das taten.„Was wäre, wenn wir auf ähnliche Weise Konzepte erleben könnten, die in unserer physischen Welt nicht realisierbar wären?Es wäre eine Möglichkeit, eine intuitive und intime Vertrautheit mit Konzepten zu erlangen, die uns sonst nicht zur Verfügung stehen.“Ich betitel dich, Videospiel.Gehen Sie voran und gedeihen Sie.Videospiel ist nicht dasselbe wie VR.Vor allem, wenn wir über den Erwerb von Fähigkeiten (z. B. Training) sprechen – während Sie mithilfe von Videospieltechnologien etwas zeigen und demonstrieren können, ist es letztendlich immer noch ein verherrlichtes Video oder „Powerpoint“, weil Sie mit einer Maus auf einem Bildschirm auf Dinge klicken.In VR sind Sie tatsächlich vor Ort, manipulieren Objekte mit Ihren eigenen Händen, sehen die Szene im richtigen Verhältnis und Maßstab (wichtig zB für die Beurteilung von Sicherheitsabständen!) und so weiter.Der Lerneffekt ist sehr unterschiedlich.Obwohl es eindeutig große Unterschiede gibt, ist die Kluft zwischen dem Spielen eines First-Person-Spiels auf einem Bildschirm mit einem Gamecontroller und der Verwendung eines VR-Headsets und Controllers nicht unbedingt so groß, wie es scheinen mag.Wenn sich eine Person auf den Bildschirm konzentriert, wird dieser wirklich zu ihrem gedanklichen Fenster zur Spielwelt, und wenn die Spielsteuerung zur zweiten Natur auswendig gelernt wurde, richten sich die Gedanken zur Steuerung des Spielers danach, welche Aktion vom Spieler gewünscht wird , anstatt welche Taste zu drücken ist.Das heißt, wenn Sie springen möchten, denken Sie „springen“, und Ihr Körper führt die gewünschte Aktion automatisch aus, ohne dass Sie „den oberen Knopf mit dem rechten Daumen drücken“ verarbeiten müssen.Es stimmt zwar, dass der Lerneffekt sehr unterschiedlich ist, aber Sie können tatsächlich auch von einem Nicht-VR-Setup lernen.Sie können den Raum, die Reihenfolge und das Timing der Dinge lernen.Sie werden den Gedanken haben, am richtigen Ort und zur richtigen Zeit zu springen, aber Sie müssen die tatsächliche Aktion vom Drücken der Taste auf die tatsächlich benötigte Körperaktion umstellen.Das menschliche Gehirn funktioniert so nicht.Das Training für Fähigkeiten wie das Zusammenbauen eines Geräts mit einem Bildschirm und einer Maus lässt sich nicht auf die eigentliche Sache übertragen.Anstatt ein Muskelgedächtnis zu entwickeln, um Ihre Hand mit einem bestimmten Timing auf eine bestimmte Weise zu drehen, lernen Sie das Muskelgedächtnis, mit einem Finger zu zucken, was überhaupt nicht hilft.Ebenso nutzt das Navigieren im 3D-Raum auf einem 2D-Bildschirm ganz andere Sinne, als Sie es normalerweise tun würden.Wenn Sie das Videospiel spielen, lernen Sie das Videospiel, nicht das, wofür Sie trainieren sollten.Deutlich wird dies bei Dingen wie Fahrspielen, die auch versuchen, Physik einzubauen, und dabei spektakulär scheitern.Leute, die wirklich gut in Sega Rally sind, neigen dazu, beim Fahren eines echten Rallye-Autos scheiße zu sein, weil sie die Eigenheiten des Spiels gelernt haben, nicht die Realität.Einige Simulationen, wie Autorennen, lassen sich ziemlich gut übersetzen.Abgesehen vom Kotzen durch die G-Kräfte, die nicht im Spiel sind, und der drückenden Hitze und den Gerüchen (Öl, Benzin, Gummi), schneiden einige Rennspieler ziemlich gut ab.https://www.history.com/from-bedroom-gamer-to-professional-racerhttps://www.google.com/amp/s/www.bbc.com/news/amp/newsbeat-53554245Ich bin mir immer noch ziemlich sicher, dass ich aus meiner ganzen Zeit im Flugsimulator eine Cesna fliegen könnte, aber ohne Training würde ich nicht davon träumen.Es gibt einen Anwendungsfall, den ich gerne Realität werden sehen würde.Gehen Sie zu einer historischen Stätte und sehen Sie sich eine gefilmte Schlacht an, die an der tatsächlichen Stätte stattfindet, während Sie die Brille tragen.Das wäre unglaublich cool.Nehmen Sie alle verfügbaren Daten und Filme, erstellen Sie eine vollständige Simulation des Kampfes und springen Sie von „Hot Spot“ zu „Hot Spot“, an dem es Videos oder andere Beweise von diesem Punkt gab.Sie können an einer passiven geführten Tour teilnehmen oder das Video von einem Teil der Schlacht anhalten, über den Kopf herauszoomen, eine andere Stelle finden und das Video von dort aus ansehen.Oder zoomen Sie auf eine hohe Draufsicht heraus und sehen Sie sich den Kampf im Schnellvorlauf an.Natürlich müssten Sie sich einige künstlerische Freiheiten nehmen, aber ich denke, Sie könnten es zum Laufen bringen.Und so kostspielig, dass sich das kein Museum leisten könnte.Die Leute erkennen nicht, dass man nicht einfach ein Video aufnehmen und in eine „Simulation“ verwandeln kann (dh etwas Interaktives, das über das Springen zwischen vorgefertigten Blickwinkeln hinausgeht).Ganz zu schweigen von den praktischen Aspekten, zerbrechliche Schutzbrillen an Menschenmassen auszuleihen – die Schutzbrillen müssen ständig gereinigt, aufgeladen, repariert und ersetzt werden.Auch ohne das ganze COVID-Durcheinander wäre das ein geschäftlicher Alptraum.lol, ich vermisse den Teil, wo ich sagte, es wäre einfach … Ich arbeite in der Branche, ich verstehe, wie schwer es sein würde.Die Leute würden gutes Geld für ein solches Produkt bezahlen.Es könnte auch als eine Art Spiel verpackt und verpackt werden, was den Verkauf erleichtern könnte.Ich habe auch den Teil verpasst, wo irgendjemand etwas über ein Museum gesagt hat?Historische Stätte ist kein Museum?Oder erwarten Sie, dass die Leute ihr eigenes Gerät mitbringen, herunterladen und appen und irgendwo auf dem Feld spazieren gehen?Ich frage mich, welches Gerät soll das sein?Sie überschätzen auch ernsthaft den Betrag, den jemand bereit wäre, dafür zu zahlen (und unterschätzen, wie viel eine solche Produktion tatsächlich kosten würde, wenn man bedenkt, dass es sich um eine einmalige, komplett maßgeschneiderte Sache handelt).Menschen, die bereit sind, „gutes Geld“ zu zahlen, hören oft auf, in dem Moment zu zahlen, in dem Sie den Preis bekannt geben.Selbst dumme Inhalte im Stil von „E-Learning“/360-Grad-Videos (die keineswegs Virtual Reality sind) mit handelsüblichen Tools würden irgendwo zwischen 20.000 und 100.000 US-Dollar kosten – und das wäre immer noch billig.Wirklich interaktive Inhalte wären sogar noch teurer.Sind Sie bereit, das zu sponsern?Denn anders geht es nicht.Ich habe viel darüber nachgedacht.Ich denke, Sie müssten Reenactors die Schlacht auf dem tatsächlichen Feld nachbilden lassen.Natürlich ist Gettysburg die Schlacht, die die meisten Menschen anziehen würde.Es ist eigentlich ein Trick.Es gibt keine guten VR-Ideen.Ich weiß nicht, ich habe mich im Laufe der Jahre mit VR beschäftigt, aber mit dem Quest 2 fühlt es sich endlich so an, als wäre es bereit für die Hauptsendezeit.Ich habe viel Spaß mit meinem.Weißt du, wenn es wirklich notwendig wäre, 3D-Grafiken von einem Computer aus zu sehen, würden wir bereits CAD-Programme mit diesen dummen 3D-Brillen verwenden, als die billigste Möglichkeit, dies zu tun.Aber niemand tut es jemals.Nicht, weil es reichen muss oder nicht gut genug ist, sondern einfach, weil es unnötig ist – eine flache Projektion ist mehr als genug für die Arbeit.Sicher, neue Spielzeuge mögen cool erscheinen und Ihnen manchmal sogar ein oder zwei atemberaubende Erlebnisse bescheren, aber darüber hinaus haben sie einfach keinen Nutzen.Abgesehen von der Tatsache, dass fast jedes 3D-Modellierungssystem über umfangreiche Funktionen zum Anzeigen von 3D-Bildern von Designs zur Ansicht durch Kunden verfügt.Vielleicht können Designer an 3D-Designs in 2D arbeiten, aber ohne zufriedene Kunden, die dafür bezahlen, ist es sinnlos.„Niemand tut das jemals“, das ist eine dreiste Lüge.Interessant, können Sie ein Beispiel für ein CAD-Programm geben, das 3D-Brillen verwendet?Offensichtlich habe ich nicht jedes einzelne existierende Programm gesehen, aber ich habe ziemlich viele benutzt und gesehen, dass noch ein paar mehr von anderen verwendet werden, und noch nie eine solche Option gesehen.Sie brauchen eine 2D-Brille, weil ich nie gesagt habe, dass CAD-Programme mit einer 3D-Brille geliefert werden.Wenn die Anwendung von einem Gefühl der Immersion profitiert, dann ist VR wirklich gut.CAD ist ein Beispiel für etwas, das wirklich nicht von einer stärkeren Immersion profitiert.VR könnte jedoch nützlich sein, um Kunden Designs anzuzeigen, die nützlich sein könnten.Ich kann mir vorstellen, dass es viele Trainingsanwendungen für VR gibt.Und ja.VR ist ein ziemlich gutes Spielzeug.CAD/CAM profitiert vor allem in der Visualisierungsabteilung von 3D, da die Objekte als Projektionen auf 2D-Ebenen definiert sind.Der größte Teil Ihrer Arbeit im CAD besteht darin, eine flache, eingeschränkte Linienzeichnung Ihres Teils zu erstellen, die Sie dann extrudieren.Es gibt verschiedene „3D-Zeichen“-Werkzeuge, aber diese führen zu schlecht definierten Geometrien, die schwierig herzustellen sind.Ist CAD 2.5D b/c der 2D-Anzeige oder geht die Kausalität in die andere Richtung?Ziemlich sicher, dass ANSYS2020 VR-Unterstützung hatDer Artikel ignoriert vollständig die Arbeit von Myron Krueger, die Ende der 60er/Anfang der 70er Jahre begonnen hat:https://en.wikipedia.org/wiki/Myron_W._KruegerEr arbeitete nicht mit VR im Handschuh- und Schutzbrillen-Stil, weil es am Anfang nicht existierte und als es endlich so war (Anfang Ende der 80er, Anfang der 90er), gefiel es ihm nicht, wie belastend die Ausrüstung für den Benutzer war (und immer noch ist). – tatsächlich nannte er das die „Affenanzüge“ (in den 90er Jahren gab es dieses Konzept von „Datenhandschuhen“ und „Datenanzügen“).Seine Arbeit hat immer Video verwendet – große Projektionssysteme, Licht, die Verwendung von Videokameras zur Interaktion.Jahrzehnte bevor Leute wie Johnny Lee zweihändige Interaktion/Multitouch, Kinect oder sogar die Verwendung von Computern für Grafiken zeigten, verwendete seine Arbeit klassische Videoproduktionstechniken wie Green Screens und Videomischer.Tatsächlich benutzte er nicht einmal den Begriff Virtual Reality – er nannte seine Arbeit „Artificial Reality“, um sich ausdrücklich von der damals aufkommenden „Goggles & Gloves“-Meute abzugrenzen.Er hat ein lesenswertes Buch „Artificial Reality“ veröffentlicht – vieles darin war für die damalige Zeit sehr visionär und wir kennen es heute in unterschiedlichen Formen.Auch das Googeln von Sachen wie „Small World“, „Videoplace“ und „Psychic Space“ sollte Ihnen einige Informationen über seine Arbeit geben.Apropos alte VR-Ideen, stellen Sie sich vor, wenn diese beiden Dinge entstanden sind:1) Eine Portierung auf moderne Hardware/Betriebssysteme von GopherVR https://en.wikipedia.org/wiki/GopherVR2) Eine Gopher-Schnittstelle zu HaDEs gibt bereits HaD Retro Edition…Oder eine Neuimplementierung von GopherVR.Das wollte ich auch vor dem Absenden schreiben.Diese Grafiken waren nach heutigen Maßstäben ziemlich langweilig.Erinnern Sie sich an 3D-Dateisystembrowser?Oh Mann, das war Ende der 90er die beste Idee…LOL.Definitiv kein praktischer Zweck, aber perfekt für jemanden, der seinen brandneuen Cyberdeck-Build demonstriert.Vorbereitung der Menschheit auf das VR-LebenMenschen haben seit den ersten Höhlenzeichnungen virtuelle Umgebungen geschaffen, Menschen leben ständig in VR.Schon mal was von „Fiktion“ gehört???Hinweis: Es ist nicht echt.„In VR sind Sie tatsächlich vor Ort und manipulieren Objekte mit Ihren eigenen Händen“Die Wörter „tatsächlich“ und „virtuell“ muss wirklich mal jemand im Wörterbuch nachschlagen.Ich habe für eine Firma gearbeitet, die Holodeck-VR gemacht hat, also keine Brille etc., man war in einer großen Kuppel mit einem darauf projizierten Bild.Es wurde für das Waffentraining, von der Schulter abgefeuerte Raketen usw. verwendet. Sie können immer noch stereoskopische Bilder mit einer Shutter-Brille machen.Tilt 5 stellt ein Headset her, das über diese Art von Technologie verfügt, aber für Tischoberflächen gedacht ist.Unter den Tilt 5-Entwicklern wird darüber geredet, ein Holodeck-ähnliches Erlebnis zu schaffen, aber niemand weiß wirklich genau, ob es für diesen Zweck funktionieren wird.Ich empfehle Filme oder Bücher wie „World on a Wire“ (Welt am Draht), 13th Floor, Simulacron-3 (alias Counterfeit World).https://en.wikipedia.org/wiki/World_on_a_WireDas Sensorama wurde von Morton Heilig erfunden und patentiert: https://patents.google.com/patent/US3050870A/enEr erfand und patentierte auch andere VR-bezogene Geräte.Ein HMD aus dieser Zeit war seine Telesphere Mask: https://www.techradar.com/news/wearables/forgotten-genius-the-man-who-made-a-working-vr-machine-in-1957- 1318253/2Seine vielleicht interessanteste patentierte Erfindung war sein Experience Theater: https://patents.google.com/patent/US3469837A/enVR hat das Potenzial, die Art und Weise, wie wir die Welt sehen, zu revolutionieren!– stellen Sie sich eine Zeitreise in eine ferne Vergangenheit in der Geschichte vor – einen Spaziergang mit den Dinosauriern vor einer Million Jahren oder einen Spaziergang durch eine antike Stadt?Vielleicht auf der Oberfläche des Mondes oder Mars laufen, als ob Sie wirklich dort wären?schwimmen Sie mit Delfinen oder fliegen Sie mit einem Adler!– Genau wie Computersimulationen von 2D-Inhalten für Filme, wenn wir uns dem Punkt nähern, an dem es immer schwieriger wird, den Unterschied zwischen einer „echten“ Szene oder einer CGI-erzeugten Szene zu erkennen, wird VR so gut, dass es irgendwann der Fall sein wird schwierig werden, den Unterschied zwischen der realen Welt und einer computergenerierten Welt zu erkennen!– Ich bin wirklich begeistert vom Potenzial von VR und hoffe auf weitere Fortschritte mit der Technologie!Ich würde sagen, Dinge wie AR und MR wären eine größere Kraft für Veränderungen.VR ist aufgrund seiner Natur irgendwie gebunden.Ich habe mir schon lange gewünscht, ich könnte ein anständiges AR-Display mit Helm/Heads-up und einem Wärmebild bekommen, das ich während der Fahrt verwenden kann, um all den selbstmörderischen Hirschen und Elchen hier auszuweichen.Der Grund, warum Ohrhörergeräusche nicht echt erscheinen, ist, dass das Außenohr wichtige Phasen- und Lautstärkeinformationen erzeugt, die das Gehirn für die Richtung der Schallquelle interpretiert und um konkurrierende Geräusche nach ihrer Position zu sortieren.VR in den 60er/70er Jahren hatte punktgenaue Konzepte, aber keine Möglichkeit, sie praktisch umzusetzen (TRL1/2).VR in den 90er Jahren hatte Implementierungen, aber sie waren unpraktisch und auf mehrere unabhängige Demosysteme (TRL3/4) verstreut, waren aber buchstäblich nicht in der Lage, ein System ähnlich den heutigen VR-Systemen zu produzieren, unabhängig von der verfügbaren Finanzierung.In den frühen 2010er Jahren begann eine rasche Konvergenz der demonstrierten Funktionen zu einzelnen Geräten/Systemen zu Handelskosten und Massenproduktion (z. B. DK1 & DK2 ~ TRL6/7).Heute (2020er Jahre) erreichen wir TRL9 mit Standardgeräten, die alle oder fast alle zuvor demonstrierten Funktionen implementieren.Analog ist AR heute in einem ähnlichen Zustand wie VR in den 90er Jahren: Wir haben eine ziemlich gute Vorstellung davon, wie AR aussehen und funktionieren soll.Wir haben einige Demos mit einzelnen Funktionen.Wir sind Jahrzehnte von praktischen Geräten entfernt, die all diese Dinge tun können, geschweige denn, sie zu irgendwelchen nicht einmaligen Kosten zu erledigen.Es gibt einige grundlegende Demonstrationen von Technologien, die in der Lage sein könnten, einige der spezifischen Probleme von AR zu lösen (Okklusion von realen Objekten durch virtuelle und umgekehrt, reale und virtuelle Objekte, die im gleichen Bereich von Kohleflugzeugen existieren, Schleifen rendern, die müssen reale Photonen schlagen, anstatt nur das 20-ms-Budget für Bewegungsphotonen von VR usw.), aber wir könnten buchstäblich keine „AR-Brille“ bauen, die das erreicht, was AR unabhängig von der Finanzierung leisten muss.Der aktuell prophezeite „AR-Boom“ wird so vergänglich sein, wie es der VR-Boom der 90er Jahre war.Bitte seien Sie freundlich und respektvoll, um dazu beizutragen, dass der Kommentarbereich ausgezeichnet wird.(Kommentarrichtlinie)Diese Seite verwendet Akismet, um Spam zu reduzieren.Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.Durch die Nutzung unserer Website und Dienste stimmen Sie ausdrücklich der Platzierung unserer Leistungs-, Funktions- und Werbe-Cookies zu.Mehr erfahren