IEEE-Websites platzieren Cookies auf Ihrem Gerät, um Ihnen die beste Benutzererfahrung zu bieten.Durch die Nutzung unserer Websites stimmen Sie der Platzierung dieser Cookies zu.Um mehr zu erfahren, lesen Sie unsere Datenschutzrichtlinie.GITAI ist ein Robotik-Startup mit Niederlassungen in Japan und den Vereinigten Staaten, das Technologien entwickelt, um humanoide Telepräsenz-Roboter in den Weltraum zu bringen, um Astronauten zu übernehmen.Heute kündigt GITAI eine gemeinsame Forschungsvereinbarung mit JAXA (der Japanese Aerospace Exploration Agency) an, um zu sehen, was es braucht, damit Roboter im Orbit nützlich sind, mit dem Ziel, den Geldbetrag, der ausgegeben wird, um Nahrung und Luft an die Anspruchsvollen zu schicken, erheblich zu reduzieren Menschen auf der Internationalen Raumstation.Es ist auch erwähnenswert, dass GITAI einige Neueinstellungen hat, darunter Leute von der berühmten (und etwas mysteriösen) japanischen zweibeinigen Roboterfirma SCHAFT.Eine kurze Erinnerung an SCHAFT: Das Unternehmen wurde von Mitgliedern des JSK Laboratory an der Universität Tokio gegründet, um einen Roboter zu bauen, der 2013 an den DARPA Robotics Challenge Trials teilnehmen sollte. SCHAFT gewann die DRC Trials mit einem deutlichen Vorsprung und erzielte 27 Punkte Punkte von 32 möglichen, 7 Punkte mehr als das zweitplatzierte Team (IHMC).DARPA war nicht der einzige, der von der Leistung von SCHAFT beeindruckt war: Google war es auch und erwarb SCHAFT (zusammen mit Boston Dynamics und einer Reihe anderer hochkarätiger Robotikunternehmen) bald darauf.Aufgrund des scheinbaren Widerstands von Google nahm SCHAFT jedoch nicht am DRC-Finale teil, und wir hörten nicht viel von ihnen bis 2016, als sie einen neuen Laufroboter vorführten.SoftBank versuchte 2017 zusammen mit Boston Dynamics, SCHAFT von Google zu kaufen, aber Berichten zufolge scheiterte der Deal, nachdem „ein oder mehrere Mitarbeiter von SCHAFT sich geweigert hatten, Teil von SoftBank zu werden“.Es scheint nun, dass mindestens zwei SCHAFT-Mitarbeiter GITAI beigetreten sind, darunter der SCHAFT-Gründer und CEO Yuto Nakanishi und der SCHAFT-Softwareentwickler Ryohei Ueda.Hier ist eine Aussage von Dr. Nakanishi, die beschreibt, wie er bei GITAI gelandet ist.„Ich habe mein ganzes Leben Robotern gewidmet.In den letzten acht Jahren habe ich dazu beigetragen, SCHAFT zu gründen, um zweibeinige Roboter zu verwirklichen, einen Kindheitstraum von mir, den ersten Platz bei der DARPA Robotics Challenge belegt und nach der Übernahme durch Google weiter an der praktischen Anwendung von zweibeinigen Robotern gearbeitet .SCHAFT wurde Ende 2018 von Google aufgelöst, aber ich bereue es derzeit nicht, denn wir bei SCHAFT haben auf dem höchsten Niveau der Welt an zweibeiniger Robotik gearbeitet und damals alles getan, was möglich war.Ich habe noch einen Kindheitstraum.Und das soll den ersten Roboter schaffen, der im Weltraum funktioniert.Seit der Auflösung von SCHAFT hatte ich mehrere Gelegenheiten, mit einer Reihe von Unternehmen zusammenzutreffen, und ich bin zuversichtlich, dass GITAI das Team ist, das helfen wird, diesen Traum zu verwirklichen, weshalb ich mich entschieden habe, mich ihren Bemühungen anzuschließen.Wir werden definitiv den größten Roboter der Welt erschaffen, der im Weltraum funktionieren wird.Ich freue mich auf."Ich weiß nicht, wie es Ihnen geht, aber ich freue mich darauf, den größten Roboter der Welt im Weltraum arbeiten zu sehen.Und das könnte in etwa so aussehen:So beschreiben GITAI und JAXA ihre Pläne für den Roboter:Einhergehend mit dem zunehmenden internationalen Wettbewerb um die Entwicklung des Weltraums in den letzten Jahren nimmt die Arbeit im Weltraum rapide zu, da neben der Internationalen Raumstation (ISS) private US- und andere Unternehmen damit begonnen haben, mehrere kommerzielle Raumstationen wie Weltraumhotels zu bauen und Raumstationen für wissenschaftliche Experimente.GITAI zielt darauf ab, Astronauten durch Roboter zu ersetzen, die lange arbeiten können, während sie von der Erde aus ferngesteuert werden, während sie sich in Raumstationen im erdnahen Orbit befinden, um die Belastung der Astronauten zu verringern, die Zeit zu verkürzen, die für die Durchführung von Arbeiten im Weltraum benötigt wird, und die Kosten zu senken.Vom 25. bis 27. Dezember 2018 führte GITAI in JAXAs Mock-up von Kibo, dem japanischen Experimentiermodul der Internationalen Raumstation, ein Experiment durch, bei dem der GITAI-Roboter als Ersatz für einen Astronauten verwendet wurde, basierend auf einer von JAXA bereitgestellten Liste von Astronautenaufgaben .Es wurde festgestellt, dass der GITAI-Roboter 72 Prozent (13/18) der Aufgaben erfolgreich erledigte.GITAI sagt, dass ihre Roboter „die Kosten für die Weltraumarbeit auf 10 Prozent“ der Kosten für den Einsatz eines echten Astronauten senken werden, indem sie sich stattdessen auf erdgebundene Menschen für immersive Teleoperationen verlassen.Wie zu erwarten, besteht das Problem bei der immersiven Teleoperation zwischen der Erde und dem Orbit darin, Daten über ein restriktives Netzwerk hin und her zu übertragen.Ein Teil des Geheimrezepts von GITAI besteht darin, „Daten der 360°-Kamera mit einer Auflösung von 2,7 K von der ursprünglichen Datenmenge von 800 Mbit/s auf durchschnittlich 2,5 Mbit/s“ zu komprimieren.Gleichzeitig ist es ihnen gelungen, die Latenz auf 60 ms zu reduzieren, was wirklich ziemlich gut ist, um mit dem Weltraum zu sprechen.Der Plan ist, all dies bis 2020 im erdnahen Orbit zum Laufen zu bringen.Für weitere Einzelheiten sprachen wir per E-Mail mit dem Gründer und CEO von GITAI, Sho Nakanose.IEEE Spectrum: Warum haben Sie sich entschieden, an Telepräsenzrobotern für den Weltraum zu arbeiten?Sho Nakanose: Wir wollen die Kosten- und Sicherheitsprobleme des menschlichen Reisens durch den Einsatz von Robotertechnologie lösen.Darüber hinaus ist das Problem des menschlichen Reisens das dringendste und am tiefsten verwurzelte in der Raumfahrtindustrie, und deshalb arbeiten wir an Weltraum-Telepräsenzrobotern, weil sie schneller als autonome Roboter praktikabel gemacht werden können.Wie vergleicht sich der Roboter, den Sie entwickeln, mit anderen humanoiden Robotern, die für die Arbeit im Weltraum entwickelt wurden, wie dem Robonaut 2 der NASA?Es gibt zwei Hauptunterschiede.Das erste ist das Designkonzept.Andere humanoide Roboter wie Robonaut 2 hatten einen starken Fokus auf Innovation für Forschungszwecke.Unser Fokus liegt auf einem praktischen Design, das die tatsächliche Weltraumnetzwerkinfrastruktur und die Fähigkeit berücksichtigt, allgemeine Arbeiten in kurzer Zeit innerhalb von Raumstationen zu erledigen und über einen langen Zeitraum betrieben werden zu können.Die zweite ist technologische Stärke.Wenn man sich auf die Praktikabilität konzentriert, hat die Verbesserung der Qualität des vom Bediener angezeigten Bildes bei gleichzeitiger Minimierung der Kommunikationsverzögerung die direkteste Auswirkung auf die Betriebsleistung von ferngesteuerten Robotern.Aus diesem Grund haben wir zusätzlich zur Entwicklung der Robotertechnologie eine einzigartige Technologie zur Reduzierung und Komprimierung von Bilddaten und eine Kommunikationstechnologie mit geringer Latenz entwickelt.Welche Aufgaben im Weltraum eignen sich am besten für teleoperierte Roboter?Welche Aufgaben müssen Astronauten stattdessen erledigen?Ferngesteuerte Roboter sind optimal für einfache Arbeiten, die nicht von einem Menschen ausgeführt werden müssen, und für gefährliche Arbeiten außerhalb des Fahrzeugs.Mit der frei werdenden Zeit können Astronauten Zeit für andere Aktivitäten wie fortgeschrittene Arbeiten und Untersuchungen aufwenden.Wie könnten die Systeme und Schnittstellen an Bord der Raumstation möglicherweise geändert werden, um Robotern die Arbeit mit ihnen zu erleichtern?Im Fall von ISS denken wir, dass Änderungen auf ein Minimum beschränkt werden.Insbesondere dürften weiche Materialien, die für Roboter schwer zu handhaben sind, reduziert und Griffe eingebaut werden, die es dem Roboter erleichtern, sich zu bewegen und seine Körperhaltung zu kontrollieren.Für die zu bauenden privaten Raumstationen besteht die Möglichkeit, dass Schienen oder andere Vorrichtungen installiert werden, die dem Roboter helfen, sich zu bewegen und seine Haltung zu kontrollieren.Darüber hinaus besteht eine hohe Wahrscheinlichkeit, dass einige Arbeiten von Anfang an automatisiert werden.Was denken Sie über die Zukunft von Telepräsenz-Weltraumrobotern jenseits der erdnahen Umlaufbahn?Wir glauben, dass die Zukunft von Robotern, die im Weltraum arbeiten, Autonomie und Automatisierung sein wird.Nur für die Arbeit in Raumstationen im erdnahen Orbit, wo die physikalische Verzögerung kein großes Problem darstellt, haben Telepräsenzroboter eine weitaus bessere Leistung und können viel schneller als autonome Roboter praktisch eingesetzt werden. Daher arbeiten wir zuerst daran, Telepräsenzroboter praktisch zu machen.Bei Arbeiten beispielsweise auf der Mondoberfläche beträgt jedoch allein die physikalische Verzögerung mindestens 1,2 Sekunden, sodass der Einsatz von Telepräsenzrobotern schwierig sein wird, und wir sehen die Notwendigkeit, Arbeiten mit halbautonomen/halbferngesteuerten Robotern durchzuführen Roboter.Wir forschen unter der Leitung eines promovierten Roboters, der autonome Roboter entwickelt hat. Daher verfolgen wir in unserer Forschungs- und Entwicklungsarbeit aktiv die Entwicklung autonomer Roboter.Besonderer Dank geht an Fan Shi, der uns mit GITAI verbunden hat.Ingenieure kämpfen mit den Grenzen des Deep Learning für Battlefield-BotsRoMan, der Robotermanipulator des Army Research Laboratory, erwägt die beste Möglichkeit, einen Ast im Adelphi Laboratory Center in Maryland zu greifen und zu bewegen.„Ich sollte wahrscheinlich nicht so nah stehen“, denke ich mir, als der Roboter sich langsam einem großen Ast auf dem Boden vor mir nähert. Es ist nicht die Größe des Astes, die mich nervös macht – der Roboter ist es autonom operiert, und obwohl ich weiß, was es tun soll, bin ich mir nicht ganz sicher, was es tun wird. Wenn alles so funktioniert, wie es die Robotiker des US Army Research Laboratory (ARL) in Adelphi, Md Der Roboter erkennt den Ast, greift ihn und zieht ihn aus dem Weg. Diese Leute wissen, was sie tun, aber ich habe genug Zeit mit Robotern verbracht, dass ich trotzdem einen kleinen Schritt zurückgehe.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Der Roboter mit dem Namen RoMan, für Robotic Manipulator, ist etwa so groß wie ein großer Rasenmäher, mit einer Raupenbasis, die ihm hilft, die meisten Geländearten zu bewältigen.An der Vorderseite hat es einen gedrungenen Oberkörper, der mit Kameras und Tiefensensoren ausgestattet ist, sowie ein Paar Arme, die von einem Prototyp eines Katastrophenschutzroboters stammen, der ursprünglich am Jet Propulsion Laboratory der NASA für einen DARPA-Robotikwettbewerb entwickelt wurde.Der Job von RoMan ist heute das Räumen von Fahrbahnen, eine mehrstufige Aufgabe, die der Roboter so autonom wie möglich erledigen soll.Anstatt den Roboter anzuweisen, bestimmte Objekte auf bestimmte Weise zu greifen und an bestimmte Orte zu bewegen, weisen die Bediener RoMan an, „einen Weg frei zu machen“.Es liegt dann am Roboter, alle notwendigen Entscheidungen zu treffen, um dieses Ziel zu erreichen.Die Fähigkeit, autonom Entscheidungen zu treffen, macht Roboter nicht nur nützlich, sondern Roboter zu Robotern.Wir schätzen Roboter wegen ihrer Fähigkeit zu spüren, was um sie herum vor sich geht, Entscheidungen auf der Grundlage dieser Informationen zu treffen und dann ohne unser Zutun nützliche Maßnahmen zu ergreifen.In der Vergangenheit folgten robotergestützte Entscheidungen streng strukturierten Regeln – wenn Sie das spüren, dann tun Sie das.In strukturierten Umgebungen wie Fabriken funktioniert dies gut genug.Aber in chaotischen, unbekannten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.RoMan bewältigt zusammen mit vielen anderen Robotern, darunter Haushaltsstaubsauger, Drohnen und autonome Autos, die Herausforderungen halbstrukturierter Umgebungen durch künstliche neuronale Netze – ein Computeransatz, der die Struktur von Neuronen in biologischen Gehirnen lose nachahmt.Vor etwa einem Jahrzehnt wurden künstliche neuronale Netze auf eine Vielzahl halbstrukturierter Daten angewendet, die zuvor für Computer mit regelbasierter Programmierung (allgemein als symbolisches Denken bezeichnet) sehr schwierig zu interpretieren waren.Anstatt spezifische Datenstrukturen zu erkennen, ist ein künstliches neuronales Netzwerk in der Lage, Datenmuster zu erkennen und neue Daten zu identifizieren, die ähnlich (aber nicht identisch) mit Daten sind, auf die das Netzwerk zuvor gestoßen ist.Tatsächlich besteht ein Teil des Reizes künstlicher neuronaler Netze darin, dass sie anhand von Beispielen trainiert werden, indem das Netz annotierte Daten aufnehmen und sein eigenes System der Mustererkennung lernen kann.Für neuronale Netze mit mehreren Abstraktionsebenen wird diese Technik als Deep Learning bezeichnet.Obwohl Menschen typischerweise am Trainingsprozess beteiligt sind und obwohl künstliche neuronale Netze von den neuronalen Netzen im menschlichen Gehirn inspiriert wurden, unterscheidet sich die Art der Mustererkennung, die ein Deep-Learning-System leistet, grundlegend von der Art und Weise, wie Menschen die Welt sehen.Es ist oft fast unmöglich, die Beziehung zwischen der Dateneingabe in das System und der Interpretation der Daten, die das System ausgibt, zu verstehen.Und dieser Unterschied – die „Black Box“-Opazität von Deep Learning – stellt ein potenzielles Problem für Roboter wie RoMan und für das Army Research Lab dar.In chaotischen, ungewohnten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.Diese Undurchsichtigkeit bedeutet, dass Roboter, die auf Deep Learning angewiesen sind, vorsichtig eingesetzt werden müssen.Ein Deep-Learning-System ist gut darin, Muster zu erkennen, aber es fehlt ihm das Weltverständnis, das ein Mensch normalerweise verwendet, um Entscheidungen zu treffen, weshalb solche Systeme am besten funktionieren, wenn ihre Anwendungen gut definiert und eng begrenzt sind.„Wenn Sie gut strukturierte Inputs und Outputs haben und Ihr Problem in dieser Art von Beziehung einkapseln können, funktioniert Deep Learning meiner Meinung nach sehr gut“, sagt Tom Howard, der das Robotics and Artificial Intelligence Laboratory der University of Rochester leitet und entwickelt hat Natürlichsprachliche Interaktionsalgorithmen für RoMan und andere Bodenroboter."Die Frage bei der Programmierung eines intelligenten Roboters lautet: Ab welcher praktischen Größe existieren diese Deep-Learning-Bausteine?"Howard erklärt, dass die Anzahl der möglichen Eingaben sehr groß wird, wenn man Deep Learning auf Probleme auf höherer Ebene anwendet, und das Lösen von Problemen in dieser Größenordnung eine Herausforderung sein kann.Und die potenziellen Folgen eines unerwarteten oder unerklärlichen Verhaltens sind viel bedeutsamer, wenn sich dieses Verhalten durch einen 170 Kilogramm schweren zweiarmigen Militärroboter manifestiert.Nach ein paar Minuten hat sich RoMan nicht bewegt – es sitzt immer noch da, grübelt über den Ast und hält die Arme wie eine Gottesanbeterin.In den letzten 10 Jahren hat die Robotics Collaborative Technology Alliance (RCTA) des Army Research Lab mit Robotikern der Carnegie Mellon University, der Florida State University, General Dynamics Land Systems, JPL, MIT, QinetiQ North America, University of Central Florida, the University of Pennsylvania und anderen führenden Forschungseinrichtungen, um die Roboterautonomie für den Einsatz in zukünftigen Bodenkampffahrzeugen zu entwickeln.RoMan ist ein Teil dieses Prozesses.Die Aufgabe „Einen Weg frei machen“, die RoMan langsam durchdenkt, ist für einen Roboter schwierig, weil die Aufgabe so abstrakt ist.RoMan muss Objekte identifizieren, die den Weg blockieren könnten, über die physikalischen Eigenschaften dieser Objekte nachdenken, herausfinden, wie man sie greift und welche Art von Manipulationstechnik am besten anzuwenden ist (wie Schieben, Ziehen oder Heben), und dann mach es möglich.Das sind viele Schritte und viele Unbekannte für einen Roboter mit einem begrenzten Verständnis der Welt.An diesem begrenzten Verständnis fangen die ARL-Roboter an, sich von anderen Robotern zu unterscheiden, die auf Deep Learning angewiesen sind, sagt Ethan Stump, leitender Wissenschaftler des AI for Maneuver and Mobility-Programms bei ARL.„Die Armee kann praktisch überall auf der Welt operieren. Wir haben keinen Mechanismus zum Sammeln von Daten in all den verschiedenen Bereichen, in denen wir möglicherweise operieren. Wir werden möglicherweise in einem unbekannten Wald auf der anderen Seite der Welt eingesetzt Welt, aber von uns wird erwartet, dass wir genauso gut abschneiden wie in unserem eigenen Garten", sagt er.Die meisten Deep-Learning-Systeme funktionieren zuverlässig nur innerhalb der Domänen und Umgebungen, in denen sie trainiert wurden.Selbst wenn die Domain so etwas wie „jede befahrbare Straße in San Francisco“ ist, reicht der Roboter aus, denn das ist ein bereits gesammelter Datensatz.Aber, sagt Stump, das sei keine Option für das Militär.Wenn ein Deep-Learning-System der Armee nicht gut funktioniert, können sie das Problem nicht einfach lösen, indem sie mehr Daten sammeln.Die Roboter von ARL müssen auch ein breites Bewusstsein dafür haben, was sie tun.„In einem Standard-Operationsbefehl für eine Mission gibt es Ziele, Einschränkungen, einen Absatz über die Absicht des Kommandanten – im Grunde eine Erzählung über den Zweck der Mission – die kontextbezogene Informationen liefert, die Menschen interpretieren können, und ihnen die Struktur gibt, wenn sie sie brauchen Entscheidungen zu treffen und wenn sie improvisieren müssen", erklärt Stump.Mit anderen Worten, RoMan muss je nach den allgemeinen Zielen der Mission möglicherweise schnell oder leise einen Weg freimachen.Das ist selbst für den fortschrittlichsten Roboter eine große Herausforderung.„Mir fällt kein Deep-Learning-Ansatz ein, der mit dieser Art von Informationen umgehen kann“, sagt Stump.Roboter im Army Research Lab testen autonome Navigationstechniken in unwegsamem Gelände [oben, Mitte] mit dem Ziel, mit ihren menschlichen Teamkollegen Schritt halten zu können.ARL entwickelt auch Roboter mit Manipulationsfähigkeiten [unten], die mit Objekten interagieren können, ohne dass Menschen dies tun müssen. Evan AckermanWährend ich zuschaue, wird RoMan für einen zweiten Versuch, Zweige zu entfernen, zurückgesetzt.Der Autonomieansatz von ARL ist modular, wobei Deep Learning mit anderen Techniken kombiniert wird und der Roboter ARL hilft, herauszufinden, welche Aufgaben für welche Techniken geeignet sind.Im Moment testet RoMan zwei verschiedene Möglichkeiten, Objekte anhand von 3D-Sensordaten zu identifizieren: Der Ansatz von UPenn basiert auf Deep Learning, während Carnegie Mellon eine Methode namens Perception Through Search verwendet, die auf einer traditionelleren Datenbank mit 3D-Modellen basiert.Wahrnehmung durch Suche funktioniert nur, wenn Sie im Voraus genau wissen, nach welchen Objekten Sie suchen, aber das Training ist viel schneller, da Sie nur ein einziges Modell pro Objekt benötigen.Es kann auch genauer sein, wenn die Wahrnehmung des Objekts schwierig ist – wenn das Objekt beispielsweise teilweise verdeckt oder auf dem Kopf steht.ARL testet diese Strategien, um festzustellen, welche am vielseitigsten und effektivsten ist, und lässt sie gleichzeitig laufen und gegeneinander antreten.Wahrnehmung ist eines der Dinge, bei denen sich Deep Learning auszeichnet.„Die Computer-Vision-Community hat mit Deep Learning für diese Dinge verrückte Fortschritte gemacht“, sagt Maggie Wigness, Informatikerin bei ARL.„Wir hatten gute Erfolge mit einigen dieser Modelle, die in einer Umgebung trainiert wurden, die auf eine neue Umgebung verallgemeinert wurden, und wir beabsichtigen, Deep Learning weiterhin für diese Art von Aufgaben zu verwenden, da es der neueste Stand der Technik ist.“Der modulare Ansatz von ARL könnte mehrere Techniken so kombinieren, dass ihre jeweiligen Stärken wirksam zum Tragen kommen.Beispielsweise könnte ein Wahrnehmungssystem, das Deep-Learning-basiertes Sehen zur Klassifizierung von Gelände verwendet, neben einem autonomen Fahrsystem arbeiten, das auf einem Ansatz namens inverses Verstärkungslernen basiert, bei dem das Modell durch Beobachtungen menschlicher Soldaten schnell erstellt oder verfeinert werden kann.Herkömmliches Reinforcement Learning optimiert eine Lösung basierend auf etablierten Belohnungsfunktionen und wird oft angewendet, wenn Sie nicht unbedingt sicher sind, wie optimales Verhalten aussieht.Das Heer stört dies weniger, da es in der Regel davon ausgehen kann, dass gut ausgebildete Menschen in der Nähe sind, um einem Roboter den richtigen Weg zu zeigen.„Wenn wir diese Roboter einsetzen, können sich die Dinge sehr schnell ändern“, sagt Wigness.„Also wollten wir eine Technik, bei der wir einen Soldaten eingreifen lassen können, und mit nur wenigen Beispielen von einem Benutzer im Feld können wir das System aktualisieren, wenn wir ein neues Verhalten benötigen.“Eine Deep-Learning-Technik würde „viel mehr Daten und Zeit“ erfordern, sagt sie.Es sind nicht nur datensparsame Probleme und schnelle Anpassungen, mit denen Deep Learning zu kämpfen hat.Hinzu kommen Fragen der Robustheit, Erklärbarkeit und Sicherheit."Diese Fragen betreffen nicht nur das Militär", sagt Stump, "aber sie sind besonders wichtig, wenn wir über Systeme sprechen, die möglicherweise tödlich sind."Um es klarzustellen, ARL arbeitet derzeit nicht an tödlichen autonomen Waffensystemen, aber das Labor hilft dabei, die Grundlagen für autonome Systeme im US-Militär auf breiterer Ebene zu legen, was bedeutet, dass Möglichkeiten in Betracht gezogen werden, wie solche Systeme in Zukunft eingesetzt werden können.Die Anforderungen an ein tiefes Netzwerk stimmen zu einem großen Teil nicht mit den Anforderungen einer Armeemission überein, und das ist ein Problem.Sicherheit hat offensichtlich Priorität, und dennoch gibt es laut Stump keine eindeutige Möglichkeit, ein Deep-Learning-System nachweislich sicher zu machen.„Deep Learning mit Sicherheitsbeschränkungen durchzuführen, ist ein großer Forschungsaufwand. Es ist schwierig, diese Beschränkungen in das System aufzunehmen, weil man nicht weiß, woher die bereits im System vorhandenen Beschränkungen stammen. Wenn sich also die Mission oder der Kontext ändert, Es ist schwer, damit umzugehen. Es ist nicht einmal eine Datenfrage, es ist eine Architekturfrage.“Die modulare Architektur von ARL, sei es ein Wahrnehmungsmodul, das Deep Learning verwendet, oder ein autonomes Fahrmodul, das inverses Verstärkungslernen oder etwas anderes verwendet, kann Teile eines umfassenderen autonomen Systems bilden, das die Arten von Sicherheit und Anpassungsfähigkeit beinhaltet, die das Militär benötigt.Andere Module im System können auf einer höheren Ebene arbeiten und andere Techniken verwenden, die besser verifizierbar oder erklärbar sind und die eingreifen können, um das Gesamtsystem vor nachteiligem, unvorhersehbarem Verhalten zu schützen.„Wenn andere Informationen hereinkommen und unsere Vorgehensweise ändern, gibt es eine Hierarchie“, sagt Stump."Es passiert alles auf rationale Weise."Nicholas Roy, der die Robust Robotics Group am MIT leitet und sich aufgrund seiner Skepsis gegenüber einigen Behauptungen über die Leistungsfähigkeit von Deep Learning als „etwas Aufrührer“ bezeichnet, stimmt mit den ARL-Robotikern darin überein, dass Deep-Learning-Ansätze herankommen können die Art von Herausforderungen, auf die die Armee vorbereitet sein muss, oft nicht bewältigen.„Die Armee dringt immer in neue Umgebungen ein, und der Gegner wird immer versuchen, die Umgebung so zu verändern, dass der Trainingsprozess, den die Roboter durchlaufen haben, einfach nicht mit dem übereinstimmt, was sie sehen“, sagt Roy."Die Anforderungen eines tiefen Netzwerks sind also zu einem großen Teil nicht mit den Anforderungen einer Armeemission abgestimmt, und das ist ein Problem."Roy, der im Rahmen des RCTA an abstraktem Denken für Bodenroboter gearbeitet hat, betont, dass Deep Learning eine nützliche Technologie ist, wenn sie auf Probleme mit klaren funktionalen Beziehungen angewendet wird, aber wenn man sich mit abstrakten Konzepten befasst, ist nicht klar, ob Deep Learning eine ist ein gangbarer Ansatz.„Ich bin sehr daran interessiert herauszufinden, wie neuronale Netze und Deep Learning so zusammengesetzt werden können, dass sie das Denken auf höherer Ebene unterstützen“, sagt Roy.„Ich denke, es läuft auf die Idee hinaus, mehrere neuronale Netzwerke auf niedriger Ebene zu kombinieren, um Konzepte auf höherer Ebene auszudrücken, und ich glaube nicht, dass wir bereits verstehen, wie das geht.“Roy gibt das Beispiel der Verwendung von zwei separaten neuronalen Netzwerken, eines zum Erkennen von Objekten, die Autos sind, und das andere zum Erkennen von Objekten, die rot sind.Es ist schwieriger, diese beiden Netzwerke zu einem größeren Netzwerk zu kombinieren, das rote Autos erkennt, als wenn Sie ein symbolisches Argumentationssystem verwenden würden, das auf strukturierten Regeln mit logischen Beziehungen basiert.„Viele Leute arbeiten daran, aber ich habe keinen wirklichen Erfolg gesehen, der abstraktes Denken dieser Art vorantreibt.“Für die absehbare Zukunft stellt ARL sicher, dass seine autonomen Systeme sicher und robust sind, indem Menschen sowohl für übergeordnete Argumente als auch gelegentliche Ratschläge auf niedriger Ebene in der Nähe bleiben.Menschen sind vielleicht nicht immer direkt auf dem Laufenden, aber die Idee ist, dass Menschen und Roboter effektiver sind, wenn sie als Team zusammenarbeiten.Als 2009 die jüngste Phase des Robotics Collaborative Technology Alliance-Programms begann, sagt Stump: „Wir waren bereits viele Jahre im Irak und in Afghanistan, wo Roboter oft als Werkzeuge eingesetzt wurden. Wir haben versucht, es herauszufinden was wir tun können, um Roboter von Werkzeugen zu Robotern zu machen, die eher als Teamkollegen innerhalb des Teams fungieren."RoMan bekommt ein wenig Hilfe, wenn ein menschlicher Betreuer auf eine Region des Astes hinweist, in der das Greifen am effektivsten sein könnte.Der Roboter hat kein grundlegendes Wissen darüber, was ein Ast eigentlich ist, und dieses fehlende Weltwissen (was wir als gesunden Menschenverstand bezeichnen) ist ein grundlegendes Problem bei autonomen Systemen aller Art.Wenn ein Mensch unsere große Erfahrung in ein wenig Anleitung einfließen lässt, kann die Arbeit von RoMan viel einfacher werden.Und tatsächlich gelingt es RoMan diesmal, den Ast erfolgreich zu greifen und geräuschvoll durch den Raum zu schleppen.Einen Roboter in einen guten Teamkollegen zu verwandeln, kann schwierig sein, da es schwierig sein kann, das richtige Maß an Autonomie zu finden.Zu wenig und es würde den größten Teil oder die gesamte Konzentration eines Menschen erfordern, um einen Roboter zu steuern, was in besonderen Situationen wie der Beseitigung von Sprengkörpern angemessen sein kann, aber ansonsten nicht effizient ist.Zu viel Autonomie und Sie würden Probleme mit Vertrauen, Sicherheit und Erklärbarkeit bekommen.„Ich denke, die Ebene, die wir hier suchen, ist, dass Roboter auf der Ebene von Arbeitshunden operieren“, erklärt Stump.„Sie verstehen genau, was wir unter eingeschränkten Umständen von ihnen erwarten, sie haben ein wenig Flexibilität und Kreativität, wenn sie mit neuen Umständen konfrontiert werden, aber wir erwarten nicht, dass sie kreative Problemlösungen leisten. Und wenn sie Hilfe brauchen , sie fallen auf uns zurück."Es ist unwahrscheinlich, dass sich RoMan in absehbarer Zeit auf einer Mission im Feld wiederfindet, nicht einmal als Teil eines Teams mit Menschen.Es ist sehr viel eine Forschungsplattform.Aber die Software, die für RoMan und andere Roboter bei ARL entwickelt wird und Adaptive Planner Parameter Learning (APPL) heißt, wird wahrscheinlich zuerst beim autonomen Fahren und später in komplexeren Robotersystemen verwendet, die mobile Manipulatoren wie RoMan umfassen könnten.APPL kombiniert verschiedene maschinelle Lerntechniken (einschließlich inversem Reinforcement Learning und Deep Learning), die hierarchisch unter klassischen autonomen Navigationssystemen angeordnet sind.Dadurch können übergeordnete Ziele und Einschränkungen zusätzlich zur Programmierung auf niedrigerer Ebene angewendet werden.Menschen können teleoperierte Demonstrationen, korrigierende Eingriffe und bewertendes Feedback verwenden, um Robotern zu helfen, sich an neue Umgebungen anzupassen, während die Roboter unbeaufsichtigtes Verstärkungslernen verwenden können, um ihre Verhaltensparameter spontan anzupassen.Das Ergebnis ist ein Autonomiesystem, das viele der Vorteile des maschinellen Lernens nutzen kann und gleichzeitig die Art von Sicherheit und Erklärbarkeit bietet, die die Armee benötigt.Mit APPL kann ein lernbasiertes System wie RoMan selbst unter Unsicherheit auf vorhersehbare Weise arbeiten und auf menschliches Tuning oder menschliche Demonstrationen zurückgreifen, wenn es in einer Umgebung landet, die sich zu sehr von der Umgebung unterscheidet, in der es trainiert wurde.Es ist verlockend, sich den schnellen Fortschritt kommerzieller und industrieller autonomer Systeme (autonome Autos sind nur ein Beispiel) anzusehen und sich zu fragen, warum die Armee dem Stand der Technik etwas hinterherhinkt.Aber wie Stump den Generälen der Armee erklären muss, wenn es um autonome Systeme geht, "gibt es viele schwierige Probleme, aber die schwierigen Probleme der Industrie unterscheiden sich von den schwierigen Problemen der Armee."Die Armee kann sich nicht den Luxus leisten, ihre Roboter in strukturierten Umgebungen mit vielen Daten zu betreiben, weshalb ARL so viel Mühe in APPL und in die Aufrechterhaltung eines Platzes für Menschen gesteckt hat.Auch in Zukunft werden Menschen wahrscheinlich ein wichtiger Teil des autonomen Rahmens bleiben, den ARL entwickelt."Das versuchen wir mit unseren Robotersystemen zu bauen", sagt Stump."Das ist unser Autoaufkleber: 'Vom Werkzeug zum Teamkollegen.'"Dieser Artikel erscheint in der Printausgabe vom Oktober 2021 als „Deep Learning Goes to Boot Camp“.Sonderbericht: Die große KI-Abrechnung WEITERLESEN: 7 aufschlussreiche Gründe für das Scheitern von KIs Oder sehen Sie sich den vollständigen Bericht an, um weitere Artikel über die Zukunft der KI zu erhalten.LESEN SIE NÄCHSTES: 7 aufschlussreiche Gründe für das Scheitern von KIsOder lesen Sie den vollständigen Bericht für weitere Artikel über die Zukunft der KI.