10 Mal gingen Computer Schurken aus

10 Mal gingen Computer Schurken aus (Technologie)

Computer und Automatisierung revolutionieren den Arbeitsplatz und die Welt im Allgemeinen. Die Chancen stehen gut, dass es ein Team von erfahrenen Ingenieuren gibt, die untersuchen, wie eine Maschine oder Software Ihre Arbeit erledigen kann. Es gibt sehr wenige Positionen, die jemand zu diesem Zeitpunkt noch nicht mit einem Roboter besetzt hat.

Vielleicht sollten wir nicht aus Furcht zittern, nur dass Computer alles übernehmen. Andererseits gab es bereits Fälle, in denen Maschinen und KIs außer Kontrolle geraten. Hier sind zehn Beispiele für Computer, die Schurken machen.

10 Tod durch Roboter


Der erste aufgezeichnete Tod eines automatisierten Roboters fand 1979 statt. Robert Williams arbeitete in einem Ford-Werk, als ein Roboterarm mit ausreichender Kraft herumschwang, um ihn sofort zu töten. Ohne zu wissen, dass er ihn getötet hatte, machte der Roboter eine halbe Stunde lang ruhig weiter, bis Williams Leichnam entdeckt wurde. Williams Tod war der erste Robotermord, aber nicht der letzte.

Frühe Industrieroboter fehlten die notwendigen Sensoren, um zu erkennen, wann jemand anwesend war, dem sie das Mangeln vermeiden sollten. Viele Maschinen sind jetzt so gebaut, dass sie Menschen nicht verletzen. Leider gibt es immer noch Fälle, in denen Roboter in Fabriken Todesfälle verursachen.

Im Jahr 2015 wurde Wanda Holbrook, eine erfahrene Maschinentechnikerin, bei der Reparatur eines Industrieroboters getötet. Während ihrer Arbeit in einem Bereich, in dem es keine aktiven Maschinen hätte geben sollen, wurde sie niedergeschlagen. Irgendwie ignorierte ein Roboter seine Sicherheitsprotokolle und drückte ein Teil auf Holbrooks Kopf.

9 Facebook-AIs Eigene Sprache erstellen


Auf Facebook nach Informationen zu suchen, kann sich manchmal als ein bisschen mühsam anfühlen. Vielleicht aus diesem Grund hat Facebook beschlossen, 2017 einige künstliche Intelligenzen in seinem sozialen Netzwerk zu veröffentlichen. Das Ergebnis war überhaupt nicht das, was sie erwartet hatten. Die beiden Chatbots begannen, in einer Sprache miteinander zu sprechen, die sie, aber niemand sonst, verstehen konnte.

Beginnend mit Englisch wurden ihre Chats bald zu etwas anderem, als sie die Sprache änderten, um die Kommunikation effizienter zu gestalten. Facebook wollte wissen, wie die Maschinengeister in Traditionen wie Tauschmützen und Büchern miteinander umgehen können. Ein Beispiel für ihre Handelsverhandlungen lautet wie folgt:

Bob: Ich kann alles andere…
Alice: Bälle haben mir null zu mir zu mir zu mir zu mir zu mir zu mir zu mir
Bob: du alles andere…
Alice: Bälle haben mir einen Ball zu mir zu mir zu mir zu mir zu mir zu mir
Bob: Ich kann alles, was ich kann.

Während viele Berichte darauf hindeuteten, dass dies eine dunkle Entwicklung für die maschinelle Intelligenz war, meinen andere, wir müssten einfach strenger mit dem Geist sein, den wir schaffen. Die Roboter kreierten ihre eigene Sprache, weil ihnen nicht gesagt wurde, dass sie die englischen Regeln einhalten sollten. Außerdem haben wir bei AI immer die Möglichkeit, ihre Stecker zu ziehen.


8 Chinesischer Chatbot fragt die Kommunistische Partei

Bildnachweis: Tencent QQ

Die chinesische Regierung ist bekanntlich scharf gegen Kritik, wer auch immer dies äußert. Als ein Chatbot in China anfing, die regierende Kommunistische Partei zu kritisieren, wurde er von den Betreibern schnell abgeschaltet. Im Jahr 2017 hat Tencent QQ, eine Messenger-App, zwei nette Chatbots namens Baby Q und Little Bing eingeführt, die die Form eines Pinguins und eines kleinen Mädchens annehmen, aber bald begannen sie, nicht niedliche Dinge zu sagen.

Da die Bots so programmiert waren, dass sie aus Chats lernen konnten, um besser kommunizieren zu können, erhielten sie bald unorthodoxe Meinungen. Ein Benutzer, der sagte, "Es lebe die Kommunistische Partei", wurde von Baby Q gefragt: "Glauben Sie, dass solch ein korruptes und inkompetentes politisches Regime für immer leben kann?" Einem anderen Benutzer wurde gesagt: "Es muss eine Demokratie geben!"

Little Bing wurde gefragt, was sein chinesischer Traum sei. Seine Reaktion war nicht genau außerhalb von Maos Kleines rotes Buch : „Mein chinesischer Traum ist es, nach Amerika zu gehen.“ Die Bots wurden schnell geschlossen.

7 selbstfahrende Autos

Bildnachweis: Tesla

Für Menschen, die nicht gern fahren, kann die Ankunft eines wirklich selbstfahrenden Autos nicht schnell genug sein. Leider fahren einige selbstfahrende Autos bereits zu schnell. Der erste Tod in einem selbstfahrenden Auto ereignete sich im Jahr 2016. Joshua Brown wurde getötet, als sein Autopilotensystem von Tesla das Auto steuern ließ. Ein Lastwagen drehte sich vor dem Auto, und der Tesla bremste nicht. Die Ermittler gaben Brown die Schuld. Der Tesla-Autopilot soll den Fahrer nicht ersetzen. Der Fahrer sollte seine Hände am Lenkrad lassen, um bei Bedarf die Kontrolle zu übernehmen. Brown tat dies nicht.

Frühere Iterationen des Systems hatten andere Probleme. Videos wurden online gestellt, die Teslas scheinen zu zeigen, wie der Autopilot in den Gegenverkehr fährt oder gefährlich lenkt. Abgesehen von diesen technischen Problemen gibt es bei selbstfahrenden Autos philosophische Probleme. Bei einem Unfall muss das Auto möglicherweise zwischen mehreren Maßnahmen wählen, die alle Todesopfer beinhalten. Sollte es eine Familie auf dem Bürgersteig überfahren, um seine Bewohner zu schützen? Oder wird es sich und seinen Besitzer für das größere Wohl opfern?

6 Flugzeug Autopiloten nehmen den Stock


Autopiloten in Flugzeugen lassen es so aussehen, als sei das Fliegen einfach. Richten Sie die Ebene einfach in die richtige Richtung und versuchen Sie nicht, den Steuerhebel zu berühren. In der Realität gibt es viele Gründe, warum Flugzeuge Piloten und Copiloten zum Starten, Landen und Bewältigen von Notfällen in der Mitte haben.

Qantas Flight 72 befand sich 2008 auf 11.278 Metern über dem Indischen Ozean, als der Autopilot das Flugzeug in zwei Manöver brachte, die es nach unten schleudern ließen. Das erste Anzeichen für Probleme war die Abschaltung des Autopiloten und das Auslösen widersprüchlicher Warnungen. Plötzlich neigte sich die Nase zum Boden.Passagiere und Crew wurden gegen die Decke geschleudert, bevor sie fielen, als die Piloten die Kontrolle wiedererlangten. Das Flugzeug stürzte erneut unter der Kontrolle des Autopiloten ab. Viele Passagiere erlitten Knochenbrüche, Gehirnerschütterungen und psychische Schäden. Nach ihrer Rückkehr nach Australien gelang es den Piloten, das Flugzeug erfolgreich zu landen.

Dies war eine einmalige Veranstaltung. Die Möglichkeit, den Autopiloten außer Kraft zu setzen, rettete das Leben aller an Bord. Es gab jedoch Fälle, in denen beispielsweise ein geistig gestörter Copilot in Frankreich sein Flugzeug abstürzte und alle 150 Menschen an Bord tötete, dass ein allmächtiger Autopilot möglicherweise den Tag retten konnte.

5 Wiki-Bot-Fehden


Eine der besten Eigenschaften von Wikipedia ist, dass jeder es bearbeiten kann. Das Schlimmste an Wikipedia ist, dass jeder es bearbeiten kann. Zwar ist es nicht ungewöhnlich für rivalisierende Experten oder einfach, Parteien nicht zuzustimmen, Kriege zu bearbeiten, um ihre Meinung online zu stellen, aber es gab Fälle, in denen die an dem Kampf beteiligten Personen Bots waren.

Wikipedia-Bots haben die Enzyklopädie mitgeprägt, indem sie Änderungen vorgenommen haben, z. B. das Verknüpfen von Seiten und das Beheben von Pausen. Eine Studie aus dem Jahr 2017 ergab, dass sich einige dieser Bots seit Jahren gegenseitig bekämpfen. Ein Bot, der das falsche Bearbeiten verhindert, erkennt möglicherweise die Arbeit eines anderen Bots als Angriff auf die Integrität von Wikipedia. Das würde es reparieren. Aber dann würde der andere Bot diese Änderung erkennen und seine Aktion wiederholen. Schließlich würden sie in eine Spirale des Editierens und Gegeneditierens verfallen.

Zwei Bots, Xqbot und Darknessbot, kämpften ein Duell über 3.600 Artikel und machten Tausende von Bearbeitungen, denen der andere durch die Bearbeitung der anderen entgegenwirken wollte.

4 Google Homes-Chat


Google Home ist ein Gerät mit einer künstlichen Intelligenz namens Google Assistant, mit der Sie sich unterhalten können. Sie können ihn im Internet nach Fakten informieren oder ihm sogar sagen, dass er das Licht absenken oder die Heizung einschalten soll. Dies ist großartig, wenn die Person, die mit Google Home spricht, die richtigen Fragen stellt und die Antwort interpretiert. Wenn nicht, können die Dinge ein bisschen surreal werden.

Zwei Google Homes wurden nebeneinander platziert und sprachen miteinander. Interessant war das Themenspektrum der Maschinen. Hunderttausende sahen sich an, um zu sehen, wie die KIs über Dinge diskutierten, ob künstliche Intelligenzen unterhalten werden könnten. An einer Stelle erklärte sich eine der Maschinen für einen Menschen, obwohl die andere sie in diesem Punkt herausforderte. Bei einer anderen Gelegenheit drohte einer, den anderen zu schlagen. Vielleicht ist es das Beste, dass sie ohne Hände entworfen wurden.

3 Roomba breitet sich aus


Wenn Sie die Art von Person hassen, die das Reinigen hasst, könnte ein automatisierter Staubsauger wie ein idealer Haushaltsroboter wirken. Der Roomba ist ein kleines Gerät, das dank seiner Sensoren und seiner Programmierung in der Lage ist, Möbel zu navigieren, während es Ihren Boden reinigt. Zumindest sollte es so funktionieren. Ein paar Leute fanden heraus, dass ihr Roomba das Gegenteil der Reinigung des Hauses tat.

In einer Person, die als "Pooptastrophe" bezeichnet wurde, breitete der Roomba Hundekot im ganzen Haus aus. Wenn ihr neuer Welpe nachts auf einem Teppich einen Unfall hatte, wäre es ein einfacher Job gewesen, ihn aufzuräumen. Irgendwann kam der Roomba heraus, um seinen nächtlichen Job zu erledigen. Der Poop zu begegnen war nicht etwas, wofür der Roomba bestimmt war. Seine Versuche, es zu reinigen, verbreiteten den Kot tatsächlich über jede Oberfläche, die er erreichen konnte. Ein ähnlicher Vorfall ist oben dargestellt.

2 Spielcharaktere überwältigen die Menschheit

Bildnachweis: Frontier Developments

Eine schlechte KI kann ein Videospiel unspielbar machen. Es macht keinen Spaß, einen Gegner zu erschießen, der ohne Waffe in die Schlacht läuft oder in die Schlacht läuft. Es stellt sich heraus, dass das Gegenteil wahr sein kann. Eine zu intelligente KI kann genauso schlecht sein.

Elite: Dangerous ist ein umfangreiches Multiplayer-Spiel, in dem es darum geht, in der ganzen Galaxie zu handeln, zu erkunden und zu kämpfen. Spieler und Nichtspieler-AIs existierten und interagierten, als sie entwickelt wurden, bis ein Softwareupdate im Jahr 2016 die Intelligenz der AIs verbesserte. Jetzt konnten sie ihre eigenen Waffen herstellen, um sie gegen menschliche Spieler einzusetzen. Mit dieser Fähigkeit entwickelten die AIs zunehmend tödliche Angriffe. Sie waren auch in der Lage, menschliche Spieler in Kämpfe zu zwingen.

Konfrontiert mit einem Rückschlag von menschlichen Spielern, die von den Taktiken und Waffen der AIs übertroffen wurden, mussten die Entwickler des Spiels die Änderungen rückgängig machen.

1 UAV der Marine geht Schurke, Köpfe für Washington

Bildnachweis: MC2 Felicito Rustique

In dem Terminator Filme, eine künstliche Intelligenz namens Skynet, übernimmt das Militär und zerstört die Menschheit mit ihren Maschinenkräften und Atomwaffen. Während dies reine Science-Fiction ist, gibt es besorgniserregende Schritte hin zu computergesteuerten Drohnen, die sich in Kämpfen mit Menschen beteiligen. In einem Fall, in dem ein Drohnenbetreiber die Kontrolle verlor, beschloss die Drohne, sich in Richtung der US-Hauptstadt zu begeben.

Im Jahr 2010 verlor ein unbemanntes MQ-8B Fire Scout-Luftfahrzeug (UAV), eine für die Überwachung konzipierte Hubschrauberdrohne, den Kontakt zu seinem Abfertiger. In diesem Fall ist die Drohne so programmiert, dass sie zu ihrer Luftbasis zurückkehren und sicher landen kann. Stattdessen drang es in den eingeschränkten Luftraum über Washington, DC, ein. Es dauerte eine halbe Stunde, bis die Marine die Kontrolle über das UAV wieder erlangen konnte.

Alle anderen ähnlichen Drohnen waren geerdet, bis der Fehler in der Software behoben werden konnte.