Top 10 unheimliche Fakten über künstliche Intelligenz
Wir befinden uns in der vierten industriellen Revolution, die durch Fortschritte in der Robotik und der Technologie des selbstfahrenden Automobils, die Verbreitung von intelligenten Haushaltsgeräten und mehr gekennzeichnet ist. Im Vordergrund steht dabei die künstliche Intelligenz (künstliche Intelligenz, KI). Dabei handelt es sich um die Entwicklung automatisierter Computersysteme, die den Menschen im Bereich der Intelligenz erreichen oder übertreffen können.
KI wird als das nächste große Ding angesehen - so groß, dass zukünftige Technologien davon abhängig sein werden. Aber wissen wir wirklich, worauf wir uns einlassen? Hier sind zehn gruselige Fakten über künstliche Intelligenz.
10 Ihr selbstfahrendes Auto könnte so programmiert sein, dass es Sie umbringt
Nehmen wir an, Sie fahren eine Straße hinunter. Dann erscheint plötzlich eine Gruppe Kinder vor Ihrem Auto. Sie bremsen, aber sie funktionieren nicht. Jetzt haben Sie zwei Möglichkeiten: Die erste ist, die Kinder zu überfahren und Ihr Leben zu retten. Die zweite besteht darin, in eine nahegelegene Mauer oder einen Poller zu fahren, um so die Kinder zu retten, aber sich selbst zu töten. Welches würdest du wählen?
Die meisten Leute sind sich einig, dass sie in den Poller einbrechen und sich umbringen werden.
Nun stellen Sie sich vor, Ihr Auto fährt selbst und Sie sind der Beifahrer. Möchten Sie immer noch, dass es in den Poller eindringt und Sie umbringt? Die meisten Leute, die zugestimmt hatten, dass sie in den Poller einsteigen würden, wenn sie der Fahrer wären, stimmten auch zu, dass sie nicht möchten, dass ihr selbstfahrendes Auto in den Poller einfährt und sie tötet. Sie kaufen ein solches Auto nicht einmal, wenn sie wussten, dass sie bei einem Unfall absichtlich gefährdet werden würden.
Dies bringt uns zu einer anderen Frage: Was würden die Autos tun?
Die Autos werden das tun, wozu sie programmiert wurden. Hersteller von selbstfahrenden Autos reden nicht. Die meisten, wie Apple, Ford und Mercedes-Benz, vermeiden die Frage taktvoll bei jeder Instanz. Ein Vorstandsvorsitzender der Daimler AG (der Muttergesellschaft von Mercedes-Benz) hat einmal erklärt, dass die selbstfahrenden Autos "den [...] Passagier um jeden Preis schützen". Mercedes-Benz widersprach dies jedoch und erklärte, dass die Fahrzeuge dafür gebaut seien So ein Dilemma passiert nie. Das ist mehrdeutig, weil wir alle wissen, dass solche Situationen eintreten werden.
Google kam diesbezüglich fehlerfrei und sagte, dass die selbstfahrenden Autos es vermeiden würden, ungeschützte Verkehrsteilnehmer zu treffen und Dinge zu bewegen. Dies bedeutet, dass das Auto den Poller treffen würde und den Fahrer töten würde. Google stellt ferner klar, dass bei einem drohenden Unfall die selbstfahrenden Autos das kleinere von zwei Fahrzeugen treffen würden. In der Tat suchen Google-selbstfahrende Autos möglicherweise immer näher an kleineren Objekten. Google hat derzeit ein Patent auf eine Technologie, mit der sich die selbstfahrenden Autos von größeren Autos weg bewegen und sich auf der Straße in Richtung kleinerer Autos bewegen.
9 Roboter könnten Rechte fordern wie Menschen
Mit den aktuellen Trends in der KI ist es möglich, dass Roboter eine Stufe der Selbstverwirklichung erreichen. Wenn dies geschieht, können sie ihre Rechte fordern, als wären sie Menschen. Das heißt, sie benötigen Wohnungs- und Gesundheitsleistungen und verlangen, dass sie wählen dürfen, Militärs dienen und die Staatsbürgerschaft erhalten. Im Gegenzug würden die Regierungen sie dazu bringen, Steuern zu zahlen.
Dies geht aus einer gemeinsamen Studie des Horizon Scanning Centre des britischen Office of Science and Innovation hervor. Die BBC berichtete 2006 über diese Forschung, als die KI weit weniger fortgeschritten war, und es wurde durchgeführt, um die technologischen Fortschritte zu spekulieren, die sie in 50 Jahren sehen könnten. Bedeutet das, dass Maschinen in etwa 40 Jahren die Staatsbürgerschaft fordern werden? Nur die Zeit kann es verraten.
8 Automatische Killer-Roboter werden verwendet
Bildnachweis: MarkBlackUltorWenn wir von „automatischen Killerrobotern“ sprechen, meinen wir Roboter, die töten können, ohne dass Menschen eingreifen. Drohnen zählen nicht, weil sie von Menschen kontrolliert werden. Einer der automatischen Killer-Roboter, von denen wir sprechen, ist der SGR-A1, eine gemeinsam von Samsung Techwin (jetzt Hanwha Techwin) und der Korea University entwickelte Sentry-Waffe. Die SGR-A1 ähnelt einer riesigen Überwachungskamera, mit der Ausnahme, dass sie ein leistungsstarkes Maschinengewehr hat, mit dem jedes Ziel automatisch erfasst und getötet werden kann.
Der SGR-A1 wird bereits in Israel und Südkorea eingesetzt, die entlang ihrer Demilitarisierten Zone (DMZ) mit Nordkorea mehrere Einheiten installiert haben. Südkorea bestreitet die Aktivierung des automatischen Modus, mit dem die Maschine entscheiden kann, wer getötet wird und wer nicht. Stattdessen befindet sich die Maschine in einem halbautomatischen Modus, in dem Ziele erkannt werden und die Zustimmung eines Bedieners zur Ausführung eines Abbruchs erforderlich ist.
7 Kriegsroboter können die Seiten wechseln
Bildnachweis: EPA / Irans RevolutionsgardeIm Jahr 2011 erbeutete der Iran eine äußerst geheime Stealth-Drohne RQ-170 Sentinel vom US-Militär, die intakt war. Das letzte Wort ist notwendig, weil es bedeutet, dass die Drohne nicht abgeschossen wurde. Der Iran behauptet, er habe die Drohne gezwungen zu landen, nachdem er sein GPS-Signal gefälscht hatte und den Eindruck hatte, dass es sich in freundlichem Gebiet befand. Einige US-Experten behaupten, dass dies nicht stimmt, aber die Drohne wurde nicht abgeschossen. Also was ist passiert?
Soweit wir wissen, könnte der Iran die Wahrheit sagen. Drohnen, GPS und Roboter basieren alle auf Computern, und wie wir alle wissen, werden Computer gehackt. Kriegsroboter wären nicht anders, wenn sie es jemals ins Schlachtfeld schaffen würden. In der Tat besteht die Möglichkeit, dass die feindliche Armee versucht, sie zu hacken und gegen dieselbe Armee einzusetzen, die sie aufstellt.
Autonome Killerroboter sind noch nicht weit verbreitet, so dass wir noch nie gehackt wurden. Stellen Sie sich jedoch eine Armee von Robotern vor, die plötzlich auf dem Schlachtfeld die Treue wechselt und sich gegen ihre eigenen Meister wendet. Oder stellen Sie sich vor, Nordkorea hacke die SG-A1-Sentry-Waffen in der DMZ und setzte sie gegen südkoreanische Soldaten ein.
6 Russland nutzt Bots zur Verbreitung von Propaganda auf Twitter
Fotokredit: Der WächterBots übernehmen Twitter.Untersuchungen der University of Southern California und der Indiana University haben gezeigt, dass etwa 15 Prozent (48 Millionen) aller Twitter-Konten von Bots betrieben werden. Twitter besteht darauf, dass die Zahl bei 8,5 Prozent liegt. Um klar zu sein, sind nicht alle diese Bots schlecht. Einige sind tatsächlich von Vorteil. Zum Beispiel gibt es Bots, die Menschen über Naturkatastrophen informieren. Es gibt jedoch einige, die vor allem von Russland für Propaganda verwendet werden.
Russland ist immer noch in den Nachrichten, dass diese Bots dazu benutzt wurden, um Zwietracht unter den US-Wählern zu säen und sie dazu zu bringen, während der Wahlen 2016 für Donald Trump zu wählen. Ein weiterer wenig berichteter Vorfall ist, dass Russland diese Bots verwendet, um britische Wähler dazu zu bewegen, während des Brexit-Referendums 2016 die Europäische Union zu verlassen.
Tage vor dem Referendum begannen plötzlich mehr als 150.000 russische Bots, die sich früher auf Tweets im Zusammenhang mit dem Krieg in der Ukraine und die Annexion der Krim durch Russland konzentrierten, plötzlich Brexit-Tweets, die das Vereinigte Königreich zum Verlassen der EU aufforderten. Diese Bots schickten innerhalb von zwei Tagen nach dem Referendum rund 45.000 Pro-Brexit-Tweets, aber die Tweets fielen unmittelbar nach dem Referendum auf fast Null.
Schlimmer ist, dass Russland dieselben Bots auch für Twitter verwendet, um Journalisten zu verbieten, die die weitgehende Verwendung von Bots für Propaganda aufdecken. Sobald Russland einen Artikel entdeckt, der über die Existenz der Bots berichtet, findet es die Twitter-Seite des Autors und lässt die Bots dem Autor folgen, bis Twitter den Account des Autors unter dem Verdacht des Betreibens eines Bots verbietet.
Das Schlimmste ist, dass Russland sein Bot-Spiel erheblich verbessert hat. Heutzutage ist es von vollen Bots zu Cyborgs-Accounts geworden, die gemeinsam von Menschen und Bots betrieben werden. Dies hat es für Twitter schwieriger gemacht, diese Konten zu erkennen und zu sperren.
5 Maschinen nehmen unsere Jobs ein
Ohne Zweifel werden Maschinen eines Tages unsere Jobs übernehmen. Was wir jedoch nicht wissen, ist, wann und in welchem Umfang sie übernehmen werden. Nun, da wir es gerade erfahren wollen, ist das weitgehend.
Laut der führenden Beratungs- und Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers (PwC) übernehmen Roboter 21 Prozent der Arbeitsplätze in Japan, 30 Prozent der Arbeitsplätze in Großbritannien, 35 Prozent der Arbeitsplätze in Deutschland und 38 Prozent der Arbeitsplätze in den USA das Jahr 2030. Im nächsten Jahrhundert haben sie mehr als die Hälfte der Arbeitsplätze für den Menschen übernommen.
Der am stärksten betroffene Sektor wird Transport und Lagerung sein, wo 56 Prozent der Arbeitskräfte Maschinen sein werden. Es folgen die Produktions- und Handelsbranchen, in denen Maschinen 46 und 44 Prozent aller verfügbaren Arbeitsplätze übernehmen werden.
Apropos „wann“ wird spekuliert, dass Maschinen bis 2027 Lastwagen fahren und bis 2031 im Einzelhandel tätig sein werden. Bis 2049 werden sie Bücher schreiben, und bis 2053 werden sie operiert. Nur wenige Berufe werden vom Maschineneinfall befreit. Eine davon ist die Rolle eines Kirchenministers, die nicht frei bleiben würde, nicht weil eine Maschine keine Kirche führen kann, sondern weil die meisten Menschen es nicht gutheißen, von einem Roboter gepredigt zu werden.
4 Roboter haben gelernt, betrügerisch zu sein
Auf menschliche Art und Weise lernen Roboter, betrügerisch zu sein. In einem Experiment entwickelten Forscher am Georgia Institute of Technology in Atlanta einen Algorithmus, mit dem Roboter entscheiden können, ob sie andere Menschen oder Roboter täuschen. Wenn sich die Roboter für den Weg der Täuschung entschieden haben, haben die Forscher einen Algorithmus hinzugefügt, mit dem der Roboter entscheiden kann, wie er die Menschen und Roboter täuschen soll, während er die Wahrscheinlichkeit verringert, dass die Person oder der Roboter, die getäuscht werden, jemals herausfinden wird.
Im Experiment wurde einem Roboter ein Hilfsmittel zur Verfügung gestellt. Es prüfte häufig die Ressourcen, besuchte jedoch immer dann falsche Orte, wenn ein anderer Roboter in der Umgebung erkannt wurde. Dieses Experiment wurde vom US-amerikanischen Büro für Marineforschung gesponsert, was bedeutet, dass es militärische Anwendungen geben könnte. Roboter, die Militärvorräte bewachen, könnten ihre Patrouillenrouten ändern, wenn sie bemerkten, dass sie von feindlichen Streitkräften beobachtet wurden.
In einem anderen Experiment, diesmal an der Ecole Polytechnique Federale in Lausanne, in der Schweiz, stellten Wissenschaftler 1.000 Roboter her und teilten sie in zehn Gruppen auf. Die Roboter mussten in einem ausgewiesenen Bereich nach einer „guten Ressource“ suchen, während sie es vermieden, sich in einer „schlechten Ressource“ aufzuhalten. Jeder Roboter hatte ein blaues Licht, auf das er blitzte, um andere Mitglieder seiner Gruppe anzulocken, wann immer er das Gute fand Ressource. Die besten 200 Roboter wurden aus diesem ersten Experiment entnommen und ihre Algorithmen wurden "gekreuzt", um eine neue Generation von Robotern zu erstellen.
Die Roboter verbesserten sich beim Auffinden der guten Ressource. Dies führte jedoch zu einer Überlastung, da sich andere Roboter um den Preis drängten. Tatsächlich wurden die Dinge so schlimm, dass der Roboter, der die Ressource fand, manchmal von seiner Suche gestoßen wurde. 500 Generationen später lernten die Roboter ihre Lichter aus, wenn sie die gute Ressource fanden. Dies dient der Vermeidung von Staus und der Wahrscheinlichkeit, dass sie weggeschickt würden, wenn andere Mitglieder der Gruppe sich ihnen anschließen würden. Zur gleichen Zeit entwickelten sich andere Roboter, um die liegenden Roboter zu finden, indem sie nach Gebieten suchten, in denen die Roboter bei ausgeschaltetem Licht konvergierten. Dies ist das genaue Gegenteil von dem, was sie programmiert hatten.
3 Der AI-Markt wird monopolisiert
Der AI-Markt wird monopolisiert. Größere Unternehmen kaufen mit einer alarmierenden Geschwindigkeit kleinere KI-Startups. Mit dem aktuellen Trend würden wir zu einer KI führen, die von einer sehr kleinen Anzahl von Unternehmen kontrolliert wird. Ab Oktober 2016 gab es Berichte, dass Unternehmen wie Apple, Facebook, Intel, Twitter, Samsung und Google über fünf Jahre hinweg 140 Unternehmen für künstliche Intelligenz gekauft hatten.
In den ersten drei Monaten 2017 kauften große Tech-Unternehmen 34 AI-Startups. Schlimmer noch, sie zahlen auch viel Geld, um die besten Gelehrten auf dem Gebiet der künstlichen Intelligenz einzustellen. Wenn dies nicht aktiviert ist, können Sie erraten, wohin wir fahren.
2 AI wird Menschen in Vernunft und Intelligenz übertreffen
Künstliche Intelligenz wird in zwei Gruppen eingeteilt: starke und schwache KI. Die KI um uns herum wird heute als schwache KI eingestuft. Dazu gehören angeblich fortschrittliche KI wie intelligente Assistenten und Computer, die seit 1987 Schachmeister besiegt haben. Der Unterschied zwischen starken und schwachen KI besteht in der Fähigkeit, wie ein menschliches Gehirn zu denken und sich zu benehmen.
Eine schwache KI macht im Allgemeinen das, wozu sie programmiert wurde, unabhängig davon, wie anspruchsvoll diese Aufgabe uns erscheint. Eine starke KI am anderen Ende des Spektrums hat das Bewusstsein und die Denkfähigkeit des Menschen. Es ist nicht auf den Umfang seiner Programmierung beschränkt und kann entscheiden, was zu tun ist und was nicht ohne menschlichen Input zu tun ist. Eine starke KI gibt es im Moment nicht, aber die Wissenschaftler sagen voraus, dass sie in zehn Jahren dabei sein sollten.
1 KI könnte uns zerstören
Es gibt Befürchtungen, dass die Welt in einer KI-Apokalypse enden könnte, genau wie in der Welt Terminator Film-Franchise. Die Warnungen, dass uns die KI zerstören könnte, stammen nicht von einem zufälligen Wissenschaftler oder Verschwörungstheoretiker, sondern von hervorragenden Profis wie Stephen Hawking, Elon Musk und Bill Gates.
Bill Gates glaubt, dass die KI zu intelligent wird, um unter unserer Kontrolle zu bleiben. Stephen Hawking teilt die gleiche Meinung. Er glaubt nicht, dass die KI über Nacht plötzlich wahnsinnig wird. Vielmehr glaubt er, dass Maschinen uns zerstören werden, wenn sie zu kompetent werden. Unser Konflikt mit der KI beginnt in dem Moment, in dem ihre Ziele nicht mehr mit unseren übereinstimmen.
Elon Musk hat die Verbreitung der KI mit der "Beschwörung des Dämons" verglichen. Er glaubt, dass dies die größte Bedrohung für die Menschheit ist. Um die KI-Apokalypse zu verhindern, schlug er vor, dass die Regierungen mit der Regulierung der Entwicklung der KI beginnen, bevor gewinnorientierte Unternehmen "etwas sehr Dummes" tun.