"Has Du den nächsten Tweet ... ... von Elon verpasst? Der erklärt das doch recht gut:..."
Das habe ich natürlich nicht verpasst. Nur, was hat denn diese AI-Regulierungsidee mit einem eventuell kurz bevorstehenden Krieg zwischen NK, USA, SK, China, RU zu tun? Nichts. Eben. Diese Kriegsgefahr ist akut, konkret und kurzfristig (wobei ich nicht glaube, dass Kim und Donald es so weit kommen lassen werden; aber wer weiß, was zwei so Irre mit derartiger Macht anstellen können?). Demgenüber ist AI noch ein sehr langfristiges Thema und kein bisschen akut.
Was die Musk-Forderung nach AI-Regulierung angeht, bin ich der Meinung, dass das derzeit kein wichtiges Thema ist. Regulieren kann man etablierte Prozesse und Produkte, aber doch nicht ernsthaft wissenschaftliche Grundlagenforschung*). Und in diesem Stadium befindet sich AI im Moment. Übrigens hat Musk noch kein Wort dazu gesagt, was und wie so eine Regulierungsbehörde wohl regulieren könnte und sollte. Er labert bloß irgendwas.
Wohl gemerkt, ich rede von künstlicher INTELLIGENZ, nicht von den derzeitigen Algorithmen, die im Prinzip nur trainierte Mustererkennung - und soweit es um Roboter geht, trickreiche Maschinensteuerungen - sind. Die machen zwar auf ihren jeweiligen Spezialgebieten beeindruckende Sachen, haben aber nicht das geringste mit Intelligenz zu tun. Darum geht es Musk ja aber nicht, sondern um die Frage, ob AIs irgendwann Menschen überlegen werden könnten, und sie am Ende die Menschen abschaffen könnten, weil entbehrlich (Als Lektüre empfehle ich: Nick Bostrom, "Superintelligenz. Szenarien einer kommenden Revolution", Suhrkamp).
----
*) Komm mir nicht mit Grundlagenforschung an Embryonen und dergleichen. Das wird zu Recht ethisch beurteilt und reguliert, weil da bereits die Forschung selbst, nicht erst ihr Ergebnis fragwürdig ist.
|