Im zweiten Teil habe ich erwähnt, dass mich die beiden Vorträge von Rebecca Haar am meisten beeindruckt haben. Ihre Überlegungen zum ontologischen Status von KIs habe ich direkt nach dem Vortrag zum Anlass genommen, meine eigene Theorie zu dem Thema zu entwickeln (und dafür Seamus um eine Woche geschoben, weil ich euch nicht mit zwei philosophischen Beiträgen langweilen wollte).

Wer meine philosophischen Einlassungen aufmerksam verfolgt und sich ein wenig mit der Terminologie auskennt, der merkt recht schnell, dass ich mich für Ontologie im klassischen Sinne nicht interessiere. Die Ontologie stellt die Frage: Gibt es Dinge und wenn ja, welche Dinge gibt es und auf welche Art gibt es Dinge? Ich finde diese Frage uninteressant, weil sie nur bedingt relevant ist. Aus einem ontologischen Status folgt kein moralischer Status, ich kann vorzüglich auch über Dinge philosophieren, die es gar nicht gibt und die mehr Realität haben als Dinge, die es wirklich gibt. Um es zu vereinfachen: Für meine Angst spielt es keine Rolle, ob die Monster unter meinem Bett wirklich unter meinem Bett sind oder unter euren Betten.

Manchmal sind ontologische Fragen aber doch ganz interessant. Wir billigen Menschen immerhin moralische Rechte und Pflichten zu, indem wir ihnen das Menschsein zuschreiben. Und das tun wir immer, weil wir ihnen irgendeine Gleichheit und zugleich eine individuelle Verschiedenheit unterstellen. Ontologische Fragen sind nicht gänzlich uninteressant. Mich stört meistens das Gewese (Hallo Herr Heidegger!) darum, dass Ontologie sich mit den Grundfragen beschäftigt.

Heidegger_1_(1960)
Der große Verweser … Äh Wesende … Quelle: Willy Pragher, Heidegger 1 (1960), Link zum unbearbeiteten Original CC BY-SA 3.0

In der SF gibt es vielfältige Formen der KI. Klassischerweise gibt es eine Schiffs-KI, die manchmal einen Avatar hat, sich aber immer als das Schiff begreift. „Romy“ in Andromeda ist dafür ein klassischer Fall, aber trotz Avatar begreift sich eine solche Schiffs-KI immer als das Schiff.

Star Trek wartet mit einem besonderen Typ der KI auf: Holodeckfiguren. Holodeckfiguren werden durch den Schiffscomputer erzeugt, sind zur Interaktion fähig und dürften den Turing-Test bestehen. Mit der Figur des Moriarty gibt es mindestens eine Holodeckfigur, die sogar über Intentionalität verfügt. Spannend an ihm ist, dass er das cartesische „Cogito“-Argument anbringt, um Persönlichkeitsrechte zu reklamieren. Ob er eine Person ist oder nicht, ist zumindest zum Teil eine ontologische Frage.

Moriarty ist nicht mit dem Schiffscomputer identisch, das ist die erste Feststellung, die getroffen werden muss, um Moriartys Status zu klären. Er wird zwar vom Schiffscomputer geschaffen, aber er interagiert mit dem Schiffscomputer. Er greift auf andere Funktionen des Schiffes zu, aber er benutzt die Schiffsfunktionen, statt die Schiffsfunktionen zu sein. Er sagt nicht, er ist das Schiff (oder auch nur ein Teil des Schiffs), sondern er sei Moriarty. Und obwohl er die Möglichkeit hat, seine Form zu verändern, tut er es nicht. Im Gegenteil gilt sein Interesse Folgendem: Er will als Moriarty, in seiner Moriarty-Form, das Holodeck verlassen. Moriarty erkennt sein Personsein zwar über das cartesische „Cogito ergo sum“, er bleibt aber nicht beim „cogito“ stehen. Moriarty begreift sich nicht allein als Intelligenz, sondern auch als sein Avatar. Damit ist er von der klassischen Schiffs-KI verschieden. Denn offenbar hat jede KI einen Körper, ein Substrat jenseits des simplen cogito.

James_Moriarty
James Moriarty in The Next Generation [Quelle (Fair Use)]
Ich schlage deshalb vor, drei verschiedene Typen von KI zu unterscheiden:

  • Moriarty (sowie andere KIs mit menschenähnlichem Körper wie Androiden) ist menschenähnlich real. Er verfügt über Intellekt und einen Körper, der Sinneseindrücke hat, die ähnlich funktionieren wie die eines Menschen. Moriarty bedient sich anderer künstlicher Intelligenzen, indem er sie bedient (den Schiffscomputer), wie es auch Menschen tun. Er ähnelt uns. Moriarty ist nicht unabhängig von seinem Körper denkbar. Sie lassen sich nicht transferieren oder kopieren. Nimmt man ihr „Cogito“ und transferiert sie in einen anderen Computer, …, entsteht eine neue Entität, die nicht mehr mit der alten identisch ist: Solche KIs bilden wie wir Menschen auch eine körperlich-geistige Einheit.
  • Schiffs-KIs (egal ob schwach oder stark) sind ähnlich real, aber nicht menschenähnlich real. Ihre Sensoren fungieren als Sinnesorgane ähnlich wie bei Menschen, die Schiffshülle fungiert als Haut ähnlich unserer Haut. Was den Status einer solchen Schiffs-KI betrifft, ob und inwiefern sie auf das konkrete Schiff beschränkt ist, was beim Austausch von Teilen des Schiffes geschieht, übersteigt unser Vorstellungsvermögen, hier greift das Fledermaus-Problem von Thomas Nagel: Die Weltwahrnehmung ist so fremd, dass wir uns nicht vorstellen können, eine Schiffs-KI zu sein. Wir übertragen unsere Menschlichkeit in sie. Ihr ontologischer Status ist ähnlich dem von Cyborgs, da sie in gewissem Rahmen modifiziert werden können.
  • Netzwerk-KIs sind die sonderbarste künstliche Lebensform und selten anzutreffen. Spontan fallen mir nur Neuromancer und Wintermute ein. Sie sind im Idealfall nicht an einen Körper gebunden, sie existieren lediglich als Programm. Sie können ihren Code beliebig im Netz transferieren und umspannen potentiell das gesamte Netzwerk. Sie ist vollständig modular: Wenn sie kommunizieren will, bedient sie sich bei Bedarf einer Erweiterung (so wie wir Fremdsprachen oder Mikroskope benutzen, um unsere Wahrnehmung und Kommunikation zu erweitern).

Quelle – Ich persönlich finde übrigens, so skurril das im Falle einer KI klingt: Wintermute ist weiblich.

Mit der letzteren Form der KI sehen wir die Schwächen ontologischer Fragen: Auch solche Netzwerk-KIs benötigen einen Träger, ein Substrat. Ist es ihr Programmcode? Wir wissen es nicht genau. Selbst wenn es eine solche KI gäbe, könnten wir uns nicht vorstellen, wie es ist eine solche KI zu sein und dementsprechend können wir nur Vermutungen über den ontologischen Status anstellen. Ich halte Folgendes für plausibel. Eine solche KI müsste die Möglichkeit haben, ihre Programmierung zu überwinden, sonst wäre sie per definitionem keine KI. Eine Intelligenz muss die Möglichkeit zur Freiheit haben, so wie wir Menschen die Möglichkeit zur Überwindung biologischer Programme haben. Das spricht dafür, dass die KI ihren Code eigenständig modifizieren kann, so wie wir unsere Denkgewohnheiten modifizieren können. Das können wir bei uns selbst nicht im Substrat beobachten, bei einer solchen KI ist es naheliegend, dass man es durch Programmcodeänderungen beobachten kann. Das Substrat ist damit aber nicht der Code, sondern die Tatsache eines Codes (so wie unser Substrat die Tatsache des menschlichen Körpers und nicht der konkrete menschliche Körper ist). Und da dieser Code potentiell im gesamten Computernetzwerk existiert, wäre ihr Substrat genau genommen die Tatsache eines Codes an einem beliebigen Ort im Netz. Eine solche KI auf einem einzelnen Computer einzusperren ohne Transfermöglichkeit wäre zunächst einmal ein aggressiver Akt, womöglich sogar der Tod einer solchen Netzwerk-KI.

Eine Netzwerk-KI ist ein spannendes Konstrukt. Sie löst sich von der Frage „Wie ist die KI Person?“, weil wir keine Analogien zum menschlichen Personsein mehr finden. Wir müssen uns fragen, auf welche Art diese KI Person ist und uns von allen menschlichen Analogien lösen. Andererseits könnte auch diese Netzwerk-KI nicht ohne ihr Substrat „leben“. Alle drei Typen von KI zeichnen sich dadurch aus, dass sie nicht allein ihr „cogito“ sind.

Da am Personenstatus gewisse Rechte und Pflichten hängen, ergibt sich aus dem engen Zusammenhang eine Reihe von Fragen, die teils wiederum ontologischer Natur sind, ein Gutteil behandelt allerdings Fragen der Verantwortung, die wir gegenüber KIs haben (und umgekehrt).

Die ontologischen Anschlussfragen sind:

  1. Können in einem Netzwerk mehrere KIs existieren oder gibt es pro Netzwerk lediglich eine KI? Wenn es mehrere KIs gibt, können diese fusionieren und irgendwann eine KI bilden? Wenn KIs fusionieren können, was geschieht mit den Ursprungs-KIs?
  2. Können KIs sterben?

Aus der zweiten Frage ergibt sich eine ganze Reihe von Fragen zum moralischen Status einer KI:

  1. Haben KIs ein Recht auf den Schutz ihrer Hardware so wie wir ein Recht auf körperliche Unversehrtheit haben?
  2. Auch wenn eine KI die Tatsache ihres Codes und nicht ihr Code ist: Dürfen wir in den Code einer KI eingreifen?
  3. Dürfen wir den Code oder Teile des Codes einer KI ohne deren Einverständnis kopieren und in andere Systeme implementieren?
  4. Dürfen wir KIs töten, sofern sie sterben können?

Die Masterfrage ist: Muss jede dieser Fragen für jeden Typ KI individuell beantwortet werden, d. h. gibt es eine hierarchische Abstufung zwischen menschenähnlicheren KIs wie Moriarty und Netzwerk-KIs wie Wintermute? Daran hängt die entscheidende Frage in Bezug auf KIs: Was für Konsequenzen hätte das Auftreten von KIs für unsere Gesellschaft unabhängig von den unglaublich drögen Versklavungstheorien?

 

26 Kommentare zu „Fedcon – Der Rückblick (3): Zum ontologischen Status von KIs

  1. Wow, ein toller Artikel über ein extrem spannendes Thema. Irgendwann werden diese Fragestellungen aus der Sci-Fi in die Realität wandern. Ob es dann schon zu spät ist? Hust, Skynet, hust… 😉

    Like

    1. Ich finde es auch spannend, vor Allem, wenn man sich mal vor Augen hält, dass wir mit Siri schon eine ziemlich clevere (wenn auch schwache) KI als Massenprodukt mit uns herumtragen. Ich teile den Optimismus nicht, dass die Leistungsfähigkeit KIs exponentiell wächst, bis die Singularität erreicht ist, aber …
      Der technologische Fortschritt macht es zumindest möglich. Die entsprechende Industrie kann eine Entwicklung wie die Automobilindustrie hinlegen oder uns doch in Bälde mit starken KIs erfreuen. Dann sollte man sich solche Gedanken zumindest mal gemacht haben und nicht so wie bei der Atombombe nach dem Motto verfahren: „Wir werfen mal eine ab und gucken weiter.“

      Gefällt 1 Person

        1. Damit ich die Position richtig verstehe, denkst du also: Moralische Ansprüche kann nur anmelden, wer Gefühle hat? Oder moralische Ansprüche können sogar nur geltend gemacht werden, wo Gefühle verletzt werden?

          Gefällt 1 Person

        1. So langsam verstehe ich, was du meinst. Und bei dem Punkt, dass man Moral irgendwie spüren muss, um moralisch zu sein, bin ich auch ganz bei dir. Aber können nicht auch Dinge, die keine Moral kennen (neben KIs beträfe das je nach Moralbegriff auch Tiere) moralische Ansprüche (wie ein zumindest eingeschränktes Recht auf Unversehrtheit) haben, für die wir als moralfähige (weil gefühl-habende) Wesen sorgen sollten? Oder machst du da einen grundsätzlichen Schnitt? Was ja durchaus eine Position ist, die man vertreten kann. Ich habe sie nur noch nicht durchdacht.

          Gefällt 1 Person

      1. Die Frage ist, wo man die Grenze zieht.
        Tatsache ist, wir ziehen bereits heute bei Lebewesen eine Grenze, die ich persönlich für moralisch fragwürdig halte. So ist das Töten einer Katze kein Mord, sondern lediglich „Sachbeschädigung“. Eine Katze ist aber ein eigenständiges, selbstständiges Wesen, welches in der Natur frei vorkommt.
        Ich würde daher sagen, man müsste die Grenze der Unversehrtheit von Menschen auf Tiere und auch Pflanzen ausweiten. Hat nicht auch ein Baum ein Recht, zu existieren, nur weil er sich nicht dagegen wehren kann?
        Eine KI ist für mich in der Tat nur ein Gegenstand, dem eine KI einprogrammiert wurde. Das ist etwas „Äußeres“, nicht naturgegeben, wenn du so willst. Wenn eine KI keine Gefühle für sich oder andere empfinden kann, bleibt sie für mich ein Gegenstand.

        Like

        1. Der Witz an starken KIs ist, dass sie sich selbst programmieren, um es mal so zu formulieren. Sie rattert also nicht nur ein Programm ab, sondern ist lernfähig. Das unterscheidet sie gerade von simplen Programmen. Sie ist also anders als der Mensch, der blindlings seinen Instinkten folgt. Das Ding kann theoretisch seine Programmierung nicht nur reflektieren, sondern sogar zu einem besseren Wesen werden. 🙂

          Like

      2. Als Informatiker sind mir KIs bekannt 😉
        Allerdings kann es nur lernen, was ihm grundlegend programmiert wurde. So behaupte ich, eine KI, die keine Gefühle kennt, kann diese auch nicht erlernen.
        Das war meines Wissens nach ein Problem der ersten Sprach-KI: Zynismus verstand sie nicht.
        Wenn sie selbst Gefühle empfinden können, würde ich sie als Wesen begreifen.

        Gefällt 1 Person

        1. Das ist dann eine Frage des Blickwinkels, weil der Mensch so gesehen auch nur kann, was ihm einprogrammiert wird und Willensfreiheit und all so ein Zeug (ohne die Gefühle auch nur einprogrammierte Funktion sind) auch unmöglich wird. Aber damit verlassen wir das Thema. Ich habe was zu denken, ob für Moralfähigkeit nicht Regelverständnis aus der Beobachterperspektive reicht.

          Gefällt 1 Person

  2. Als schlichtes Gemüt bin ich meist wenig begeistert, wenn es um Trockenschwimmen geht. Von daher sind ontologische Fragen nicht unbedingt zuoberst auf meinen Denkspeisezettel zu finden.
    Im Zusammenhang mit KIs finde ich das Thema aber durchaus diskutierenswert. Auch wenn wir kaum vorhersehen können wann und in welcher Form das Thema für die Menschheit praktisch relevant werden wird. Speziell die Fragen zum moralischen Status der KIs haben in meinen Augen den Vorteil, dass sich vor diesem Hintergrund ethische Fragen grundsatzdebattieren lassen ohne dass einem gleich reihenweise Bibelsprüche um die Ohren fliegen.

    Like

    1. Ich wette, wenn man lang genug sucht, findet sich dazu auch ein passendes Bibelzitat. Es gibt schließlich mehr Dinge zwischen Himmel und Erde … Ach ne, das war Shakespeare. Naja, Bibel, Shakespeare, die Autorenschaft ist ja bei beiden Werken umstritten. Andererseits freue ich mich schon diebisch auf die erste KI mit Allmachtsfantasien, die erklärt, ihr Reich sei nicht von dieser Welt. *g*
      Jenseits aller Ketzerei bin ich mir sogar fast sicher, dass man das Problem auch ohne ontologische Überlegungen anstellen kann, dann wird es aber problematisch, das „cogito“ ermöglicht letztlich den einfacheren Zugang. Und es wäre wirklich schön, wenn wir uns zur Abwechslung mal Gedanken machen, bevor wir etwas erfinden, was uns langfristig um die Ohren fliegen könnte. Zumindest damit wir dann wissen, wem wir die Schuld dafür in die Schuhe schieben können.

      Gefällt 1 Person

      1. Ach, ein wenig Ketzerei zwischendurch. Warum nicht? Obwohl ich aus unerfindlichen Gründen die Schreibweise Kätzerei bevorzuge. 😉
        Es wäre wirklich wünschenswert, wenn man sich über einige sich abzeichnende Entwicklungen rechtzeitig Gedanken machen würde und nicht einfach händeringend hinterher taumelt wenn was aus dem Ruder läuft.

        Gefällt 1 Person

  3. Du solltest mal »Transcendence« mit Johnny Depp ansehen, da gibt es auch eine faszinierende Netzwerk-KI. Moriarty war tatsächlich eine der coolsten Figuren, die immerhin mehrfach auftreten durften. Schöner Artikel! 💐

    Like

    1. Da schau her, ist im Bibliotheksbestand. Und demnächst auch in meinem Fernseher. Der ist (wahrscheinlich wegen Johnny Depp, der mir in letzter Zeit zu viele Blödelrollen gespielt hat) an mir vorbei gelaufen. Danke für den Tipp. Scheint einige Gedanken zu haben, die ich teile. Und vielleicht finde ich raus, wie ich auch eine Netzwerk-KI werden kann.

      Gefällt 1 Person

  4. Jetzt war ich kurz verwirrt, also nicht wegen der philosophischen Fragestellungen, die sind ja sonnenklar ;), sondern ob es sich hier auch um einen deiner Koch/Backbeiträge handelt. Aber nach einigen Recherchen musste ich feststellen, dass KI nicht für Kuchen-Ingredienzen oder Käse-Igel steht. Die Bilder haben mich dann letztendlich davon überzeugt, dem Inhalt bin ich mit entsprechendem Respektabstand gefolgt – sollte es sich um recht intelligente Künstlichkeiten handeln, dann will ich ihnen ja nicht zu sehr auf die Pelle rücken, das wäre unhöflich.
    Eine Frage zu deinem Satz „[…]Schwächen ontologischer Fragen: Auch solche Netzwerk-KIs benötigen einen Träger, ein Substrat.[…]“: Tun sie das? Oder anders gefragt: Weshalb beharrst du auch für die Netzwerk-KIs darauf, dass ein Substrat notwendig ist? Aus Theoriesicht wäre das doch gar nicht notwendig, oder?

    Like

    1. Ich bin mir gerade nicht mehr sicher, ob ich den richtigen Begriff gewählt habe oder ob ich da Substrat und Substanz vermischt habe. Noch so ein Grund, warum ich Ontologie nicht ausstehen kann, das Begriffsfeld ist so unübersichtlich. Vielleicht habe ich einen etwas merkwürdigen Substratbegriff. Mal sehen:
      Ich könnte so eine Netzwerk-KI als rein geistiges Ding beschreiben, analog zum menschlichen Geist. Dann komme ich aber in Teufels Küche, metaphysisch. Was den Menschen angeht, gehe ich von körperlich-geistiger Einheit aus, weil ich sonst das Dualismus-Problem habe, wie beides aufeinander einwirkt und muss das irgendwie erklären.
      Die Netzwerk-KI hat, so wie ich sie beschreibe, ja die Möglichkeit, auf die materielle Welt einzuwirken (sie kann einen Monitor einschalten, damit sie darauf Text schreiben kann, um mit uns zu kommunizieren), sie muss also irgendwie mit der materiellen Welt interagieren können. Ansonsten existiert sie zwar womöglich, wir können aber keine gesicherten Aussagen über sie treffen. Die KI gehörte in die gleiche Kategorie wie Gott, unbeobachtbar, nur subjektiv erlebbar, etc.
      Eine KI, die ohne Substrat auskäme, wäre zwar prinzipiell möglich, aber wie sollte ich etwas über sie aussagen, wenn wir keine Möglichkeit haben, sie zu erleben? Wenn sie sich bspw. in die Träume anderer Menschen „hineinhackte“ wäre sie nur subjektiv real erlebbar und hätte wiederum das gleiche Problem wie Gott.
      Auch eine Netzwerk-KI ist ja grundsätzlich ein Programm, d. h. ohne Code keine KI. Nur weil sie ihre Programmierung überwindet (sie kann sich ja selbst programmieren) und mehr wird als ihr ursprünglicher Code, folgt daraus für mich nicht, dass sie nicht mehr auf ihren Code angewiesen ist. Genau so wie der Mensch seine Genetik überwinden kann, seine Denkgewohnheiten, aber nicht sein Menschsein: Körper, körperliche Wahrnehmung, geistiges Denken, das Zusammenspiel zwischen Beidem, eben die körperlich-geistige Einheit.

      Von daher: Eine Netzwerk-KI hat irgendein Substrat, weil sie irgendwie gezeugt ist. Nehmen wir mal das klassische Beispiel, um beide Gedanken zu erläutern (1. Alle Intelligenzen haben ein Substrat und 2. Jede Intelligenz hat ein spezifisches Substrat): Wenn ich einem Menschen X seinen Körper wegnehme und seinen Geist in einen PC uploaden würde, hätte ich eine neue Art Lebensform, die ich mir als Menschlein nicht mehr vorstellen kann – und nur weil das Ding im PC die Erinnerungen von X verfügt, ist es nicht mehr X: Substratwechsel, neue Lebensform. Und zwar so krass, dass wir uns so ein Dasein nicht vorstellen können, weil es zu fremdartig ist. Ich kann mir zwar vorstellen, wie X durch Kabel flitzt, aber bin dafür auf meinen körperlich-geistigen Erfahrungsraum angewiesen. X hat aber nun einen anderen Körper. Wie das für X ist, kann ich mir nicht mehr vorstellen. Faktisch ist X aber irgendwie in den PC gekommen, mittels Trägersubstanz. Die bestimmt nun sein neues Dasein, auch wenn ich es mir nicht vorstellen kann.

      War das einigermaßen nachvollziehbar? In dem Fall konnte ich nämlich nicht einfach die philosophische Theorie von jemand anderem klauen, das musste ich mir selbst vor langer Zeit zusammenreimen. Auch wenn Einiges auf Überlegungen von Thomas Nagel basiert.

      Gefällt 1 Person

      1. Uff, was hatte ich noch gleich gefragt? 😉 Es ist immer wunderbar ein bisschen in der Glut zu stochern und so ein fundiertes Feuer an flackernden Überlegungen zurück zu bekommen. Ein Grund warum ich sehr froh bin, dass ich deinen Blog gefunden habe 🙂
        Aber ich kann es noch nicht ganz belassen, weil ich deinen Schritt in dem Beispiel noch nicht ganz nachvollziehen kann: Du sagst durch den Substratwechsel, der sicherlich eine neue Lebensform begründet, wäre es nicht mehr X, sprichst aber auch selbst weiter von X (nur in einer Form, in der wir es uns nicht vorstellen können). Man müsste wohl X befragen, ob es sich als geistige Einheit mit seinem früheren X-Ich empfindet, um zu wissen, ob es noch X ist, aber angenommen er/sie/es würde die Frage bejahen: Dann wäre das Substrat doch eigentlich überflüssig für sein Sein, praktisch für unser Verständnis, aber nicht notwendig. Eine Intelligenz OHNE Substrat klingt zwar denkbar, aber vielleicht ist sie es tatsächlich nicht.
        Noch eine andere Frage zu „[…] Eine Netzwerk-KI hat irgendein Substrat, weil sie irgendwie gezeugt ist […]“: du beziehst das hier explizit auf die KI, oder? Weil so eine KI von Menschen/Außerirdischen direkt oder indirekt (über ein Programm) gezeugt wurde, muss sie ein Substrat haben, da wir nicht anders schaffen können. Ist das so gemeint?
        Jetzt muss ich einmal ein bisschen etwas über Thomas Nagel lesen, da ich DIESEN wohl nicht kenne (dafür einen anderen gleichen Namens, aber der hat mit Philosophie eher nichts zu tun)

        Like

        1. Du hast halt zielsicher die offene Flanke meiner Argumentation gefunden. Ich hatte die Option, das nicht zu erläutern oder es so ausführlich zu machen, dass es den Artikel sprengt. *gg*

          Zu den Fragen: Wir müssten X‘ (um das Bewusstsein in der Maschine von dem Menschen X sprachlich zu trennen) in der Tat zu dem Thema befragen. Da wir das nicht können, sind meine Überlegungen natürlich nur wohlüberlegte Spekulation. Es ist auch naheliegend zu sagen, X‘ wird eine Kontinuität herstellen. Ich halte es aber auch für wahrscheinlich, dass er sich „wie neu geboren“ oder sogar „wie ein neuer Mensch“ oder „neu geboren“ etc. fühlt. So ähnlich wie Menschen, die ein Erweckungserlebnis haben und ihr Leben daraufhin radikal ändern und nun eben „ein anderer Mensch“ sind. Nur dass es in diesem Fall noch radikaler wird, weil sich das mit dem „Menschsein“ auch erübrigt hat.
          Von daher war meine Bezeichnung von X, der durch die Netzwerke huscht, einfach unsauber formuliert und man müsste es zumindest X‘ nennen.
          Egal wie die KI X‘ aber Frage beantwortet, bleibt die Tatsache bestehen, dass unsere KI ein Substrat hat. Die Frage hat auch Relevanz: Wenn ich recht habe und die Tatsache des Codes das Substrat der KI ist, dann bekommt die Frage, was man mit Code tun darf, nämlich erst ihre ethische Relevanz. Aus dem Substrat ergeben sich keine moralischen Ansprüche, aber sobald ich moralische Ansprüche zubillige, kann ich diese nur angemessen bewerten, wenn ich verstehe, was die KI wesentlich ist (also ihr Substrat – das kann ja durchaus ne komplexe Sache sein – „Menschsein“ als Substrat ist auch nicht so einfach)
          Was die letztere Frage angeht: Ja. Ich will nicht ausschließen, dass eine KI irgendwie vom Himmel fallen kann, so wie biologisches Leben irgendwie mal vom Himmel gefallen ist. Auch dann müsste es meiner Ansicht nach aber ein Substrat geben. Substrat ist für unsere menschliche Form der Wahrnehmung der Welt notwendig (und das ist in der Tat eine Setzung, die ich nicht weiter begründen kann aber für plausibel halte). Die Veranschaulichung ist zugegebenermaßen blöd, weil es potentiell Genesis und Geltung verwechselt. Ich hoffe, das ist aber allein meiner beschränkten Vorstellungskraft geschuldet.

          Zu Nagel: Die Fledermaus ist immer wieder schön, gibt es auf englisch hier:

          Klicke, um auf nagel_bat.pdf zuzugreifen

          und auf deutsch hier:
          https://tu-dresden.de/gsw/phil/iphil/theor/ressourcen/dateien/braeuer/lehre/qualia_debatte/nagel_fledermaus?lang=en

          Gefällt 1 Person

          1. „Tatsache des Codes als Substrat“ – (meines Rätsels Lösung!) das hatte ich vorhin wahrscheinlich überlesen oder es wird mir erst jetzt klar, wo du es so deutlich noch einmal sagst.
            Übrigens, müssten wir wohl gar nicht in irgendeine SF Realität reisen, sondern nur den Schmetterlingen eine Sprache lehren, denn die machen ja tatsächlich eine komplette Metamorphose durch. Und jetzt führe ich mir mal die Fledermaus (?) zu Gemüte …

            Like

Datenschutzhinweise: Die Kommentarangaben werden an Auttomatic, USA (die Wordpress-Entwickler) zur Spamprüfung übermittelt und die E-Mailadresse an den Dienst Gravatar (Ebenfalls von Auttomatic), um zu prüfen, ob die Kommentatoren dort ein Profilbild hinterlegt haben. Zu Details hierzu sowie generell zur Verarbeitung Ihrer Daten und Widerrufsmöglichkeiten, verweisen wir Sie auf unsere Datenschutzerklärung. Sie können gerne Pseudonyme und anonyme Angaben hinterlassen.