Gerade habe ich die Künstliche Intelligenz ChatGPT gefragt, ob es Werke von Michelangelo in Belgien gibt. Das ist insofern eine triviale Frage, weil die einzige Skulptur von Michelangelo nördlich der Alpen in der belgischen Stadt Brügge in der Liebfrauenkirche steht und die Zuschreibung an Michelangelo nicht bestritten wird. Die davon abweichende Antwort der KI lautete:
Es gibt mehrere Werke von Michelangelo in Belgien. Eines davon ist die Skulptur „Madonna mit dem Kind“ (auch als „Madonna des Belvedere“ bekannt), die sich im Musées Royaux des Beaux-Arts de Belgique in Brüssel befindet. Es ist eine Kopie einer Marmorskulptur, die Michelangelo im 16. Jahrhundert geschaffen hat. Es gibt auch mehrere Zeichnungen von Michelangelo in der Sammlung des Königlichen Museums für Kunst in Antwerpen. Es wäre möglich, dass es noch weitere Werke von Michelangelo in belgischen Museen gibt, aber ich habe keine Informationen darüber. Ich empfehle Ihnen, die Webseiten der Museen zu überprüfen oder die Museen direkt zu kontaktieren, um genauere Informationen zu erhalten.
Das macht einen fassungslos. Die Madonna des Belvedere ist ein berühmtes Gemälde von Raffael und befindet sich, wie der Name schon andeutet, in Wien.
Das Museum der Schönen Künste in Brüssel besitzt keine Skulptur von Michelangelo und auch keine Kopie der Madonna mit dem Kind, nur späte Kopien nach Kunstwerken von Michelangelo.
Also habe ich die KI noch einmal gefragt: Gibt es nicht auch eine Skulptur von Michelangelo in Brügge? Antwort der KI: „Es gibt keine bekannte Skulptur von Michelangelo in Brügge. Das bekannteste Werk von Michelangelo in Belgien ist die Skulptur „Madonna mit dem Kind“, … die sich im Musées Royaux des Beaux-Arts de Belgique in Brüssel befindet“.
Da fragt man sich, auf welchen Texten das implizite Wissen der KI basiert. Assoziiert sie einfach? Ich weiß es nicht. Wenn man so leicht auf eine Fehlinformation stößt, was ist das System dann wert? Zumindest Lehrende können beruhigt sein. Derartig grobe Fehler fallen sofort auf.