Yann LeCun will den AGI-Begriff abschaffen
Neues Paper (Columbia/NYU) schlägt 'Superhuman Adaptable Intelligence' (SAI) statt AGI vor — mit formalerer Definition.
Ein Paper von Forschern der Columbia University und NYU, darunter Yann LeCun (Meta Chief AI Scientist), argumentiert formal, dass AGI ein unterdefiniertes Konzept ist.
Kernargument: Menschliche Intelligenz ist nicht "allgemein" — sie ist hochspezialisiert und durch Evolution auf spezifische Probleme optimiert. Der No-Free-Lunch-Theorem-Bezug ist explizit: Kein System kann in allen Domänen gleichzeitig optimal sein.
Vorschlag: "Superhuman Adaptable Intelligence" (SAI) — ein System, das sich schneller als Menschen an neue Domänen anpassen kann, ohne den Anspruch auf universelle Kompetenz.
Implikation für die Forschung: Wenn wir AGI falsch definieren, optimieren wir Benchmarks, die nichts messen. SAI verschiebt den Fokus auf Transfer-Learning und Adaptionsgeschwindigkeit.