Früher wurden für KI-Modelle große Menge an (manuell) annotierten Trainingsdaten benötigt („supervised learning“). Die Folge: hochspezialisierte Modelle die eine bestimmte Aufgabe erledigen können – in vielen Bereichen besser als Menschen. Die nächste Generation von KI-Modellen ist anders und wird mit Hilfe von unfassbaren Mengen an nicht-annotierten Daten einmalig trainiert und anschließend nur noch auf die jeweilige Aufgabe gefinetuned. Aleph Alpha baut diese Art von Modellen und arbeitet daran, sie multimodal zu trainieren. So erlernen diese Art der Modelle u.a. ein deutlich verbessertes „Verständnis“ der Welt, unterschiedliche Sprachkonzepte, eine neue Form der Verknüpfung von relevantem Wissen bis zu einer moralischen Grundausrichtung. Doch was bedeutet das für den praktischen Umgang mit Wissen und die Zukunft in der Erschließung von Wissen? |