Systeem dat tekst opbreekt in kleinere eenheden (tokens) die een AI-model kan verwerken. Dit kunnen woorden, delen van woorden of leestekens zijn.
Het vermogen van een AI om taken uit te voeren waarvoor het niet specifiek is getraind, door bestaande kennis toe te passen op nieuwe situaties.