Het belangrijkste uitgangspunt van ARLPCG is dat RL agents getrained op een vast portfolio aan levels minder robuust zijn voor verandering. Hun prestaties zijn buitengewoon voor de getrainde levels, maar nieuwe omgevingen vormen een obstakel. Daarom koppelen ze de trainer met een generator. De generator voorziet nieuwe levels gedurende het trainingsproces waardoor de agents met alle mogelijke scenario’s geconfronteerd worden. Niet alleen de agents doorgaan een trainproces, ook de generator leert wat geldige levels zijn.