Der Ausdruck "sie haben ein Recht auf eine Kolonie bekommen" bezieht sich historisch auf die Zeit des Kolonialismus, als europäische Mächte und andere Nationen das Recht beanspruchten, Gebiete in anderen Teilen der Welt zu erobern und zu kontrollieren. Dieses "Recht" wurde oft durch internationale Abkommen, Verträge oder durch die Aner anderer Kolonialmächte legitimiert. Es bedeutete, dass eine Nation offiziell die Erlaubnis oder das Mandat erhielt, ein bestimmtes Gebiet zu kolonisieren und zu verwalten. Dies führte häufig zur Ausbeutung und Unterdrückung der einheimischen Bevölkerung und hatte weitreichende negative Folgen für die betroffenen Regionen.