Quels pays n'ont jamais été entièrement colonisés par la France ?
La France a été l'un des plus grands empires coloniaux de l'Histoire, s'étendant sur plusieurs continents. Pourtant, certains pays n'ont jamais été colonisés par elle ! Peux-tu tous les citer ?
Attention seul les pays entièrement coloniser compte.