Apres avoir visionné une émission américaine sur la WW1 et surtout sur le corps expéditionnaire américain, je me suis demandé si les US on permis de gagner la guerre?
ce reportage n'étant pas récent, j'ai l'impréssion qu'ils ont fortement augmenté l'importance de l'armée américaine en france.
qu'en est 'il réelement?
l'intervention US a t'elle été décisive pour les alliés?
ce reportage n'étant pas récent, j'ai l'impréssion qu'ils ont fortement augmenté l'importance de l'armée américaine en france.
qu'en est 'il réelement?
l'intervention US a t'elle été décisive pour les alliés?