La respuesta correcta para esta pregunta abierta es la siguiente.
Desafortunadamente, se te olvidó mencionar a qué etapa de Alemania te refieres o a qué momento de su historia.
¿Te refieres a su posición después de la 1ra. Guerra Mundial? ¿Te refieres a su posición después de la 2a. Guerra Mundial?
¿A qué te refieres?
Sin embargo, con el deseo de ayudarte, asumimos que se trata de la posición que asumió Alemania después dela 1ra. Guerra Mundial.
Cuando concluye la 1ra. Guerra Mundial, la victoria correspondió a los Aliados. Francia y Gran Bretaña obligan a Alemania a firmar el Tratado de Versalles para dar por concluidas las hostilidades de la guerra. Pero los términos del pacto ni fueron nada favorables para Alemania,
Durante las negociaciones del Tratado, el Presidente de los Estados Unidos. Woodrow Wilson, había propuesto un Plan de 14 puntos para asegurar una paz duradera en Europa. Sin embargo, Francia y Gran Bretaña lo rechazaron. Más que un pacto de paz, esas naciones Europeas querían venganza. Por esa razón obligaron a los Alemanes a pagar mucho dinero por los daños causados durante la guerra. Además, les quitaron parte de su territorio.
Alemania quedó muy mermado. Esa debilidad fue la que al paso de los años, hizo que surgiera la autoritaria figura de Adolfo Hitler y el Partido Nazi, que sólo pensaban en vengarse de lo que hacía sucedido, y tiempo más tarde, Hitler iniciaría la Segunda Guerra Mundial cuando invade Polonia en 1939.