Você já deve ter ouvido falar na palavra empoderamento, ou no mínimo, já conviveu com pessoas consideradas empoderadas, ainda que não tenha notado ou relacionado elas a este termo. Mas a final, o que isso significa? Empoderar-se é o ato de tomar poder sobre si, ações tomadas por mulheres que não se deixam ser inferiorizadas pelo seu