Femmes en France
De Wikipedia, l'encyclopédie encyclopedia
Le rôle des femmes en France a changé tout au long de l'histoire. En 1944, les femmes françaises obtiennent le droit de vote. Comme dans les autres pays occidentaux, le rôle des femmes a connu de nombreux changements sociaux et juridiques entre les années 1960 et 1970. Le féminisme français, qui tient ses origines de la Révolution française, a été influent au cours du XXe siècle par sa contribution au corpus théorique, en particulier à travers les travaux de Simone de Beauvoir.