RADIO "PONCHOSVERDES.FM"

jueves, 14 de abril de 2016

¿Qué significa androcentrismo?

El androcentrismo es la visión del mundo que sitúa al hombre como centro de todas las cosas.
Esta concepción de la realidad parte de la idea de que la mirada masculina es la única posible y universal, por lo que se generaliza para toda la humanidad, sean hombres o mujeres.
El androcentrismo conlleva la invisibilidad de las mujeres y de su mundo, la negación de una mirada femenina y la ocultación de las aportaciones realizadas por las mujeres.

por Cecy Méndez Bejarano

No hay comentarios.:

Publicar un comentario