Antropocentrismo

Definiciones > Antropocentrismo


El antropocentrismo es la creencia de que los seres humanos son la entidad más importante del universo. El antropocentrismo interpreta o considera el mundo en términos de los valores y experiencias humanas.

https://en.wikipedia.org/wiki/Anthropocentrism

El antropocentrismo considera a los seres humanos como dioses, al menos, en comparación con otros seres sentientes como los animales no humanos.