Definiciones > Antropocentrismo
El antropocentrismo es la creencia de que los seres humanos son la entidad más importante del universo. El antropocentrismo interpreta o considera el mundo en términos de los valores y experiencias humanas.
https://en.wikipedia.org/wiki/Anthropocentrism
El antropocentrismo considera a los seres humanos como dioses, al menos, en comparación con otros seres sentientes como los animales no humanos.