Suivez le portail aquariophile:

Définition de anatomie

Que signifie anatomie ?

Définition anatomie

Par anatomie, on définit l'étude scientifique de l'organisation des êtres vivants, ainsi que des relations entre leurs diverses composantes.

On distingue :l'anatomie animale et l'anatomie végétale;l'anatomie descriptive macroscopique qui renseigne sur l'anatomie d'un organisme;l'anatomie descriptive microscopique qui étudie les structures à l'échelle cellulaire. Elle comprend la cytologie et l'histologie;l'anatomie du développement qui décrit les transformations d'un organisme de sa conception à son vieillissement;l'anatomie comparée qui s'attache à montrer les homologies et analogies entre différentes espèces;l'anatomie fonctionnelle.
Le spécialiste de l'anatomie est l'anatomiste.

La desmologie est une partie de la la science de l'anatomie qui traite des ligaments.

Type : nom commun. Genre : féminin.
Traduction anatomie en anglais : anatomy.

Revoir la définition anatomie ... La définition ANATOMIE a été vue 5562 fois. Publié le 04/11/2011. Modifié le .
Commentaires (via Disqus)