.

quinta-feira, 9 de junho de 2011

Definição de Anatomia

Definição de Anatomia: "Anatomia é uma coisa que os homens também têm, mas que, nas mulheres, fica muito melhor."

0 comentários:

Postar um comentário

Compartilhar

Twitter Delicious Facebook Digg Stumbleupon Favorites