Feminizm (łac. femina – kobieta) zgodnie z definicją to:
- ruch dążący do społecznego, prawnego oraz politycznego równouprawnienia kobiet, który powstał podczas rewolucji francuskiej w 1789 r.;
- w medycynie: zewnętrzne cechy kobiece u mężczyzn np. brak zarostu, delikatna skóra itp.