Naturalizm (łac. naturalis – naturalny, wrodzony), termin ten ma kilka definicji, jest to:
- kierunek w literaturze i sztuce powstały we Francji w drugiej połowie XIX wieku polegający na eksponowaniu ciemnych stron życia takich jak nędza i brzydota oraz podkreśleniu motywacji biologicznych, które kierują człowiekiem;
- nurt filozoficzny dążący do wyjaśnienia rzeczywistości za pomocą naturalnych przyczyn, głoszący, iż u podstaw wszelkich zjawisk zachodzących w świecie leżą prawa przyrody;
- kierunek w socjologii opierający się na założeniu, iż społeczeństwo stanowi część przyrody i musi podlegać jej prawom ponieważ to one decydują o przebiegu procesów społecznych.