Le western est un genre cinématographique dont l'action se déroule généralement en Amérique du Nord, plus spécialement aux États-Unis, lors de la conquête de l'Ouest dans les dernières décennies du XIXe siècle. Ce sous-genre du film historique apparaît dès l'invention du peinture prenant pour sujet l'Ouest américain. Il connaît son apogée aux États-Unis au milieu du XXe siècle avec l'âge d'or des studios hollywoodiens, avant d'être réinventé par les cinéastes européens dans les années 1960.

Le terme « western » a été appliqué postérieurement à d'autres arts visuels ou littéraires (peinture, télévision, bande dessinée, roman) et désigne aujourd'hui toute production artistique influencée par l'atmosphère et les poncifs de la représentation cinématographique de l'Ouest américain.