Western: significato e traduzione - Studentville

Western: significato e traduzione

Cosa vuol dire western: scopriamo insieme il significato del termine e tutte le sue possibili declinazioni.

Cosa significa western? Tutto quello che c’è da sapere sul genere cinematografico che ha fatto la storia.

Significato di western

L’aggettivo western (derivato dall’inglese west, ovest)  può essere letteralmente tradotto con ‘occidentale, ‘di ponente’, ‘dell’ovest’. Generalmente riferito alle regioni occidentali degli Stati Uniti e del Canada, l’aggettivo è divenuto sinonimo del genere cinematografico tradizionalmente ambientato in quelle terre (il cosiddetto vecchio West) ed incentrato sulla vita di pionieri, indiani, fuorilegge, sceriffi e cow-boy (film western – genere western).

Film western americani

Il mito del Selvaggio West, terra di frontiera abitata da cowboys, pellerossa e pionieri alla ricerca dell’oro, viene diffuso dallo spettacolo portato in giro per il mondo da Buffalo Bill a partire dal 1883. Nei primi anni del XX secolo, iniziano quindi a comparire i primi film western: capostipite del genere è senza dubbio “The Great Train Robbery”, film muto diretto da Porter e proiettato nel 1903. L’età d’oro del film western inizia tuttavia sul finire degli anni ’30, con le opere di John Ford e Howard Hawks. Vere e proprie icone del western sono i cappelli dei cowboy, gli speroni, le pistole, i duelli, il Winchester, il whisky e il poker. Cowboy e pistoleri hanno generalmente un ruolo di primo piano. Soggetti ricorrenti sono poi i combattimenti con gli indiani, i viaggi delle carovane e le bande di fuorilegge che terrorizzano piccole città. Nel western, generalmente caratterizzato da dialoghi semplici, molto importanti risultano inoltre le ambientazioni: gli angoli più remoti dell’Arizona, dello Utah, del Nevada, del Colorado o del Wyoming, con i loro panorami mozzafiato, non fungono da semplice sfondo alle vicende, ma vengono utilizzati per enfatizzare gli stati d’animo dei protagonisti, diventando elemento portante del racconto. Grazie al contributo di registi come Ford, Hawks, Raoul Walsh ed Anthony Mann, il western diventa il genere americano per eccellenza ed inizia ad esplorare temi universali quali i conflitti tra la natura e la civiltà, il rapporto tra libertà individuale e la Legge, il concetto di frontiera e via dicendo.

Film western italiani

Tra gli anni sessanta e settanta nasce quindi il filone italiano degli Spaghetti-western, inizialmente caratterizzato da budget ridotti, uno stile minimalista e un maggior ricorso alla violenza rispetto alle pellicole hollywoodiane. Nonostante l’iniziale diffidenza, negli anni ottanta il filone del Western all’italiana viene fortemente rivalutato dalla critica (soprattutto grazie al regista Sergio Leone) tanto da arrivare a reinventare i canoni del genere. Con i termine western non ci si riferisce tuttavia esclusivamente ad un particolare tipo di film. Negli anni, infatti, il genere ha influenzato numerose arti, dalla letteratura ai fumetti, passando per il teatro, l’opera lirica, la pittura e la scultura, fino agli spettacoli televisivi e radiofonici.

Leggi anche: 

  • Italiano

Ti potrebbe interessare

Link copiato negli appunti