Il rispeakeraggio televisivo per sordi

Per una sottotitolazione mirata del TG

By Carlo Eugeni (Università di Bologna, Italy)

Abstract & Keywords

English:

Respeaking is a technique increasingly used by broadcasters to subtitle real-time programmes for the deaf and hard-of-hearing. However, academic and scientific research in the field is still in its infancy. The main aim of this article is to provide guidance to operators wishing to produce quality subtitles for a specific kind of TV viewers, prelingual deaf. After analysing in some depth the multifaceted aspects of respeaking, the needs and expectations of the target audience is examined. To do so, it has been necessary to test the linguistic competences and the reading skills of a focus group. This has lead to the draft of some guidelines that have proved helpful in the professional setting of respeaking.

Italian:

Il rispeakeraggio è una tecnica di sottotitolazione molto recente, ma che sta ormai diventando sempre più parte integrante della vita quotidiana delle televisioni di tutto il mondo. Tuttavia, la ricerca accademica e scientifica in questo settore è ancora nella sua fase embrionale. L’obiettivo del presente articolo è la redazione di norme in grado di permettere a ogni operatore di produrre sottotitoli comprensibili a un pubblico ben definito, in questo caso i sordi prelinguali. Dopo aver trattato il rispeakeraggio nelle sue varie sfaccettature verrà approntata una disamina che si vuole il più possibile esaustiva delle esigenze del pubblico individuato, attraverso un’analisi dettagliata delle competenze linguistiche e della velocità di lettura del focus group grazie al quale è stato possibile portare a termine la ricerca in oggetto in questo articolo.

Keywords: respeaking, sdh, television, subtitling for deaf and hard-of-hearing, rispeakeraggio, televisione, sottotitoli televisivi per i sordi

©inTRAlinea & Carlo Eugeni (2007).
"Il rispeakeraggio televisivo per sordi Per una sottotitolazione mirata del TG", inTRAlinea Vol. 9.
This article can be freely reproduced under Creative Commons License.
Stable URL: http://www.intralinea.org/archive/article/1638

1. Introduzione[1]

Prima di introdurre il rispeakeraggio[2] è forse necessario premettere che la sottotitolazione è nata con l’obiettivo di tradurre pellicole cinematografiche straniere nella lingua del paese o della regione in cui queste erano proiettate. Con l’avvento del teletext negli anni Settanta, è stato possibile utilizzare questa tecnica anche per l’accessibilità dei sordi ai programmi televisivi preregistrati (principalmente film, serie televisive e documentari)[3]. Con il passare del tempo, la comunità sorda ha chiesto di poter accedere anche ai programmi in diretta (principalmente telecronache e TG). Per soddisfare questa richiesta si è inizialmente fatto ricorso alla stenotipia[4]. Più recentemente[5], per motivi di carattere tecnologico, economico e legislativo[6], si è iniziato a cercare altre tecniche per la produzione di sottotitoli in diretta[7]. Attualmente, la tecnica che più concorre con la stenotipia è il rispeakeraggio, cioè

una riformulazione, una traduzione o una trascrizione di un testo orale [...], prodotta (oralmente da un sottotitolatore) ed elaborata dal computer in contemporanea [...] con la messa in onda del programma che si intende sottotitolare. Il software di riconoscimento del parlato procede alla trasformazione dell’input orale in testo scritto. (Eugeni 2006)

Il testo scritto viene poi proiettato, a seconda dell’interfaccia utilizzata dal software per la sottotitolazione in tempo reale, sottoforma di blocchi (modalità di proiezione pop-on) o parola per parola da destra verso sinistra e dal basso verso l’alto (modalità di proiezione roll-up).

La differenza maggiore con la sottotitolazione per sordi di programmi preregistrati risiede nel genere del programma da sottotitolare. Come si è brevemente accennato prima, la sottotitolazione preregistrata si occupa di programmi che non sono in diretta, i cui testi sono stati preparati e successivamente montati. Le caratteristiche tipiche di un testo audiovisivo preregistrato tenderanno quindi ad assomigliare maggiormente al testo scritto stereotipico, mentre il testo audiovisivo in diretta conterrà più caratteristiche dell’orale (false partenze, autoriformulazioni, pause piene, una minore densità lessicale, maggiore ridondanza, ecc.)[8]. Una terza macro-categoria di testo audiovisivo è rappresentata dai cosiddetti programmi in semi-diretta[9]. Programmi come i notiziari e manifestazioni particolarmente prestigiose come l’Angelus domenicale, il Festival della Canzone Italiana o la Notte dei Telegatti si svolgono in diretta, ma i testi enunciati dai vari oratori sono stati preparati precedentemente. In questi casi, le peculiarità testuali saranno a cavallo tra il testo scritto e il testo orale, in quanto la lettura di un testo che è stato scritto comunque implica un ‘apporto di oralità’ (false partenze, pause piene, battute spontanee, tratti soprasegmentali), così come la scrittura dello stesso testo, che dovrà poi essere letto, implica un apporto di caratteristiche dello scritto (maggiore densità lessicale, subordinazione, ecc.). A seconda della disponibilità del testo, la sottotitolazione di questi testi sarà preregistrata o in diretta. Nel caso dei TG, i testi sono disponibili al sottotitolatore solo qualche minuto prima della messa in onda del programma e pertanto si tenderà a fare uso di strumenti per la sottotitolazione in diretta (rispeakeraggio o stenotipia), mentre negli altri casi si potrà ricorrere anche alla sottotitolazione preregistrata.

Un’altra differenza sostanziale tra la sottotitolazione in tempo reale e la sottotitolazione preregistrata sta nella tecnica utilizzata: la sottotitolazione di programmi preregistrati è effettuata precedentemente la messa in onda del programma sottotitolato, sovente con un anticipo sufficiente a un’accurata revisione della forma e del contenuto; i sottotitoli tramite rispeakeraggio vengono invece prodotti simultaneamente alla proiezione del programma da sottotitolare, con una revisione ortografica minima laddove possibile. Vista la rapidità con cui sono prodotti i sottotitoli in diretta, infatti, risulta difficile al rispeaker imitare la forma dei sottotitoli per sordi di programmi preregistrati (d’ora in avanti chiamati semplicemente sottotitoli preregistrati). A tal proposito, mentre, come afferma de Linde (1996), i sottotitoli preregistrati “highlight all slight interrelations between dialogue, written and visual, thus trying to reproduce sound information by means of non-acoustic elements while maintaining a spatio-temporal equilibrium with the images”, nel rispeakeraggio si tende a evitare l’uso delle didascalie che verbalizzano i tratti extra- e para-linguistici che caratterizzano il parlato. Come si vedrà in seguito, una possibile soluzione a tale mancanza è la riformulazione del testo di partenza in maniera da disambiguarne la forza illocutiva.

Da questa deriva un’ulteriore differenza tra la sottotitolazione preregistrata e il rispeakeraggio, le competenze professionali. Se il sottotitolatore convenzionale ‘si limita’ a produrre un testo comprensibile, rispettando il più possibile i crismi dettati dalla letteratura in materia, il rispeaker deve possedere anche altre competenze rispetto a quelle strettamente linguistiche necessarie al buon esito della sottotitolazione preregistrata. Prima di addentrarci nell’analisi delle competenze professionali, però, è forse opportuno precisare che la fase di produzione di sottotitoli tramite rispeakeraggio è duplice: l’uomo produce il ‘testo di mezzo’, ovvero la versione che il sottotitolatore vorrebbe che compaia sullo schermo il prima possibile; la macchina produce il testo di arrivo, ovvero la versione che compare sullo schermo, nei tempi e nei modi dettati dal software di riconoscimento del parlato in uso. In particolare, la macchina può commettere errori nel riconoscere l’eloquio dell’operatore per motivi dipendenti da quest’ultimo o dalla macchina stessa con conseguenti errori nel testo di arrivo e ritardi nella proiezione. Per evitare che questo si verifichi, il rispeaker dovrà possedere le seguenti caratteristiche che si riferiscono rispettivamente al processo traduttivo e alla forma del testo di mezzo:

  • Psico-cognitive: il rispeaker deve simultaneamente ascoltare e comprendere il testo di partenza ed elaborare e produrre il testo di mezzo[10] nei limiti spazio-temporali dettati dalla tipologia di sottotitoli da produrre;
  • Fonetiche: il rispeaker deve pronunciare le singole parole nella maniera più chiara possibile onde evitare ‘malintesi’ con la macchina.

Queste competenze sono di carattere assoluto, valgono cioè per ogni rispeaker in ogni occasione[11]. Per quanto riguarda le caratteristiche che il contenuto del prodotto, il testo di arrivo, invece, la scarsa letteratura in materia non fornisce strumenti utili alla redazione di linee guida per il buon esito della sottotitolazione in diretta. Sempre in ambito di ricerca, nonostante la BBC occupi il primo posto al mondo in materia di sottotitolazione in diretta[12], la responsabile del servizio di rispeakeraggio dell’agenzia che produce sottotitoli per la BBC, RedBee Media, dice chiaramente che non è stata condotta una ricerca sistematica sulla produzione e/o sulla ricezione dei sottotitoli da loro forniti (Marsh 2005). Tuttavia, alcune indicazioni sono proposte da ITC[13] che, nella sezione dedicata agli aspetti linguistici del documento di raccomandazioni volto a tutte le emittenti britanniche, prima introduce il concetto di “idea unit” cioè “where a proposition or key information is given” (Ofcom 1999) e poi suggerisce in generale di “reduce the amount of text by reducing the reading speed and removing unnecessary words and sentences; Represent the whole meaning”. In particolare, il rispeaker deve assicurarsi che “subtitles should contain a reasonable percentage of the words spoken”, che queste ‘unità concettuali’ “appear as a good percentage of the original” e che pertanto, da parte sua, risulta necessario “avoid ‘idea units’ which are unnecessary or different from the original”. A fare eco a queste parole è la stessa Marsh che, parlando di editing nel rispeakeraggio, afferma:

The news and the parliamentary sessions, being particularly fast, you have to go along with them. While, if you subtitle sport, the idea is that you describe the action you can see on the screen so you do not need to speak all the time. We chose to edit much more with sport events than with the news or the parliament. (2005)

Da queste brevi ma illuminanti parole, si evince chiaramente che la situazione deve variare a seconda del genere televisivo da sottotitolare. Ciononostante, dall’analisi delle migliori prassi[14], si evince che quasi ogni emittente televisiva, BBC compresa, provvede a una sottotitolazione pressoché verbatim. Solo l’emittente di lingua nederlandese NOB[15] fornisce una versione ridotta del testo di partenza. Oltre che per fattori tecnici dovuti all’alta velocità di eloquio del testo di partenza e la conseguente difficoltà di resa simultanea riscontrata dai sottotitolatori olandesi, la ragione di tale riduzione del testo di partenza è dettata anche da fattori dovuti alla leggibilità[16] del testo di arrivo da parte del bacino di utenza della NOB, composto essenzialmente da sordi. A questo punto, appare forse necessario completare il quadro delle competenze professionali di un rispeaker con una terza tipologia:

  • Sintetiche: nei casi di elevata velocità del testo di partenza[17] o di necessità specifiche dettate dal cliente, il rispeaker dovrà operare una sintesi quali- quantitativa del testo di arrivo in modo da garantirne la leggibilità.

Ampliando e approfondendo la definizione data, le competenze sintetiche dipendono da due fattori principali, il genere testuale da sottotitolare e la tipologia di pubblico per cui si sta sottotitolando. Visto che l’obiettivo del progetto SALES qui in esame è il rispeakeraggio del TG della RTV a favore dei sordi prelinguali della zona, ci si concentrerà maggiormente sulle competenze linguistiche di questi ultimi, senza quindi considerare il seppur interessante aspetto multimodale.

1.1. Il bacino di utenza

Tenere in considerazione il pubblico di destinazione è uno degli aspetti che maggiormente influenza la produzione di sottotitoli, soprattutto se progettati per scopi speciali. Secondo Nord (2000),

The idea of the addressee the author has in mind is a very important […] criterion guiding the writer’s stylistic or linguistic decisions. If a text is to be functional for a certain person or group of persons, it has to be tailored to their needs and expectations. An “elastic” text intended to fit all receivers and all sorts of purposes is bound to be equally unfit for any of them, and a specific purpose is best achieved by a text specifically designed for this occasion.

Alla luce delle competenze descritte nel paragrafo precedente, risulta chiaro che, in materia di rispeakeraggio, sono il tempo di permanenza dei sottotitoli sullo schermo e la qualità e quantità della riformulazione da parte del rispeaker ad essere maggiormente influenzati dalle competenze linguistiche dell’utenza finale. Ecco quindi che un’introduzione alla sordità in generale e al potenziale bacino di utenza della RTV in particolare sembra opportuno.

La sordità è un concetto molto complesso e che spesso viene confuso con la semplice carenza di udito. In realtà i fattori sono numerosi e molto diversificati gli uni dagli altri. Dal punto di vista prettamente medico, la sordità si definisce in base a fattori come:

  • la quantità calcolata in decibel di udito perduto (20-40 = lieve, 40-70 = media, 70-90 = grave, >90 = profonda);
  • la qualità della ricezione del residuo di udito;
  • la capacità da parte del soggetto di distinguere i suoni percepiti da altri suoni affini;
  • l’età in cui il soggetto ha perso l’udito: prima, durante o dopo l’apprendimento linguistico (sordità pre-/ peri-/ post-linguale).[18]

Poche persone sorde post-linguali tendono a rapportarsi e a identificarsi con gli altri sordi.

Inoltre, principalmente all’interno della comunità sorda pre- e peri-linguale severa o profonda, molti sono i fattori più specificamente culturali che possono incidere considerevolmente sulle competenze linguistiche di ciascuna di queste persone. Essi sono:

  • Il metodo linguistico con cui sono state educate (segnante o oralista);
  • La lingua madre o semplicemente quella predominante (Lingua dei Segni o lingua orale[19]/labiolettura o bilinguismo);
  • La comunità linguistico-culturale in cui si identificano (comunità dei Sordi[20] o comunità degli udenti)

In termini demografici, la percentuale di persone medicalmente considerate audiolese in Europa varia dal 5 al 15% dell’intera popolazione[21]. In questo dato, rilevante è l’incidenza delle persone anziane presbiacusiche, che perdono cioè l’udito progressivamente e per ragioni dovute all’invecchiamento delle cellule dell’orecchio. Se si valutano invece solo coloro che hanno sviluppato una sordità severa o profonda in età pre-linguale o peri-linguale, il dato scende drasticamente allo 0,1% della popolazione. In Italia, di questo 0,1%, solo una parte si dichiara membro della comunità sorda segnante, mentre la maggior parte delle persone al di sotto dei trent’anni preferisce alla Lingua dei Segni Italiana, il metodo oralista[22]. Dal punto di vista linguistico, questa distinzione si traduce in due sottocategorizzazioni dei sordi:

  • i sordi segnanti, che parlano cioè la LIS come loro lingua madre e l’italiano come prima lingua straniera;
  • i sordi oralisti, che leggono, scrivono, parlano e, grazie alla labiolettura o ad ausilii tecnici[23], capiscono l’italiano, parlato o scritto a seconda dei casi.

Da questa breve disamina, risulta chiaro il significato delle parole di Nord circa un eventuale tentativo di soddisfare le esigenze di un bacino di utenza appartenente a una gamma di profili linguistici così vasta. Compito più semplice invece sembra essere delineare un profilo medio all’interno di una determinata sottocategoria linguistica. Sulla base di una ricerca che testi le competenze linguistiche di un campione il più possibile rappresentativo della sottocategoria in esame, sarà poi possibile fissare alcune linee guida per la produzione di sottotitoli accessibili alla sottocategoria linguistica di sordi scelta. Tuttavia, bisogna tenere in considerazione che optare per una categoria o per l’altra implica pesanti ripercussioni sul lavoro del sottotitolatore[24]. C’è infatti una sensibile differenza tra sottotitolare per persone che non riescono a sentire nessun suono del testo di partenza e che conoscono l’italiano come una lingua straniera e sottotitolare per un pubblico la cui lingua madre è l’italiano e che percepisce la quasi-totalità delle frequenze del parlato. Nel primo caso, la sottotitolazione è un ausilio dal forte impatto cognitivo e ‘traduttivo’, nel secondo caso, invece, il sottotitolo è un semplice strumento per controllare che la comprensione del testo orale sia stata accurata. Visto che l’obiettivo del progetto SALES è di rendere accessibili i programmi televisivi in diretta al maggior numero possibile di persone, la scelta della categoria su cui tarare i sottotitoli è caduta sulla comunità dei sordi segnanti prelinguali. Le ipotesi alla base di questa scelta sono state le seguenti:

  1. dal punto di vista linguistico, persone per cui l’italiano è una lingua straniera e che non riescono a percepire nessuna frequenza del parlato da prima che iniziasse il loro apprendimento della lingua materna orale si pongono al polo negativo del continuum rappresentato dalle sottocategorie dei sordi in materia di comprensione di un testo scritto (il sottotitolo);
  2. nonostante Nord (2000) dica chiaramente che un testo “elastico”, che abbia l’obiettivo di soddisfare le esigenze di molteplici tipologie di pubblico, non soddisfa le esigenze di nessuna tipologia, tarare la sottotitolazione di un programma televisivo su una categoria di persone che si pone al polo negativo del continuum in materia di comprensione di un sottotitolo potrebbe essere di utilità a tutte le altre sottocategorie, quanto meno in termini di comprensione del testo in questione. 

2. La ricerca

Come si è visto, per poter soddisfare le esigenze e le aspettative di una determinata tipologia di pubblico attraverso la produzione di sottotitoli mirati è necessario conoscere le competenze linguistiche di questa categoria. Il gruppo di ricerca incaricato di stabilire il profilo linguistico medio della sottocategoria dei sordi segnanti prelinguali è stato costituito da un ricercatore in materia di sottotitoli per sordi, un’interprete di lingua dei segni socio dell’ENS, un educatore di un istituto superiore per sordi, un’insegnate di sostegno delle scuole elementari e sei presidenti dei circoli ENS[25] delle province coperte da RTV.

Per quanto riguarda la costituzione del focus group, invece, una prima difficoltà è immediatamente emersa nel gestire l’eterogeneità dei volontari. La maggior parte di questi era sorda segnante prelinguale, ma alcuni segnanti non sapevano affermare con certezza quando avevano perduto l’udito. Altri segnanti ancora avevano perduto l’udito in età perilinguale. Una cospicua quantità di sordi inoltre non era segnante, ma aveva comunque perduto l’udito in età prelinguale. È stato dunque deciso di accettare, in un primo momento, ogni volontario, salvo poi collocare i suoi risultati in uno o più control group, qualora fossero sensibilmente discordanti dai risultati del resto del gruppo.

Dal punto di vista metodologico, inizialmente è stato analizzato in dettaglio il profilo sociale di ognuno e poi ne sono state testate le competenze linguistiche, sia in termini di comprensione dei testi che sono stati loro sottoposti, sia di velocità di lettura degli stessi. Visto il numero elevato dei volontari (197), è stato deciso di suddividere il focus group in piccoli gruppi, per lo più in base alla zona geografica di appartenenza[26], in modo da limitare gli spostamenti di ognuno. Il tutto è stato video-registrato con il consenso dei partecipanti in modo da poter monitorare in seguito le singole reazioni. Dai risultati è stato possibile delineare il profilo linguistico dell’utente tipo e conseguentemente ottenere le linee guida per un rispeakeraggio mirato.

2.1. Il profilo sociale

Come già anticipato, il primo passo dopo la costituzione del focus group è stato il tentativo di delineare il profilo sociale medio dell’utente sordo segnante. Per ottenere questo risultato, si è inizialmente spiegato al focus group il fine ultimo della ricerca in corso. Motivati dall’idea di contribuire attivamente e in maniera molto influente al risultato finale, i sordi che hanno preso parte alla ricerca hanno risposto alle domande[27] di un primo questionario per iscritto, nonostante la loro generale predilezione per l’uso della lingua dei segni. Dal questionario sono emersi molti dati personali interessanti che hanno contribuito a un primo orientamento della ricerca[28] e in particolare:

  • Età: l’età media del focus group è di 40.1 anni. 38 persone (19.29%) hanno tra i 20 e i 30 anni; 61 (30.96%) tra i 30 e i 40 anni; 58 (29.44%) tra i 40 e i 50; 26 (13.2%) tra i 50 e i 60; 13 (6,6%) tra i 60 e i 70. Completa il gruppo una signora di 93 anni (0.51%);
  • Anni di sordità: la maggior parte del focus group (178, corrispondente al 90.36%) dichiara di aver perso l’udito in età pre-linguale o peri-linguale o non ricorda esattamente. Non ricorda comunque di aver mai udito o parlato. Solo pochi ricordano di aver parlato, di cui 11 (5.58% del totale) dichiarano di aver perduto l’udito durante il loro secondo anno di vita, uno (0.51% del totale) di averlo perduto durante il terzo anno di vita, due (1.02% del totale) durante il quarto, quattro (2.05% del totale) durante il quinto e uno (0.51% del totale) durante il settimo anno di vita;
  • Grado di istruzione: nel 1880, il cosiddetto Consiglio di Milano stabilì che, da quel momento in poi, nelle scuole speciali per sordi il metodo da seguire per l’insegnamento avrebbe dovuto essere quello oralista e non più la lingua dei segni. Tuttavia, soprattutto durante il regime fascista, molta importanza continuava ad essere accordata alla LIS, che era usata in tutti i contesti para- ed extra-scolastici. Per tutto il corso degli anni Settanta, infine, si è compiuto il passaggio degli studenti sordi dalle scuole speciali alle scuole ‘normali’. Questi eventi hanno influito notevolmente sull’istruzione dei sordi perché, viste le maggiori difficoltà di un sordo rispetto a un normo-udente ad affrontare il percorso scolastico ed eventualmente universitario[29], la maggior parte dei sordi componenti il focus group si è limitata agli anni di scuola dell’obbligo imposti e in particolare: otto anni per le persone tra i 20 e i 40 anni circa, cinque per quelli tra i 40 e i 70 anni circa e tre anni di scuola dell’obbligo per la signora 93enne. Tuttavia, alcuni sordi, segnanti e oralisti, hanno continuato anche oltre la scuola dell’obbligo tanto che il 15.48% (13 persone) delle 84 persone tra i 40 e i 60 anni hanno frequentato anche le scuole medie inferiori (otto anni di istruzione) e il 26.26% (26 persone) delle 99 persone al di sotto dei 40 anni ha frequentato anche le medie superiori e due persone sono studenti universitari;
  • Lingua materna: Gli eventi sopra descritti circa l’evoluzione della scuola dell’obbligo per le persone sorde hanno inoltre creato una spaccatura profonda tra i sordi pre- e peri-linguali. In termini molto generali, visto che la frequentazione dei corsi si limitava agli anni della scuola dell’obbligo, mentre il resto della vita veniva spesso trascorso all’interno degli istituti o comunque all’interno della comunità sorda per cui la LIS risultava più naturale, le persone sorde con più di quarant’anni sono per lo più segnanti. I più giovani invece sono grosso modo suddivisi in due macro-categorie: sordi segnanti nati in famiglie di sordi e che hanno l’italiano come prima lingua straniera[30]; sordi oralisti che hanno l’italiano come lingua materna e che conoscono la LIS solo come prima lingua straniera o la ignorano completamente. Quanto al focus group, 118 (59.9%) persone sono sorde segnanti e sono nate da almeno un genitore sordo. 53 (26.9%) persone sono ugualmente madrelingua LIS, ma sono nati da genitori udenti. Infine, 26 (13.2%) sordi sono nati da genitori udenti e hanno l’italiano come lingua materna. Quanto al bilinguismo, 151 (76.65%) hanno dichiarato di utilizzare le due lingue indifferentemente, di cui 109 (72.19% del parziale) sono madrelingua LIS e i restanti 42 (27.81% del parziale) hanno acquisito la LIS solo in un secondo momento. Questi ultimi dichiarano in ogni caso di avere maggiori competenze in italiano che in LIS.

2.2. Le competenze linguistiche

Dopo aver identificato e discusso il profilo sociale del focus group all’interno del gruppo di ricerca, è stata anche esaminata la modalità con cui sarebbero stati condotti i test successivi volti alla comprensione delle reali esigenze linguistiche del focus group.

2.2.1. Metodologia

Per essere certi che i test risultassero utili a tale scopo, è stato adottato un doppio approccio: grazie a un approccio quantitativo, si sono potuti ottenere dati precisi circa la velocità di lettura dei singoli volontari e dati indicativi circa la percezione della loro comprensione del testo audiovisivo appena letto. Grazie a un approccio qualitativo[31], è stato possibile ottenere dati certi circa l’effettiva comprensione di un testo audiovisivo sottotitolato da parte dei singoli volontari.

Partendo dal presupposto che gli utenti di un prodotto audiovisivo sono “active producers of meaning” (de Certeau 1990) e che decodificano il testo a seconda del contesto socio-culturale in cui avviene la visione e della maniera in cui la vivono, è risultato immediatamente necessario avere un’idea più precisa dell’uso che l’utente avrebbe fatto del sottotitolo.

Per raggiungere tale scopo, è stato necessario individuare la tipologia di testo da utilizzare come materiale dell’esperimento, selezionarlo e infine sottotitolarlo compatibilmente con gli obiettivi della ricerca. Visto che il progetto SALES è nato con l’intento di trovare la migliore soluzione per sottotitolare intralinguisticamente i notiziari della RTV, la scelta del materiale è caduta inevitabilmente su alcuni estratti dei vari notiziari dell’emittente sammarinese. La selezione è stata poi effettuata in base a due criteri: le tematiche comunemente toccate dalla RTV (politica, economia, cultura, sport e cronaca locale) e i fini della ricerca. Come si è già visto, per ottenere delle linee guida in materia di sottotitolazione per sordi è necessario anche operare una riduzione del testo di partenza ai fini di una piena accessibilità del prodotto audiovisivo da parte del pubblico a cui questi sottotitoli sono destinati. Non sapendo in che termini operare tale sintesi, è stato necessario selezionare cinque notizie per ogni tematica, ognuna delle quali è stata sottotitolata secondo criteri di riformulazione[32] diversi. In particolare, si è optato per cinque livelli di difficoltà:

  • Difficoltà alta: trascrizione del testo di partenza;
  • Difficoltà medio-alta: riformulazione lessicale[33];
  • Difficoltà media: riformulazione lessicale e sintattica[34];
  • Difficoltà medio-bassa: riformulazione lessicale, sintattica e semantica[35];
  • Difficoltà bassa: riformulazione lessicale, sintattica e semantica con riduzione quantitativa del testo del 50%.

Prima di iniziare l’esperimento, è stato chiesto a tutti i sordi il permesso di videoregistrare l’intero esperimento. Una volta ottenuto il consenso da tutti, è stato spiegato loro il funzionamento del test. Al singolo volontario sarebbe stato chiesto di scegliere un argomento tra i cinque disponibili (politica, economia, cultura, sport e cronaca locale) e sarebbero poi stati mostrati loro i cinque filmati precedentemente sottotitolati e relativi all’argomento scelto. Per visualizzare il primo sottotitolo e la scena o parte di scena ad esso corrispondente, il volontario avrebbe dovuto semplicemente cliccare il tasto sinistro del mouse o la freccia in basso o a destra presente sulla tastiera del computer. Per continuare la lettura dei sottotitoli e la visione delle rispettive scene o parti di scena il volontario avrebbe dovuto ripetere l’operazione appena descritta fino alla fine del filmato tante volte quante erano le diapositive[36]. Quanto alla registrazione del tempo di lettura, il cronometro sarebbe partito nel momento in cui il volontario passava dal primo sottotitolo, contenente esclusivamente il titolo del filmato in questione (e nessuna immagine associata), al secondo, contenente la prima scena sottotitolata. Allo stesso modo, il cronometro sarebbe stato stoppato con il passaggio dalla penultima diapositiva, contenente l’ultima scena sottotitolata, all’ultima, contenente solo la parola ‘fine’.

Alla fine della visione di ciascun filmato, al volontario sarebbe stato chiesto se avesse compreso o meno il significato generale del testo audiovisivo appena visto dopodiché gli/le sarebbero state poste dieci domande di comprensione generale nella lingua di sua scelta (italiano o LIS). Solo i risultati (velocità di lettura e comprensione del testo) di chi avrebbe risposto correttamente ad almeno sei domande su dieci sarebbero stati presi in considerazione nella valutazione finale. Terminato il proprio turno e alla fine di tutti i test da parte dei volontari di un gruppo, si sarebbe passati a una discussione di gruppo tra il gruppo di ricerca e il focus group circa le difficoltà riscontrate e le relative possibili soluzioni.

2.2.2. I risultati

Dall’analisi quali-quantitativa è emerso che c’è un sensibile divario tra ciò che i singoli sordi dichiarano di aver compreso e ciò che hanno effettivamente compreso[37]. Per quanto interessante ai fini di una ricerca sulla percezione e la ricezione, questi dati non sono stati tenuti in grande considerazione. Lo scopo del test in esame era infatti la raccolta di dati interessanti sulla velocità di lettura di ciascuno e sulla sola comprensione del testo. A tal proposito, uno dei primissimi dati interessanti emersi è stata la sostanziale identità di approccio alla lettura e alla comprensione del testo da parte dei sordi segnanti pre-linguali, dei sordi peri-linguali e soprattutto dei sordi oralisti[38]. Le differenze riscontrate sono da attribuirsi alle abitudini in materia di lettura e al grado di istruzione[39] più che alla lingua materna[40]. Questo dato ha comportato la non esclusione degli oralisti e dei sordi peri-linguali dal focus group.

Per quanto riguarda più da vicino i dati, dopo aver scelto la tematica di suo maggiore interesse tra le cinque disponibili e aver visionato i cinque testi ad essa corrispondenti, ogni volontario ha risposto, in LIS o in italiano, a dieci domande di comprensione generale del testo ottenendo, per ogni grado di difficoltà, i seguenti risultati:

  • Difficoltà alta: solo 13 persone su 197 (il 6.6%) hanno risposto ad almeno sei domande su dieci. Si tratta perlopiù di persone abituate a utilizzare il servizio sottotitoli della RAI e di Mediaset e a vedere film in DVD, sotto i quarant’anni e con almeno 13 anni di istruzione. La velocità media di lettura è di 3.9 secondi per riga di sottotitolo talvolta accompagnata da subvocalizzazione udibile o da traduzione in segni di alcune parole del testo letto. Dopo i primi casi di subvocalizzazione e di traduzione in segni è stato esplicitamente richiesto a ciascuno di evitare questi atteggiamenti, suscettibili di compromettere la velocità di lettura. Tuttavia, soprattutto in questo livello di difficoltà, pochi sono riusciti a resistere alla tentazione. La giustificazione più volte addotta è stata la difficoltà di comprensione di alcune parole e strutture sintattiche.
  • Difficoltà medio-alta: 27 persone (13.71%) hanno risposto correttamente ad almeno sei domande su dieci. Come nel caso delle trascrizioni, si tratta di persone con un alto grado di istruzione e abitudini in materia di lettura favorevoli. Durante le interviste e la discussione in gruppo, è risultato inoltre chiaro che, anche in questo caso, la difficoltà di comprensione del testo, seppur inferiore rispetto al caso precedente, causava una certa frustrazione nei singoli soggetti e conseguentemente un rallentamento nella lettura del testo, aggravata, anche in questo caso, da subvocalizzazioni e traduzioni in segni percepibili nella maggior parte dei volontari. Gli errori più ricorrenti derivavano da una confusione generalizzata tra il soggetto e l’oggetto. La velocità media di lettura non si discosta molto dal dato precedente: 3.6 secondi per riga di sottotitoli.
  • Difficoltà media: in seguito alla riformulazione sintattica nei sottotitoli, 121 persone (61.42%) hanno risposto correttamente a una media di 7.4 domande su dieci. Si tratta di un dato straordinario che prova che uno dei fattori che maggiormente influiscono sulla comprensione del testo di partenza è il grado di complessità sintattica dello stesso. Parallelamente a questo dato, la velocità media di lettura è scesa a 2.74 secondi per riga di sottotitoli. Nessuno ha subvocalizzato in maniera percepibile e solo pochi hanno tradotto in segni alcune parole di cui non conoscevano probabilmente il significato.
  • Difficoltà medio-bassa: 154 persone (78.17%) hanno compreso il testo, rispondendo correttamente a una media di 8.3 domande su dieci e totalizzando una velocità media di lettura di 2.51 secondi per riga di sottotitoli. Anche in questo caso, nessuno sembra aver subvocalizzato o tradotto in segni il testo di partenza. Diversamente dal caso precedente, tutti hanno avuto l’impressione di aver capito il testo. Un elemento di cui ci si è subito rammaricati è stata l’impossibilità di constatare quanto la sola riformulazione semantica abbia influenzato la comprensione generale del testo. Intuitivamente, meno della riformulazione sintattica.
  • Difficoltà bassa: 163 persone su 197 (82.74%) hanno dimostrato di aver compreso il testo di partenza rispondendo a una media di 8.9 domande su dieci. Le restanti 24 persone hanno dichiarato di aver compreso il testo mentre leggevano, ma di aver dimenticato alcune informazioni in seguito a uno scarso interesse per la notizia e conseguentemente a una maggiore attenzione alla lettura del testo rispetto ai concetti. La velocità media di lettura è stata di 2.46 secondi per riga di sottotitoli.

2.2.3. Discussione

Da una prima rapida analisi dei risultati appena descritti è stato possibile trarre alcune considerazioni. Per quanto riguarda la comprensione del testo, risulta immediatamente chiaro che la trascrizione esatta del testo di partenza, richiesta a gran voce da tutte le associazioni in difesa dei sordi[41], non è la strada migliore per l’accessibilità dei notiziari. Sempre in termini di comprensione del testo, è altrettanto vero che nemmeno una riduzione quantitativa comporta un significativo miglioramento. Questo è valido sia dal punto di vista della percezione della comprensione del testo, sia da quello dell’effettiva comprensione. Piuttosto, a influire positivamente sulla comprensione del testo risulta essere una riformulazione sintattica, seguita da lontano dalle riformulazioni semantica e lessicale.

Quanto alla velocità di lettura, la media delle ultime tre tipologie di testo (riformulazione lessicale e sintattica, riformulazione lessicale, sintattica e semantica e riassunto del 50% del testo) si attesta attorno ai 2.5 e i 3 secondi per riga. In vista di una tendenza alla riformulazione sintattica come principio fondante della sottotitolazione per sordi all’interno del progetto SALES, questa dovrebbe essere la media da prendere generalmente in considerazione.

In seguito a un’analisi più approfondita dei risultati, fatta a partire dallo studio dei filmati, alcuni dati interessanti spiccano sugli altri. Dal punto di vista della comprensione del testo, è stato ulteriormente confermato il dato precedentemente riportato circa la sostanziale identità di approccio al testo da parte dei sordi segnanti e dei sordi oralisti. Inoltre, si è potuto osservare che sottotitoli che casualmente rispecchiavano la struttura morfo-sintattica della LIS erano più facili da leggere, rispetto ad altri sottotitoli che non presentavano questa caratteristica, sia per i sordi segnanti, sia per gli oralisti. Questo potrebbe significare banalmente che le lingue dei segni sono più semplici delle lingue orali e che semplificando sintatticamente queste ultime si ottiene la sintassi delle lingue dei segni. Quindi i sordi, segnanti e oralisti, farebbero meno fatica a leggere dei testi semplici rispetto a testi più complessi. Per quanto verosimile possa essere, questa ipotesi è in parte smentita dalla constatazione che nei casi in cui i sottotitoli non rispecchiavano la struttura della LIS, pur essendo semplificati sintatticamente, la lettura delle singole righe di sottotitoli risultava essere più lenta, probabilmente più macchinosa. Una chiave di lettura forse più esatta e in sintonia con eminenti studiosi del settore[42], potrebbe essere che le lingue dei segni, esattamente come le lingue orali, sfruttano appieno il potenziale comunicativo dei parlanti per esprimere qualsiasi tipo di concetto. Nel caso specifico, questo varrebbe per ogni tipologia di sordo, vale a dire ogni persona che percepisce il mondo attraverso un canale in meno rispetto ai normoudenti e che, di conseguenza, sfrutta maggiormente altri canali, in primis quello visivo. Indipendentemente dai meriti o demeriti della lingua dei segni, ai fini del progetto SALES questo dato ha permesso di ottenere un’indicazione chiara del tipo di riformulazione da operare quando si sottotitolano testi informativi per sordi: nei limiti imposti dalla grammatica e dalla pragmatica italiana, rispecchiare il più possibile la struttura morfo-sintattica della LIS costituisce, in termini di accessibilità, la migliore forma di sottotitolazione mirata.

Sempre osservando le riprese, è stato possibile ottenere dati interessanti anche circa la velocità di lettura. Se è vero che la velocità di lettura media oscilla, nel migliore dei casi, dai 2.5 ai 3 secondi per riga, una precisazione deve essere fatta a proposito del concetto di riga. È stato osservato infatti che sottotitoli costituiti da una sola riga erano letti a una media di 2.1 secondi, mentre sottotitoli costituiti da due righe erano letti a una media di 2.57 secondi per riga[43]. Intuitivamente, come sostengono d’altronde anche molti studiosi del settore[44], un dato contrario sarebbe più naturale. In altre parole, se è vero che per accorgersi dell’arrivo di un sottotitolo, e quindi per iniziare a leggerlo, un qualsiasi spettatore necessita di un certo lasso di tempo che va a sommarsi al tempo di lettura di ogni riga di sottotitolo, la deduzione logica vuole che più testo si trova in un unico sottotitolo, più veloce sarà la sua lettura rispetto alla stessa quantità di testo spalmata su due o più sottotitoli. Nel primo caso, sarà presente un solo tempo morto dovuto all’attesa, la presa di coscienza dell’arrivo e la messa a fuoco del sottotitolo in questione, mentre nel secondo caso, oltre alla velocità di lettura del testo, sono da considerare anche tanti tempi morti quanti sono i sottotitoli. Tuttavia, questa deduzione non sembra essere valida per il focus group in questione. Oltre al dato ufficiale circa la velocità di lettura di ogni sottotitolo, infatti, si è riscontrato che, in più di un’occasione, i volontari ricominciavano la lettura delle due righe di sottotitolo daccapo oppure si fermavano a metà della lettura o ancora si avvicinavano di più allo schermo, come se i caratteri si fossero improvvisamente rimpiccioliti. Una plausibile spiegazione può essere la maggiore difficoltà di gestire visivamente un sottotitolo di due righe rispetto a un sottotitolo di una solo riga. Durante la discussione finale, alcuni sordi hanno infatti lamentato la presenza di troppe parole nei sottotitoli, soprattutto in quelli di due righe. In questa confusione, molti hanno dichiarato di essersi persi e di aver scelto di continuare comunque la lettura per non perdere troppo tempo, mentre alcuni hanno scelto di ricominciare dall’inizio.

In conclusione, dalla lunga ricerca qui brevemente riportata sono emersi alcuni dati utili ai fini del progetto SALES e in particolare:

  • Dal punto di vista qualitativo, è necessaria una riformulazione quanto meno sintattica del testo di partenza;
  • Tale riformulazione deve essere operata tenendo in considerazione la struttura della LIS;
  • Dal punto di vista quantitativo, bisogna tenere in considerazione una velocità media di lettura di 2.5-3 secondi per riga di sottotitolo;
  • È preferibile un sottotitolo di una riga rispetto a un sottotitolo di due righe.

Se dal punto di vista della forma, la situazione sembra essere risolta una volta per tutte, resta ancora da chiarire il secondo punto: in che modo deve essere sintatticamente riformulato il testo di partenza? Risulta a questo punto scontato che il passo successivo, sebbene non previsto dal gruppo di ricerca, abbia dovuto essere una rapida analisi della struttura della lingua dei segni in contesto giornalistico di modo da ricavare alcune indicazioni precise circa la necessaria riformulazione da attuare.

2.3. L’analisi della LIS in contesto giornalistico

L’ultimo passo verso la produzione di linee guide per il rispeakeraggio del notiziario della RTV è stato caratterizzato da alcune prime difficoltà nella pianificazione del lavoro. Per quanto riguarda la scelta del materiale da analizzare, infatti, non c’è stato immediato accordo. Se, da una parte, sembrava scontato proporre l’analisi dell’interpretazione in LIS dei TG di RAI e Mediaset, visto che lo scopo del rispeakeraggio rispecchia proprio quello dell’interpretazione in LIS, sia l’interprete LIS, sia gli insegnanti che componevano il gruppo di ricerca hanno immediatamente sottolineato la differenza esistente tra l’uso fatto della LIS da parte dei sordi nei contesti di comunicazione spontanea e l’uso della LIS da parte degli interpreti simultanei al TG nazionale delle emittenti televisive italiane. In particolare, è stata messa in risalto proprio la diversa struttura sintattica seguita dagli interpreti LIS rispetto alla struttura standard. Come è intuibile, infatti, l’interprete LIS tende maggiormente a calcare la struttura sintattica dell’italiano per evitare di perdere troppe informazioni nel passaggio in LIS, che segue una struttura sintattica totalmente differente[45]. Malgrado l’esattezza di questa osservazione, i presidenti delle sedi provinciali dell’ENS dell’Emilia-Romagna hanno assicurato che comunque le interpretazioni sono comprensibili a un parlante medio.

Vista l’impossibilità di protrarre ulteriormente le ricerche e visto che un rispeaker non potrebbe veicolare un messaggio ai segnanti meglio di un interprete LIS, proprio perché si trova a dover lavorare con l’italiano, la scelta del materiale è caduta comunque sull’interpretazione in LIS dei TG di RAI e Mediaset. Dopo aver videoregistrato 14 notiziari, si è passati all’analisi grammaticale del testo di partenza e di quello di arrivo in chiave contrastiva e all’annotazione delle regolarità ricorrenti nel processo traduttivo. Alla fine dell’analisi, sono state selezionate le strategie più adeguate al rispeakeraggio in italiano, sia in termini grammaticali (la strategia non doveva contrastare con la grammatica e la pragmatica della lingua italiana), sia in termini funzionali (la strategia rientrava nell’ambito delle strategie di riformulazione selezionate).

Dal punto di vista morfo-lessicale, un primo dato è emerso su gli altri: l’uso limitato all’essenziale di morfemi grammaticali. In specifico, non sono state riscontrate trasposizioni regolari di articoli, preposizioni e forme flesse. Sono invece regolarmente trasposti la maggior parte dei connettori e degli avverbi di luogo, di causa-effetto e di modo. Il resto della traduzione è svolto dalla lessicalizzazione, laddove possibile, dal rispetto della struttura sintattica di base e dalla coordinazione sintattica. Quanto ai morfemi lessicali, tutti i sinonimi periferici di un lessema, i nomi deverbali e i termini tecnici sono ‘semplificati’, disambiguati o spiegati.

Dal punto di vista sintattico, tra le ricorrenze maggiori è stata riscontrata la quasi assenza di schemi sintattici (in particolar modo è evitato il più possibile l’uso del passivo, delle frasi incidentate e della tematizzazione) a cui viene invece preferito il rispetto della struttura sintattica di base della LIS (Coordinate spaziali e temporali-Oggetto-Soggetto-Verbo). Questa ‘linearità’ nella forma è stata riscontrata anche a livello frastico. Oltre all’imperante presenza della coordinazione, è stata registrata anche una regolarità nella presentazione degli eventi, che nella maggior parte dei casi avviene inevitabilmente secondo un ordine cronologico, l’unico in grado di rendere i rapporti transfrastici in assenza di connettori e di subordinazione:

  • (testo di partenza) Un’autobomba è esplosa al passaggio di un convoglio americano.
  • (testo di arrivo)[46] ‘CONVOGLIO’ ‘AMERICANO’ ‘PASSA’ ‘E’ ‘AUTOBOMBA’ ‘ESPLODE’.

Similmente a quanto appena affermato per la sintassi, dal punto di vista semantico, tutti i tropi tendono a essere evitati. Quanto alla pragmatica, la forza illocutoria del messaggio originale emerge sempre, anche nei casi in cui prevale l’aspetto retorico del discorso, particolarmente grazie al ricorso che si fa, nelle lingue dei segni, dell’espressione del volto.

In seguito a tutte queste osservazioni, si è operata una selezione delle strategie anche alla luce dei dati ottenuti dai due test sopra riportati. In particolare, è stato dato poco peso agli aspetti più specificatamente lessicali e semantico-pragmatici, alcuni dei quali impossibili da trasporre in sottotitoli. È stato invece dato molto risalto alla ‘linearità’ e alla coordinazione che, oltre a risolvere molti problemi sintattici (uso del passivo, frasi incidentate, tematizzazioni, ecc.), sono molto utili anche nei casi di scarsa densità lessicale[47]. Per quanto riguarda la struttura sintattica di base, tuttavia, l’oggetto prima del soggetto risulta di difficile decodifica in italiano. È stato quindi deciso di optare per un adattamento della struttura utilizzata in LIS, variandone l’ordine dell’oggetto. Il risultato finale ha dato vita alla seguente struttura:

  • Coordinate spaziali e temporali-Soggetto-Verbo-Oggetto.

3. Conclusioni

La ricerca appena descritta costituisce la fase preliminare del progetto SALES, volto all’inclusione sociale delle persone audiolese attraverso la sottotitolazione dei programmi televisivi in diretta tramite la tecnica del rispeakeraggio. Come primo passo, è stato deciso di concentrarsi sul genere televisivo di più ampia utenza, il notiziario. Al fine di poter produrre dei sottotitoli di qualità è stato però necessario avere delle indicazioni che guidassero il lavoro del rispeaker. In assenza di migliori prassi adeguate all’obiettivo prefissato, è stato deciso di mettere in piedi un gruppo di ricerca che studiasse le reali esigenze del potenziale pubblico di destinazione. A questo proposito, grazie alla collaborazione della televisione di Stato della Repubblica di San Marino e all’Ente Nazionale Sordi è stato costituito un focus group composto da 197 sordi pre- e peri-linguali, sia segnanti, sia oralisti.

In seguito a un duplice approccio, quantitativo e qualitativo, è stato possibile testare le esigenze delle persone sorde in materia di sottotitolazione di un notiziario, molto simili tra di loro, nonostante il diverso profilo linguistico-culturale. Tuttavia, vista la soddisfazione solo parziale dei risultati della ricerca e grazie a un’ipotesi che si è poi rilevata fondata (le persone sorde, sia segnanti, sia oraliste, riescono a comprendere meglio dei sottotitoli che rispecchino, nei limiti del possibile, la caratteristiche morfo-sintattiche della Lingua dei Segni Italiana), è stato necessario portare avanti un’ulteriore ricerca. Dall’analisi delle interpretazioni in LIS dei TG delle emittenti nazionali italiane sono state ricavate alcune strategie ricorrenti e così si è riuscito a completare il quadro delle linee guida che un buon rispeaker deve rispettare per svolgere appieno il proprio ruolo secondo gli obiettivi del progetto SALES. Esse sono:

  • Competenza fonetica: il rispeaker deve pronunciare le singole parole nella maniera più chiara possibile ed evitare elementi non-lessicali[48];
  • Competenza psico-cognitiva: il rispeaker deve simultaneamente ascoltare e comprendere il testo di partenza ed elaborare e produrre il testo di arrivo nei limiti spazio temporali dettati dalla multimedialità del genere televisivo TG;
  • Competenza sintetica: ai fini di una piena accessibilità del testo di partenza, il rispeaker deve operare una sintesi quantitativa del testo di arrivo, rispettando il principio delle unità concettuali, e una sintesi qualitativa, tenendo in considerazione i seguenti criteri:
      - Velocità media di produzione di 2.5-3 secondi per riga;
      - Un sottotitolo di una riga piuttosto che uno di due righe;.
      - Riformulazione morfo-sintattica attuando i principi di coordinazione (da preferire alla subordinazione) e di linearità nella forma, (rispettando l’ordine Coordinate spaziali e temporali-Soggetto-Verbo-Oggetto) e nel contenuto (rispettando l’ordine cronologico di presentazione delle idee).

Sulla base di questi risultati è stato possibile pianificare un tabellino di marcia che prevede, oltre alla sottotitolazione di tutte le trasmissioni in diretta della RTV e al già avvenuto rispeakeraggio dei due dibattiti televisivi tra Prodi e Berlusconi per la costituzione della quindicesima legislatura, anche il rispeakeraggio delle conferenze e di tutti gli eventi in diretta sul territorio italofono.

Bibliografia

Baaring, I. (2006). “Respeaking-based online subtitling in Denmark”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Bazzanella, C. (1994). Le facce del parlare. Firenze: La Nuova Italia

Caselli, M. C.; Maragna, S.; Pagliari Rampelli, L. e V. Volterra (1994). Linguaggio e Sordità. Firenze: La Nuova Italia.

De Certeau, M. (1990). L’invention du quotidien 1. Arts de faire. Parigi: Editions Gallimard.

De Korte, M. (2006). “Live Interlingual Subtitling: historical background and method”.
In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

De Linde, Z. (1996). “Le sous-titrage intralinguistique pour les sourds et les mal entendants”. In Gambier, Y. (a cura di) Les transferts linguistiques dans les médias audiovisuels. Parigi: Presses Universitaires du Septentrion.

De Mauro, T. (1997). Guida all’uso delle parole. Roma: Editori Riuniti.

De Seriis L. (2006). “Il servizio sottotitoli RAI: Televideo per i non udenti”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Di Lisi (2007). “Diventare sordi: le sordità acquisite”. Comunicazione alla conferenza Io non ti vedo. Tu non mi senti. Tu non mi parli. Torino

Eugeni, C. (2006). “Introduzione al rispeakeraggio televisivo”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Gambier, Y. (1992). “La reformulation – pratique intralinguistique et interlinguistique”, in KOINÉ, II, 1-2. Misano Adriatico: Annali della Scuola Superiore per Interpreti e Traduttori “San Pellegrino”.

Gambier, Y. (2003). “Screen transadaptation: perception and reception”. The Translator 9 (2).

Gambier, Y. (2006). “Le sous-titrage : une traduction sélective”. In Tommola, J. e Y. Gambier (a cura di) Translation and Interprerting. Training and Research. Turku: University of Turku.

Gran, L. (1992). Aspetti dell’organizzazione cerebrale del linguaggio: dal monolinguismo all’interpretazione simultanea. Udine: Campanotto.

Halliday, M. A. K. (1985). Spoken and written language. Oxford: Oxford University Press.

Higgs, C. (2006). “Subtitles for the deaf and the hard of hearing on TV: legislation and practice in the UK”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Karamitroglou, F. (1998). Towards a Methodology for the Investigation of Norms in Audiovisual Translation: The Choice between Subtitling and Revoicing in Greece. Tesi di dottorato non pubblicata. Manchester: University of Manchester

Kellett, C. J. (2005). “A multimodal approach in a multilingual context: interpretation from English to Italian to Italian sign language interpretation”. In ESP across cultures, 2.

Lambourne, A. (2007). “Real time subtitling: extreme audiovisual translation”. Comunicazione alla conferenza internazionale Multidimensional Translation: LSP Translation Scenarios. Vienna.

Marsh, A. (2004). Simultaneous interpreting and respeaking: a comparison. Tesi di MA non pubblicata. University of Westminster.

Marsh, A. (2005). Interview with Alison Marsh. www.subtitleproject.net

Marsh, A. (2006). “Respeaking for the BBC”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Mereghetti, E. (2006). “Le Necessità dei sordi: TV e vita quotidiana”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Neves, J. (2005). Audiovisual Translation: Subtitling for the Deaf and Hard-of-Hearing. Tesi di dottorato non pubblicata. Londra: University of Surrey Roehampton.

Neves, J. (in stampa). Interlingual Subtitling for the Deaf (and Hard of Hearing).

Nord, C. (2000). “What do we know about the target-text receiver?”. In Beeby, A. et al. (a cura di). Investigating Translation. Amsterdam e Philadelphia: John Benjamins.

Ofcom (1999). ITC guidance on standards for subtitling.

Orero, P. (2006). “Real-time subtitling in Spain: an overview”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Perego, E. (2005). La traduzione audiovisiva. Roma: Carocci.

Pirelli, G. (2006). “Le necessità dei sordi e la sottotitolazione in tempo reale all’università”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Remael A. e B. van der Veer (2006). “Real-time subtitling in Flanders: needs and teaching”. In Eugeni, C. e G. Mack (a cura di) Proceedings of the first international seminar on real-time intralingual subtitling. InTRAlinea special issue: respeaking. www.intralinea.it

Savino, M.; Refice, M. e L. Cerrato (1999). “Individuazione di correlati acustici per la classificazione di intenzioni comunicative nell’interazione uomo-macchina”. In Atti del convegno AIA. Genova.

Stokoe, W. C. (1960). “Sign language structure: an outline of the visual communication systems of the American deaf”. In Studies in Linguistics. Occasional papers; 8. Buffalo, NY: University of Buffalo.

Volterra, V. (1986). Il linguaggio dei sottotitoli e gli spettatori sordi. Roma, RAI-Televideo, n. 5.

Note

[1] Il presente articolo è il risultato del progetto SALES (Sottotitolazione Simultanea per l’Apprendimento Linguistico, l’Emancipazione e la Sicurezza dei Sordi), portato avanti in collaborazione con il VOICE project della Commissione Europea (http://voice.jrc.it), il Subtitle project dell’università di Bologna
(www.subtitleproject.net), il dottorato in Lingua Inglese per Scopi Speciali dell’università di Napoli Federico II, l’Ente Nazionale Sordi (ENS) dell’Emilia Romagna e la televisione di Stato della Repubblica di San Marino, RTV (www.sanmarinortv.sm). L’obiettivo del progetto è di ridurre l’emarginazione sociale delle persone audiolese tramite il rispeakeraggio dei prodotti televisivi dell’emittente sammarinese.

[2] La ricerca accademica e scientifica in questo settore è ancora nella sua fase embrionale. Cfr. Orero 2006.

[3] Da notare che mentre nel primo caso la direzionalità è interlinguistica, cioè si traduce un testo da una lingua all’altra, nel secondo, la direzionalità è intralinguistica.

[4] La stenotipia è una tecnica dattilografica che si basa su modelli fonetici tali da permettere all’operatore di produrre testo a una velocità molto superiore alla semplice e più comune modalità in cui un tasto corrisponde a una lettera. Cfr. Ramondelli 2006 e http://www.stenotype.it/stenotipia.htm (ultimo accesso 28/12/2006).

[5] Cfr. Marsh 2004

[6] Cfr. Marsh 2005

[7] Cfr. www.respeaking.net (ultimo accesso 28/12/2006).

[8] Cfr. Halliday 1985 e Bazzanella 1994.

[9] Cfr. De Seriis 2006.

[10] Cfr. Gran 1992.

[11] Cfr. Baaring 2006, Remael e van der Veer 2006 e Lambourne 2007.

[12] Cfr. Higgs 2006.

[13] ITC è una delle organizzazioni britanniche di consulenza radiotelevisiva che nel 2003 sono state sostituite da Ofcom, l’ente che attualmente supervisiona l’industria di telecomunicazioni britannica.

[14] Si sono analizzati in particolar modo i sottotitoli prodotti dai rispeaker della BBC nel 2005 e in maniera più superficiale i sottotitoli in diretta (sia prodotti tramite stenotipia sia tramite rispeakeraggio) di alcune emittenti americane, danesi, olandesi e italiane.

[15] Cfr. de Korte 2006.

[16] Cfr. Gambier 2006.

[17] Cfr. Marsh 2005.

[18] In termini anagrafici, si considera pre-linguale l’età che va da 0 a 12 mesi e peri-linguale da 1 a 12 anni. Cfr. Di Lisi 2007.

[19] Diversamente dall’uso precedente, il termine ‘orale’ è qui impiegato in contrapposizione concettuale al termine ‘segnico’, riferendosi in generale a tutte le lingue che dispongono del canale fono-acustico e, laddove disponibile, di quello grafico.

[20] Il termine Sordo indica l’appartenenza alla comunità dei sordi segnanti, che oltre alla lingua condivide anche una cultura specifica con gli altri membri della comunità, profondamente diversa da quella che, per contrasto, è definita la comunità degli udenti. Dal punto di vista legislativo, in Italia sono considerate sorde le persone che hanno perduto almeno 70 dB di udito prima dei 12 anni di età. Cfr. www.ens.it 

[21] Il censimento delle persone sorde dipende dal riscontro dei singoli medici che oltre a utilizzare strumenti e criteri diversi non possono obbligare i propri pazienti a sottoporsi a un esame audiometrico. Non esiste pertanto un dato esatto circa la popolazione sorda, ma solo delle deduzioni statistiche. 

[22] Da qualche tempo, si sta cercando di diffondere il metodo bilingue, ma ancora molte sono le reticenze da parte delle associazioni in difesa dei diritti dei sordi alla diffusione di questo metodo. Cfr. http://www.webxtutti.it/cond_sordi.htm (ultimo accesso 28/12/2006).

[23] Cfr. www.fiadda.it

[24] Cfr. Neves 2005.

[25] L’ENS è l’unica associazione nazionale in difesa dei sordi segnanti. Altre associazioni nazionali come la FIADDA sono invece propense alla promozione dell’oralismo come unica modalità di riabilitazione del soggetto sordo. Per lo scopo della presente ricerca, si è ritenuto più opportuno coinvolgere solo l’ENS.

[26] Le sedi provinciali dell’ENS coinvolte sono quelle di Rimini, Forlì-Cesena, Ravenna, Ferrara, Bologna e Modena. Del focus group hanno fatto parte anche un gruppo di sordi della Repubblica di San Marino che non sono però riuniti in associazione.

[27] Per agevolare le risposte da parte di molti segnanti, le domande erano prevalentemente chiuse o a risposta multipla. Solo una, circa le opinioni personali sul servizio sottotitoli offerto dalla televisione italiana pubblica e privata, era aperta. Oltre ad avere un’idea generale circa la loro visione delle cose in materia, quest’ultima domanda aveva anche l’obiettivo di aggiornare eventualmente i dati ottenuti dal CNR in occasione dell’inizio dei lavori del servizio sottotitoli della RAI. Cfr. Volterra 1986.

[28] Oltre ai risultati presentati, il questionario comprendeva anche domande che sono state meno rilevanti ai fini della ricerca come il luogo di nascita, il domicilio, il genere, l’occupazione, il numero di sordi all’interno del nucleo familiare, le abitudini in materia di lettura in generale e di uso dei sottotitoli per sordi in particolare.

[29] Cfr. Pirelli 2006.

[30] Secondo alcuni insegnanti del CNR, dopo aver acquisito una buona padronanza della lingua inglese, alcuni sordi italiani, sia segnanti sia oralisti preferiscono comunicare (via posta elettronica, chat o SMS) in inglese piuttosto che in italiano. Una delle probabili ragioni è la relativa maggiore semplicità morfo-sintattica della lingua inglese rispetto all’italiano. Inoltre, per quanto riguarda in particolare i segnanti, c’è una sostanziale somiglianza strutturale tra le lingue dei segni e la lingua inglese.

[31] In particolare è stato preso in prestito e adattato l’approccio etnografico dei reception studies. Cfr. de Certeau 1990.

[32] Il tentativo è stato di semplificare linguisticamente il testo per permettere una più immediata comprensione del testo di partenza senza peraltro spiegare i concetti. Così facendo il gruppo di ricerca era conscio di non riprodurre esattamente nel sottotitolo il testo di partenza (cfr. Gambier 1992). Tuttavia, si è tentato di giocare con la forma rispettando il più possibile le singole unità concettuali.

[33] Questa tipologia di riformulazione è stata operata in linea con la Banca Dati del Vocabolario Di Base della lingua Italiana (De Mauro 1997) in cui vengono riportate le 5000 parole che ogni parlante italiano capisce, conosce e usa regolarmente. Sempre nel pieno rispetto delle unità concettuali, le parole tecniche e i nomi propri non sono stati riformulati.

[34] Si è cercato di rispettare il più possibile la struttura sintattica di base (S-V-O) e di evitare troppi schemi sintattici.

[35] Si è cercato di evitare inutili tropi, nel pieno rispetto di quelli più comuni o lessicalizzati.

[36] Grazie a questa procedura ogni filmato è stato reso totalmente dipendente dalla velocità di lettura del singolo. La sottotitolazione è stata effettuata rispettando le norme grafiche di impaginazione seguite dal servizio sottotitoli della RAI, intuitivamente a loro più familiari rispetto alle regole seguite da altri fornitori di sottotitoli da loro meno utilizzati. Il tutto era stato caricato su PowerPoint.

[37] Cfr. Gambier 2003.

[38] Come accennato precedentemente, esiste una differenza culturale molto profonda tra coloro che hanno come lingua materna l’italiano e coloro che hanno da sempre parlato la lingua dei segni in casa. Anche se oggi la maggior parte dei sordi è bilingue, molti hanno come lingua dominante quella della comunità (udente o sorda segnante) in cui sono cresciuti e, nella maggior parte dei casi, tuttora vive. Tuttavia, studi del CNR (Caselli et al. 1994 e Volterra 1986) dimostrano che non esistono differenze sostanziali tra sordi segnanti e sordi oralisti dal punto di vista della competenza linguistica in italiano. Il risultato appena descritto sembra confermare questo dato.

[39] Precedentemente (cfr. nota 28) è stato sottotilineato che i dati riguardanti le abitudini in materia di lettura sono stati esclusi dall’analisi finale dei dati. In realtà, la maggior parte dei sordi ha dato risposte poco precise limitandosi a scrivere parole come ‘poco’, ‘per niente’ o ‘abbastanza’ nella casella riservata al numero di ore settimanali e giornaliere dedicate alla lettura. Altri ancora non hanno risposto a questa domanda. Tuttavia, è stato possibile notare un ricorrente parallelismo tra il livello di istruzione e l’indicazione di massima circa le proprie abitudini di lettura.

[40] Fino alla fine dei test, i dati riguardanti la lingua dominante e il metodo con cui sono stati educati i singoli sordi sono stati attribuiti a due categorie separate. Essi sono stati accorpati in un secondo momento, quando sono emerse delle sostanziali similitudini tra le due categorie che non giustificavano tale differenziazione.

[41] Cfr. Mereghetti 2006.

[42] Cfr. Stokoe 1960 e Volterra 1986.

[43] Le medie in questione si riferiscono ai sottotitoli del livello più basso di difficoltà, ma scarti simili sono stati riscontrati a tutti i livelli.

[44] Cfr. Karamitroglou 1998 e Perego 2005.

[45] Cfr. Kellett 2005.

[46] Per riportare la traduzione dell’interpretazione in LIS è stato deciso di adottare le virgolette e le maiuscole per indicare che non si tratta della traduzione fedele, ma di una traduzione per concetti.

[47] Cfr. Halliday 1985.

[48] Cfr. Savino et al. 1999.

About the author(s)

English
Carlo Eugeni graduated at the Advanced School for Interpreters and Translators of the University of Bologna at Forlì (SSLMIT), in 2003. He has worked as a translator for FAO in Geneva and as a stagiaire and professional interpreter at the European Union, NATO, and on the Belgian and Italian free markets. He is now a PhD student in English for Special Purposes at the University of Naples Federico II and “expert in audiovisual translation” at SSLMIT. He teaches Multimedia Translation at the University of Macerata. As part of his PhD studies, he is participating in several projects relating to deafness and to the promotion and production of live subtitles by means of voice-to-text recognition technology. 

Italiano
Carlo Eugeni si è laureato alla Scuola Superiore di Lingue Moderne per Interpreti e Traduttori (SSLMIT) dell’Università di Bologna, sede di Forlì, nel 2003. Ha lavorato come traduttore per la FAO di Ginevra e ha svolto attività di stage e professionali come interprete presso l’Unione Europea, la NATO e il libero mercato belga e italiano. Attualmente, è dottorando in Inglese per Scopi Speciali presso l’Università di Napoli Federico II ed esperto della materia presso la SSLMIT. Insegna traduzione multimediale e audiovisiva presso l’Università di Macerata. Nel quadro delle sue attività di ricerca, è coinvolto in numerosi progetti sulla sordità e la promozione e la produzione di sottotitoli in diretta tramite riconoscimento del parlato.

Email: [please login or register to view author's email address]

©inTRAlinea & Carlo Eugeni (2007).
"Il rispeakeraggio televisivo per sordi Per una sottotitolazione mirata del TG", inTRAlinea Vol. 9.
This article can be freely reproduced under Creative Commons License.
Stable URL: http://www.intralinea.org/archive/article/1638

Go to top of page