Detto scritto: un fenomeno, tanti nomi

By Gabriele Mack (Università di Bologna)

Abstract & Keywords

English:

From ancient times the conversion of speech into written text has been a common practice in many parts of society. During the last few years new multi-media technologies and the research on natural language recognition and processing have opened unexpected horizons to reporting and transcription. The First international seminar on real time intralinguistic subtitling held in Forlì on November 17th, 2006 brought together software and service producers and users, professionals, researchers and teachers who are active in this field. This article deals with some crucial aspects of speech-to-text transformation such as the interaction between man and machine, the relationship between spoken and written language and access modalities; it also describes four institutional settings concerned with transcriptions as courts, elected assemblies, universities and television, and mentions possible new research directions.

Italian:

Fin dall’antichità la trasformazione del parlato in testo scritto costituisce una prassi consolidata in numerosi ambiti. Negli ultimi anni le tecnologie multimediali e le ricerche su comprensione e trattamento del linguaggio naturale hanno aperto nuovi e inattesi orizzonti alle tradizionali attività di resocontazione e alla trascrizione. La Prima giornata di studi internazionale sulla sottotitolazione intralinguistica in tempo reale, che sì è svolta a Forlì il 17 novembre 2006, ha fatto incontrare persone che si occupano di questo fenomeno in vari settori come produttori di tecnologie e servizi, utenti, professionisti, studiosi e docenti. Questo contributo si sofferma su alcuni aspetti cruciali del passaggio dall’orale allo scritto - l’interazione uomo-macchina, il rapporto tra parlato e scritto, le modalità di fruizione - prima di descrivere quattro ambiti istituzionali in cui si fa uso di trascrizioni e resoconti - tribunali, assemblee elettive, università e televisione - e indicare nuovi potenziali percorsi di ricerca.

Keywords: resocontazione, trascrizione, sottotitolaggio, subtitling, reporting, transcription, interpreting studies

©inTRAlinea & Gabriele Mack (2006).
"Detto scritto: un fenomeno, tanti nomi"
inTRAlinea Special Issue: Respeaking
Edited by: Carlo Eugeni & Gabriele Mack
This article can be freely reproduced under Creative Commons License.
Permanent URL: http://www.intralinea.org/specials/article/1695

1. Premessa

Chi, ascoltando una lezione magistrale, un sermone memorabile o una trasmissione radiofonica costruita ad arte, non ha mai avvertito l’acuto desiderio di procurarsene una copia scritta - da rileggere con calma, da citare al bisogno, o da trasmettere a chi non era presente nei fugaci momenti in cui venivano pronunciate e ascoltate quelle parole e si realizzava il piccolo, quotidiano miracolo di onde acustiche che si fanno pensiero condiviso? Nell’epoca dell’oralità secondaria (Ong 1977 e 1982), dei testi elettronici e della riproducibilità tecnica di (quasi) ogni cosa, il parlato è ancora quanto di più proteiforme (e inflazionato) si possa immaginare, ed è ancora ben radicata la convinzione/convenzione che verba volant, scripta manent[1] - almeno nelle generazioni che ricordano i tempi in cui le bozze si scrivevano a mano e non esistevano i computer. Come osservava infatti già Goethe, non senza una sfumatura di ironia, “quando una cosa si possiede nero su bianco, si porta poi a casa a cuor tranquillo.”

Anche al di là della sfera privata, nonostante le possibilità offerte da registrazioni e repliche, streaming[2] e podcasting[3], la trasformazione del detto in scritto costituisce tuttora una necessità e spesso una prassi consolidata per numerosi ambiti sociali, sempre nel medesimo intento di fissare un’entità acustica in forma grafica, di trasformare il parlato in caratteri almeno potenzialmente imprimibili sulla carta per rendere accessibili più facilmente i contenuti di un dato evento e conservarne traccia per il futuro. Così fin dall’antichità[4] si trascrive il parlato, pur sapendo di astrarlo artificiosamente da un contesto comunicativo in cui la componente uditiva è inscindibilmente legata a quelle percepibili con gli altri sensi. Le motivazioni sono tante e dipendono sia dalle caratteristiche specifiche dei due canali che da considerazioni economiche e fattori pratici di accessibilità. Anche la forma più semplice ed essenziale di trascrizione richiede infatti tempo, fatica e spesso una perizia particolare nell’uso di mezzi e tecniche di supporto. Lo scritto offre però alcuni decisivi vantaggi rispetto alla registrazione audio o video, soprattutto se analogica, in quanto consente un accesso più diretto e offre una suddivisione grafica interna immediatamente riconoscibile del contenuto che agevola sia l’accesso mirato a singole parti, sia la lettura diagonale dell’intero contenuto.

Nel volgere di pochi anni le nuove tecnologie informatiche e in particolare le tecnologie per la comprensione e il trattamento del linguaggio naturale (Chiari 2007) e la tecnologia assistiva hanno aperto nuovi e inattesi orizzonti alla resocontazione nell’accezione più ampia del termine[5]. Diventata ormai multimediale, essa si avvale di innumerevoli forme di registrazione e soprattutto elaborazione (trascrizione, segmentazione, indicizzazione, sintesi, commento e descrizione di aspetto, struttura e semantica dei contenuti) per permettere la fruizione e l’archiviazione di dati sia acustici, sia grafici, quindi anche orali e scritti. Pur essendo notevoli e in parte già coronati da successo gli sforzi in atto per automatizzare parte di questi processi, l’intervento umano ne costituisce ancora un fattore indispensabile e cruciale.

La Prima giornata di studi internazionale sulla sottotitolazione intralinguistica in tempo reale, che sì è svolta a Forlì il 17 novembre 2006, ha fatto incontrare alcune schegge di questo universo eterogeneo ed estremamente dinamico, ma che appare ancora suddiviso in galassie che si ignorano a vicenda. Eppure, lo scambio di saperi ed esperienze tra chi lavora con e sulla resocontazione e la trascrizione, chi la usa a fini di ricerca e i potenziali utenti promette un arricchimento reciproco e sviluppi di grande interesse per tutti gli interessati. Il presente articolo vuole offrire una serie di spunti e riflessioni per migliorare la reciproca conoscenza e stimolare percorsi di ricerca comuni.

2. La resocontazione

La resocontazione e i diversi tipi di trascrizione[6] affermatisi con l’andare del tempo in ambiti molto diversi tra loro richiedono impegno e tempi di apprendimento non indifferenti, e pertanto sono generalmente affidati a figure specifiche (professionali o non) che lavorano con mezzi tecnici talvolta sofisticati. Il testo trascritto sarà poi fruito contestualmente o in seguito alla sua costituzione, e può essere anche sottoposto a elaborazioni ulteriori. Non ci occuperemo qui di refertazione medica o di verbalizzazione di riunioni, che pure si possono avvalere di metodi e strumenti analoghi, bensì di forme di resocontazione e trascrizione del parlato prodotte e usate da grandi istituzioni pubbliche o private (Parlamento, organi giudiziari, università, enti televisivi) nell’assolvimento di un loro preciso dovere morale ancor prima che istituzionale[7].

L’impegno di pubblicità e trasparenza tipico delle società democratiche infatti impone a questi soggetti di agevolare la partecipazione e il controllo del loro operato da parte dei cittadini-utenti nonché di assicurare loro l’accesso all’informazione, considerata come fattore cruciale per una società che si dichiara basata sulla conoscenza. Tale proposito si realizza per i cittadini sia nella possibilità di partecipare (almeno virtualmente) all’attività delle istituzioni, sia nel libero accesso ai servizi di comunicazione, informazione e documentazione. Ovviamente questo vale anche per le categorie di cittadini deboli, vulnerabili o svantaggiati, come ad esempio i disabili. La resocontazione/trascrizione interessa in modo particolare sordi e audiolesi non segnanti[8], per i quali, a parte la lettura labiale, lo scritto rappresenta il mezzo principale per accedere (almeno parzialmente) alle informazioni generalmente convogliate dal canale orale. In numerosi paesi esteri[9] la sensibilità per le difficoltà di comunicazione di questa fascia di cittadini si è tradotta da tempo in leggi anche molto ambiziose, riguardanti ad esempio la sottotitolazione televisiva e più in generale l’accessibilità dell’informazione. Alle leggi sono poi seguiti investimenti pubblici e privati che hanno dato impulso a nuovi settori dell’economia. L’Italia ovviamente condivide il principio dell’accessibilità, riconducibile alla norma della pari dignità sociale di tutti i cittadini sancita dall’Articolo 3 della Costituzione italiana, ma iniziative e risultati sono per ora modesti, pur con esempi di eccellenza[10]. Sull’onda della progressiva personalizzazione dei servizi, l’argomento dell’accessibilità e della molteplicità dei profili di fruizione, da problema di fasce ‘marginali’ sta diventando però un elemento di scelta cruciale per tutte le categorie di utenti, di cui si dovrà sempre più tenere conto già nella fase di progettazione e creazione dei contenuti, e non solo in sede di utilizzo (Bobeldijk 2004).

Ambiti e occasioni in cui si producono testi scritti sulla base del parlato sono molteplici, e non può sorprendere che a un fenomeno così vasto e complesso corrispondano un campo semantico e una gamma di termini altrettanto variegata. La Tabella 1 propone una sinossi molto schematica delle casistiche che esamineremo qui, ciascuna delle quali ha le sue specifiche modalità di esecuzione ed è soggetto a peculiari costrizioni che saranno approfondite nel paragrafo 4, dopo l’analisi di alcuni aspetti più generali del passaggio dal parlato allo scritto.

3. Lingua orale e lingua scritta

Il rapporto tra lingua scritta e orale è ancora argomento di notevole interesse per la linguistica. Questo passaggio, solo apparentemente semplice, comporta infatti tutta una serie di difficoltà e tocca problematiche di varia natura. Si tratta in fondo, per dirlo con un’espressione alla moda, di un altro, peculiare tipo di mediazione linguistica, oppure, nei termini di Jakobson (1959), di forme di traduzione endolinguistica, ma che, come vedremo, possono facilmente diventare anche interlinguistiche - basti pensare alla sottotitolazione[11]. Nuovi impulsi sono venuti alla ricerca dalle possibilità tecniche di registrazione ed elaborazione dei dati notevolmente accresciute negli ultimi 30 anni, che hanno portato alla costituzione di numerosi corpora orali (Cresti 2000). Più del codice usato (grafico vs. fonico), quello che interessa ai fini della trascrizione sono le caratteristiche specifiche della lingua usata in relazione alle esigenze dei parlanti (parlato-parlato vs. parlato-scritto, scritto per essere detto e ulteriori distinzioni intermedie[12]). Diventano così pertinenti tutta una serie di aspetti riguardanti la tipologia testuale e le modalità di produzione del testo sia monologico che dialogico che ne determinano il posizionamento nel continuum diamesico orale-scritto (Tannen 1982). Alcuni di questi aspetti sono:
• il grado di pianificazione (continuum tra discorso del tutto improvvisato, presentato senza ausilio di note e testo interamente scritto e letto),
• il lessico (da ricercato-raro a colloquiale-comune o gergale-dialettale, marcato o non marcato),
• il peso relativo di componente verbale e componente extraverbale (parte verbale autonoma o determinata dal contesto, riferimento a handout, lucidi o simili; focus su contenuto del messaggio vs. aspetto relazionale),
• il grado di coinvolgimento personale degli interlocutori,
• il contesto situazionale, i ruoli e le conoscenze condivise dei parlanti (da estremamente formale-ufficiale a informale-confidenziale, con background comune o non, interlocutori copresenti o testo mediatico),
• il grado di cooperazione vs. non-cooperazione degli interlocutori e in generale l’osservazione delle massime conversazionali (da Alexieva 1997).
Fondamentali sono a questo proposito anche la nozione di ‘testo misto’, in cui scritto e orale si compenetrano, favorito nella sua diffusione soprattutto dei mass media (Dardano 1994) e la consapevolezza della plasticità della lingua e della generale tendenza del parlato italiano ad assumere caratteristiche ritenute tipiche della lingua scritta (Sobrero 1994).

3.1 I mezzi tecnici e l’interazione uomo-macchina

Grazie al progresso fulmineo della tecnologia sembrano ormai lontanissimi i tempi in cui l’unica tecnica di resocontazione disponibile era la scrittura manuale effettuata esclusivamente sulla base dell’ascolto nel momento in cui si realizzava il parlato[13]. Gli strumenti tecnici ai quali l’operatore oggi può fare ricorso per superare la volatilità del discorso pronunciato hic et nunc si fanno ogni giorno più sofisticati e potenti. Una delle prime difficoltà della resocontazione che la tecnologia ha permesso di affrontare è la velocità del parlato, spontaneo o letto, che normalmente è ben superiore alla velocità raggiungibile con la scrittura comune, sia essa manuale o su tastiera, di una persona che non vi si sia allenata in modo particolare[14]. Per superare questo scoglio è possibile intervenire su due versanti: la velocità del discorso di partenza e la velocità di trascrizione.

Il rallentamento del discorso di partenza (stretching) deve essere tale da evitare la distorsione della voce e possibilmente comandato a voce o a pedale, a seconda del metodo di trascrizione (stenotipico o con riconoscimento vocale).

L’altra opzione per agevolare la trascrizione è quella di velocizzare la scrittura. Le forme di annotazione grafica rapida manuale (appunti, note stenografiche) e meccanica (note stenotipiche impresse su nastro), oltre a una notevole pratica dell’operatore, prima di diventare un testo facilmente accessibile e trasmettibile necessitano però di un ulteriore passaggio di traduzione/trascrizione in caratteri comuni, con un dispendio di tempo che può essere maggiore di quello necessario per la semplice ripresa del parlato. Oggi a esse si è praticamente sostituito l’uso di tastiere elettroniche per la scrittura veloce di vario tipo collegate a PC dotati di programmi dedicati[15].

La tecnica entrata più di recente nell’agone delle scritture veloci è il rispeakeraggio che fa uso del riconoscimento vocale[16], eseguito su dettatura a un microfono collegato con un computer dotato di apposito software, oppure parlando in un analogo dispositivo detto stenomask[17] che garantisce anche l’isolamento acustico rispetto all’ambiente circostante. Rispetto alle altre tecniche, il riconoscimento vocale introduce due novità concettuali importanti. I sistemi descritti in precedenza prevedono diversi passaggi nella fase scritta: durante l’ascolto viene cioè costituito una sorta di testo intermedio che dovrà poi essere ‘interpretato’, ‘tradotto’, ‘decrittato’, ‘elaborato’ o ‘trascritto’, in genere a cura del suo estensore, in un documento comunemente leggibile. Il riconoscimento vocale, per contro, antepone un passaggio da orale a orale al successivo passaggio da orale a scritto: il discorso di partenza deve essere infatti ripetuto dal respeaker, la cui voce, grazie a un addestramento preliminare, può essere riconosciuta da un software con un grado di precisione che in condizioni ottimali sfiora il 100%. La seconda e sicuramente ancora più incisiva differenza sta nel fatto che è il software, e non più la persona, a trasformare l’input vocale in testo scritto elettronico. Si compie così un vero e proprio salto di qualità, in quanto per la prima volta l’interpretazione del parlato non è più affidata all’uomo, ma alla macchina.

Pur avendo fatto enormi progressi ed essendo ormai in grado di elaborare il parlato continuo senza costringere l’utilizzatore a introdurre innaturali pause tra una parola e l’altra, i sistemi di riconoscimento vocale per dare risultati soddisfacenti ed economicamente sostenibili nella trascrizione hanno ancora bisogno di un addestramento per riconoscere una particolare voce, e fanno affidamento su dizionari il cui ampliamento richiede tempo e impegno (cfr. Aliprandi e Verruso in questo volume). Inoltre, la segmentazione, sia grafica, sia tramite punteggiatura, pone ancora problemi, come pure qualsiasi intervento di correzione successivo alla dettatura, che può richiedere un tempo ben maggiore di quello impiegato per la produzione della trascrizione stessa (Bain et al. 2005). Sono tuttavia in atto numerosi progetti di ricerca per superare gli ostacoli più ostici nella trascrizione del parlato spontaneo anche con la costruzione automatica del profilo della voce da parte del sistema di riconoscimento[18].

3.2 Il rapporto tra parlato e scritto e il filtro del trascrittore

Un aspetto importante della resocontazione riguarda la relazione che intercorre tra il parlato di partenza e lo scritto d’arrivo o, in altre parole, il tipo di trasformazione ammessa, richiesta o postulata nei vari passaggi del processo. Questo aspetto è strettamente collegato allo scopo per il quale il testo scritto viene realizzato e all’utilizzo al quale è destinato. I casi estremi del continuum di possibili trasformazioni sono da un lato la riformulazione libera e riassuntiva del resoconto sommario o il sottotitolo volutamente abbreviato e semplificato perché rivolto ad esempio ai bambini, dall’altro le trascrizioni di atti comunicativi orali che si presentano come una riproduzione integrale e più precisa possibile di tutto quanto è stato detto, con una pretesa di fedeltà e completezza che può essere addirittura sancita da norme giuridiche[19]. Sulle difficoltà teoriche e pratiche di una siffatta impresa con i soli mezzi della scrittura molto è stato detto e scritto, in particolare dalla ricerca linguistica e traduttologica sull’interpretazione. Le ricerche più recenti confermano che anche la trascrizione giuridica spesso contiene palesi modifiche rispetto all’orale, come ad esempio interventi di standardizzazione o di eliminazione (Palmerini 2006).

La letteratura sulla trascrizione in campo sociolinguistico ed etnografico offre una ricca messe di preziose indicazioni metodologiche, in particolare quella più recente sulle problematiche specifiche dei corpora orali. Non essendo nelle ambizioni di questa pubblicazione darne conto[20], ci limitiamo qui ad annotare il principio comunemente accettato secondo cui

Il processo di trascrizione non è [...] un procedimento neutrale, in quanto i vincoli imposti dalla diversità del mezzo utilizzato, la scrittura rispetto al canale orale, portano necessariamente il ricercatore a delle scelte che si suppone non siano arbitrarie ma guidate dalle ipotesi che sono alla base dell’indagine. La trascrizione si può, quindi, considerare un primo livello di analisi del dato grezzo.” Per questo motivo “il dato di base del ricercatore che analizzi interazioni reali non può essere costituito dalla trascrizione ma dalla registrazione, video- o audio- che sia, e a questa egli deve sempre tornare. (Orletti e Testa 1991: 244 e 250).

Mentre il parlato dispone infatti di una gamma ricchissima di mezzi per modulare il senso da attribuire alle parole pronunciate, il codice scritto comune può accennarvi solo mediante la punteggiatura. Nello sforzo di registrare nella maniera più autentica e completa possibile gli aspetti formali del parlato oggetto di studio, i ricercatori si sono così dotati di strumenti per registrare mediante segni diacritici e interpuntivi anche informazioni su elementi cotestuali, contestuali e situazionali (false partenze o pause, vuote o piene, gesti o direzione dello sguardo, rumori di fondo, risate, ruoli), pur nella consapevolezza che il parlato in situazione è un tutt’uno inscindibile diverso della pura e semplice somma di tutti questi fattori. Negli ultimi anni sono stati messi a punto sistemi di mark-up che consentono un’analisi computerizzata dei dati con visualizzazione differenziata di vari livelli di annotazione e sistemi multimediali e multimodali che permettono di allineare e creare collegamenti tra testo trascritto, registrazioni audio e la loro rappresentazione spettroacustica ed eventualmente anche registrazioni video, oltre ai relativi metadati (Schmidt 2005).

La trascrizione per così dire verbatim, litteratim et punctatim viene utilizzata anche in campo didattico come strumento diagnostico per verificare il grado di comprensione del parlato in lingua straniera. Un esercizio analogo, ma basato sulla ripetizione orale di quanto ascoltato e pertanto simile al rispeakeraggio, è il cosiddetto shadowing, spesso usato nell’insegnamento dell’interpretazione simultanea[21].

Nella maggior parte dei casi di passaggio dall’orale allo scritto viene però riconosciuto - più o meno esplicitamente - un intervento più o meno esteso, visibile e consapevole del trascrittore/verbalizzante/estensore/resocontista sul prodotto della trascrizione. Tale intervento (o filtro) costituisce uno degli argomenti più delicati e dibattuti a livello teorico. Anche nella prassi è comunemente ritenuto il banco di prova della professionalità di chi lavora in questo settore (Ramondelli 2001; “Cos’è la resocontazione” s.d.). L’operazione diventa tanto più complessa quanto minore è il tempo a disposizione e quanto maggiore è il grado di elaborazione richiesto (massima è quindi la difficoltà per la resocontazione sommaria o il rispeakeraggio con adattamento in tempo reale); le difficoltà aumentano inoltre in ragione delle costrizioni insite nel mezzo e/o imposte dall’esterno[22] alle quali l’operatore deve sottostare (come ad esempio nel caso della sottotitolazione, quando oltre a rispettare tempi e lunghezze prefissati si tratta di decidere se privilegiare una funzione didattico-formativa per un pubblico più vasto o emancipativo-informativa, che rischia però di non essere accessibile a tutti gli utenti[23]). Quanto più è richiesto un intervento anche sostanziale di rielaborazione - sia essa definita come riformulazione, compressione, riduzione, elaborazione, adattamento o altro ancora - tanto più la funzione di filtro e la conseguente responsabilità dell’operatore diventano evidenti, e si fa più serrata la discussione sui modi in cui intervenire sul discorso di partenza per soddisfare sia le esigenze di fedeltà all’originale, sia quelle di funzionalità e fruibilità del testo d’arrivo. Relativamente meno problematici sono invece i casi in cui l’elaborazione avviene in tempi autodeterminati dall’operatore, che può compiere diversi passaggi intermedi prima di licenziare la sua versione scritta finale, anche se ovviamente la sua produttività dipenderà fortemente dalla celerità con cui svolge il lavoro.

Colpisce in ogni caso la palese analogia con il compito del traduttore e interprete interlinguistico, che pure sa di non potere mai produrre una replica identica dell’originale ma, consapevole dell’inevitabile destino di dover interpretare soggettivamente quanto ascoltato prima di riformularlo in un’altra lingua, deve compiere continue scelte, in gran parte imposte da fattori esterni, potendo tutt’al più aspirare a ‘dire quasi la stessa cosa’[24].

3.3 Modalità di presentazione e di fruizione

Un altro importante aspetto è il formato di presentazione del testo che sia più consono possibile alle esigenze dei (potenziali) fruitori. I prodotti dell’attività di trascrizione possono infatti essere destinati ai fini più svariati, da quelli prevalentemente documentali, accessibili in differita, a quelli di informazione essenziale, da fornire in tempo reale, come nel caso dei non udenti, mentre in altri casi ancora la trascrizione assume una funzione di informazione accessoria o di supporto.

Sotto il profilo dei tempi di fruizione si può distinguere un primo gruppo di prodotti destinati a un uso on-line in sincrono con il parlato. Vi fanno parte le trascrizioni in tempo reale a schermo pieno (communication access real-time transcription o CART; computer-aided speech-to-print transcription o C-Print), ad esempio di conferenze e lezioni universitarie, e i sottotitoli prodotti in tempo reale che sono oggetto di molti degli interventi di questo volume, destinati a una fruizione immediata e generalmente non ripetibile da parte di singoli o gruppi di utenti. A questo tipo di uso si contrappone, o talvolta si affianca, l’uso differito nel tempo o asincronico, ripetibile a scelta dell’utilizzatore grazie alla forma di documento grafico autonomo del testo. Il lasso di tempo che intercorre in questo caso tra la produzione del parlato originario e la disponibilità dello scritto può variare da poche decine di minuti per i resoconti stenografici istituzionali preliminari a un massimo di tre giorni per la trascrizione dei verbali stenotipici processuali[25] o più tempo ancora, per i processi verbali parlamentari definitivi o i sottotitoli convenzionali off-line o preregistrati.

Per la visualizzazione del risultato dell’operazione vi sono numerose alternative. Secondo il tipo e il numero degli utenti destinatari, e tenendo conto dei tempi e mezzi tecnici a disposizione, l’accesso può essere realizzato in vari modi, che vanno dalla semplice disponibilità di un documento di testo digitale o stampato alla sua visualizzazione sul display di un computer o videoterminale alla videoproiezione. Per alcuni tipi di utilizzo non sono sufficienti i comuni sistemi di videoscrittura, ma servono software e apparecchiature aggiuntive, ad esempio per la proiezione su grande schermo di porzioni estese di una trascrizione in ambito universitario o di conferenza (vedi l’esempio menzionato nella nota 11) o per la realizzazione e messa in onda di sottotitoli (vedi paragrafo 4.4).

Anche le scelte tipografiche e di impaginazione sono molteplici, soprattutto nel caso del testo elettronico su schermo, che può essere aperto e quindi offerto a tutti gli utenti o chiuso, e quindi richiamabile a scelta da apparecchiature che lo consentono[26]. Può essere presentato a singole righe oppure in blocchi più o meno lunghi; può permanere sullo schermo per un certo periodo per essere poi sostituito in toto dal segmento successivo (modalità cosiddetta a blocchi o pop-on), oppure scorrervi in vario modo (roll-up o scroll); anche il colore dei caratteri, l’allineamento e gli sfondi sono combinabili a volontà. Le implicazioni che ne conseguono per la fruibilità del testo scritto sono notevoli e oggetto di numerosi studi, in particolare per quanto concerne l’adattamento mirato dei sottotitoli televisivi al tipo di pubblico[27]. Pure in questo caso, il progresso tecnologico continua ad aprire nuove possibilità e a mettere a disposizione soluzioni parallele o complementari per rispondere alle esigenze più disparate, consentendo ad esempio una presentazione sincrona di una registrazione e della relativa trascrizione, oppure la scelta tra vari tipi di sottotitoli.

Strettamente collegate a questo discorso sono le necessità talvolta divergenti di diversi gruppi di fruitori. Nella sottotitolazione, ad esempio, il pubblico di udenti non ha bisogno di indicazioni scritte su toni di voce o rumori, mentre, come ha ricordato un partecipante alla Giornata di studi di Forlì, i non udenti cercano nei sottotitoli anche “le emozioni, il tipo tonale, che sono molto importanti; ironia, sarcasmo, umorismo, gioia, tristezza, ecc., vengono trasmessi proprio con una alterazione tonale che raramente viene riportata nei sottotitoli”[28]. All’interno dello stesso pubblico di sordi vi sono poi sottogruppi che, secondo il livello di scolarizzazione e di dimestichezza con la lettura, o anche in relazione alle finalità dell’utilizzo, che può essere di volta in volta didattico, informativo o di intrattenimento, chiedono sottotitoli con diversi gradi di densità informativa e complessità linguistica, ponendo chi li deve realizzare davanti a scelte per le quali non possono esserci soluzioni e risposte universalmente valide[29]. Accanto alla fruizione da parte dei gruppi d’interesse principali vi è inoltre quella più o meno incidentale di altri target. Le trascrizioni di lezioni universitarie possono servire a tutti gli studenti, e i sottotitoli possono aiutare l’immigrato che ancora non conosce bene una lingua o fungere da integrazione informativa per le trasmissioni video in ambienti rumorosi o in cui non è possibile l’amplificazione dell’audio (stazioni, aeroporti, fiere, locali pubblici), oppure dove un utente, per qualsiasi motivo, preferisce utilizzare il canale visivo in sostituzione di quello acustico. Già esistono e continuano a nascere tutta una serie di attività e servizi per un mercato in continua espansione, che vanno dalla ‘sbobinatura’ di registrazioni audio allo speech-based real-time subtitling service (Lambourne et al. 2004) dall’instant captioning per riunioni di ogni tipo al captioned telephone per la sottotitolazione delle conversazioni telefoniche alle news multimediali[30].

4. Esempi di prassi della resocontazione

4.1 Tribunali

Con l’emanazione del nuovo Codice di procedura penale italiano nel 1988, all’impostazione inquisitoria del processo è subentrata un’impostazione accusatoria che privilegia l’oralità del dibattimento; mentre prima la conoscenza dei fatti e la ricerca della verità erano sostanzialmente affidate al fascicolo contenente gli atti d’istruttoria, ora la prova si forma in dibattimento, e il giudice conosce i fatti oggetto del giudizio principalmente in base alle dichiarazioni delle persone che intervengono al processo. Più che mai la verbalizzazione riveste quindi un ruolo di primaria importanza. Come già nel vecchio codice risalente al 1930, il legislatore per essa prevede esplicitamente l’uso della stenografia. Questa tecnica era in effetti diffusa in Italia già nell’Ottocento, ma in tribunale veniva utilizzata più che altro per trascrivere le arringhe di celebri avvocati, da pubblicare poi su riviste specializzate, mentre i processi verbali d’udienza erano generalmente redatti a mano da funzionari di cancelleria (Aliprandi 2003: 64). Il Codice vigente stabilisce che la documentazione del processo è affidata al verbale (che può essere integrale oppure riassuntivo, nel qual caso va affiancato da riproduzione fonografica), redatto dall’ausiliario che assiste il giudice con la stenotipia o altro strumento meccanico. A queste modalità “può essere aggiunta la riproduzione audiovisiva se assolutamente indispensabile”. Per il verbale stenografico è prevista la trascrizione in caratteri comuni entro un giorno, mentre la trascrizione della riproduzione fonografica o audiovisiva non è obbligatoria (Artt. 134-142; Vettori et al. 1990).

Come si vede, a differenza della stenotipia e della sua trascrizione o decrittazione, la riproduzione fonografica o audiovisiva e la loro eventuale trascrizione (detta anche deregistrazione) non sono riconosciute come strumenti autosufficienti di verbalizzazione, pur potendo offrire una documentazione per certi versi più completa e oggettiva degli eventi processuali di un verbale, ad esempio degli aspetti para- e non-verbali di testimonianze e dichiarazioni, anche se in questo ambito le difficoltà metodologiche della trascrizione del parlato già accennate nel paragrafo 3.3 sono più acute che mai[31]. A ciò si aggiunge la scarsa specializzazione dei trascrittori e - almeno per ora - anche la virtuale impossibilità per gli attori processuali di accedere alle registrazioni audio da cui consegue l’utilizzo pressoché esclusivo delle trascrizioni per ogni riferimento futuro a quanto affermato in dibattimento (Palmerini 2006).

Da parecchi anni ormai anche in ambito giudiziario sono in atto studi e sperimentazioni che mirano all’introduzione di tecnologie nuove di produzione e gestione degli atti[32]. Il progetto Astrea[33], ad esempio, si prefigge la realizzazione di un’aula giudiziaria virtuale in grado di ospitare dibattimenti multimediali gestiti con strumenti tecnologici avanzati quali videoconferenza per l’escussione di testimoni[34], visualizzatori per acquisizione e presentazione di prove, sistemi per acquisizione, elaborazione e presentazione di documenti audio-video-testo digitalizzati e videoverbalizzazione.

Sono ricorrenti anche le iniziative legislative che propongono una ridefinizione del tradizionale concetto di verbale. C’è chi propone di comprendervi gli strumenti che consentono “la riproduzione fedele e completa di tutte le dichiarazioni orali” e di “eliminare ogni mediazione umana sulle affermazioni degli attori processuali” [35], chi prevede che il verbale di norma vada redatto “in forma integrale, con la scrittura manuale”, anche se poi “(n)el caso di assunzione di dichiarazioni, il verbale è redatto, a pena di inutilizzabilità, con la stenotipia o con altro strumento tecnico che ne assicuri la integrale e contestuale documentazione” (corsivo mio), fermo restando che “(q)uando le modalità di documentazione indicate nei commi 1 e 2 [= redazione del verbale; n.d.a.] sono ritenute insufficienti, può essere aggiunta la riproduzione audiovisiva se assolutamente indispensabile”[36]. Pure in questo ambito il progresso tecnologico apre prospettive nuove, benché - non da ultimo per motivi economici - permanga ancora un enorme divario tra quello che sarebbe possibile e auspicabile da un lato e la realtà dei fatti dall’altro, tanto che di recente addirittura la Corte Costituzionale si è dovuta pronunciare sulle modalità di verbalizzazione delle testimonianze[37].

4.2 Assemblee elettive

La tecnologia ha creato nuove possibilità di coinvolgimento dei cittadini anche per le assemblee elettive, da quelle parlamentari nazionali e regionali ai consigli comunali[38]. Uno degli esempi più avanzati è quello del Senato della Repubblica e della Camera dei Deputati. Quest’ultima con il servizio “Camera in diretta” [39] ha istituito un sistema avanzato di comunicazione multimodale tramite portale web che, oltre a dare accesso ai documenti scritti, tra cui i resoconti stenografici e sommari, consente di assistere in tempo reale alle sedute pubbliche dell’Assemblea nonché di accedere alle registrazioni audio e video delle stesse[40]. La resocontazione parlamentare si avvale sia della stenotipia[41], sia del riconoscimento vocale, che viene utilizzato sia per la resocontazione sommaria che per il verbatim (Ramondelli 2000; Zorzi 2001).

Mentre il verbale giudiziario esige una trascrizione per quanto possibile precisa del parlato così come è stato articolato, la diversa finalità di utilizzo dei resoconti parlamentari impone un approccio diverso. Come osservava già Nencioni, il parlato spontaneo in situazione reale - paragonato nel suo caso al parlato-scritto del testo teatrale - comprende “fenomeni di ridondanza, di spreco, di autocorrezione, d’interruzione, con tutte le cancellazioni e i conati e i “refusi”, e la frangia di suoni inarticolati, che esso coinvolge, sì da poter dire (in termini di fissione dell’uranio) che il vero parlato è “sporco”, mentre il parlato-scritto è “pulito”” (1983: 129). Una trascrizione integrale di disfluenze, refusi e ripensamenti effettivamente renderebbe spesso ostica la lettura del resoconto. Anche in questo caso l’entità dell’intervento teso ad avvicinare il parlato (per quanto formale) spontaneo al parlato-scritto resta però affidata alla discrezionalità del trascrittore, nell’ambito del suo mandato di effettuare una “riproduzione totale, parola per parola, ma in forma corretta, del discorso tenuto dall’oratore”[42]. E’ previsto che anche gli stessi oratori possano emendare i loro interventi trascritti nei resoconti stenografici. Ovviamente in entrambi i casi può accadere che nel resoconto si introducano modifiche non soltanto formali rispetto a quanto era stato pronunciato in origine[43].

Tutt’altra operazione è invece quella della resocontazione sommaria, che comporta una trasformazione in discorso indiretto e si concentra sul contento informativo essenziale delle comunicazioni, riducendone fortemente la lunghezza[44]. Uno dei pochi studi su questo affascinante fenomeno è quello avviato da Piemontese (2006).

4.3 Università

Mentre il tema delle tecnologie assistive in rete è diventato di relativa attualità anche in Italia[45], in sedi dove ancora prevalgono modalità comunicative più tradizionali come le università il panorama dell’accessibilità appare ancora abbastanza desolato[46]. All’estero la legislazione ha già prodotto una maggiore consapevolezza tra utenti e atenei, che addirittura pubblicizzano questa loro offerta di servizi per attirare studenti.

Uno degli strumenti utilizzati più di frequente è quello della sottotitolazione delle lezioni offerte nella formazione a distanza, dove può ancora sviluppare notevoli potenzialità (Brotherton e Abowd 2004). Esperienze di punta per la trascrizione in diretta sono state fatte in Canada e USA, in particolare con il Liberated Learning Project[47] avviato dalla Saint Mary’s University, Nova Scotia (Wald 2006) e di cui fa parte dall’anno accademico 2006-2007 anche l’Università di Bologna[48], prima a sperimentare il software IBM ViaScribe in una lingua neo-latina. Posti di fronte al duplice problema della disponibilità (availability) e della sostenibilità economica (affordability), i suoi promotori hanno optato per la CART mediante riconoscimento vocale, sia con addestramento diretto che speaker independent. L’interpretazione in lingua dei segni non era infatti giudicata adeguata per la portata dell’intervento necessario (è relativamente costosa, terminologia tecnica e parole straniere possono costituire un problema, molti sordi non la padroneggiano), mentre la stenotipia, anche se usata in remoto, è ancora più costosa.

Anche in questo caso è interessante notare come un servizio pensato per i sordi sia stato molto gradito anche dagli altri studenti come supplemento informativo da utilizzare in diretta e a posteriori, che, riducendo la necessità di prendere note sistematicamente, permette di concentrarsi maggiormente sull’ascolto durante la lezione. Alcuni docenti hanno utilizzato il sistema anche per la realizzazione di dispense. Qui resta tuttavia il problema della revisione delle trascrizioni, che con un tasso di precisione del 95% possono ammontare a circa un’ora per ogni ora di parlato (Bain et al. 2005: 597). E’ pertanto evidente che allo stato attuale dell’arte del riconoscimento vocale, la fase critica resta quella della revisione, che assieme all’addestramento personale del software e all’ampliamento dei dizionari può richiedere investimenti di tempo non indifferenti agli utilizzatori. Nello stesso tempo va però ricordato che l’insegnamento universitario non è incentrato solo sulla lezione frontale monologica, ma molto spesso è fortemente interattivo. Anche in questo caso quindi non ci possono essere soluzioni universalmente valide, ma resta ampio spazio alla sperimentazione e alla ricerca, tenendo conto della disponibilità degli attori e di risorse.

4.4 Televisione

L’accostamento parlato-scritto in televisione significa prima di tutto (anche se non necessariamente[49]) sottotitolazione interlinguistica, che a sua volta in Italia viene solitamente intesa dal grande pubblico come supplemento d’informazione o strumento di accessibilità per chi vuole seguire un film in una lingua originale diversa dalla propria. Anche la sottotitolazione televisiva è però molto più di questo, e anch’essa ha scoperto pregi e problemi della produzione di testi in tempo reale.

Pur esistendo varie modalità di sottotitolazione sia per la televisione analogica che digitale[50], la peculiarità di questa forma di trascrizione del parlato è costituita dalle ulteriori costrizioni cui lo scritto soggiace in termini di permanenza sullo schermo e di spazio disponibile per numero di righe e parole visualizzabili in un dato lasso di tempo. Un’altra caratteristica tipica è una maggiore complessità semiotica del mezzo dovuta all’influenza reciproca tra informazione acustica e visiva[51]. Il riconoscimento dell’importanza di questo strumento di comunicazione per i disabili e le persone vulnerabili si fa sempre più ampio, tanto che anche una recente proposta di aggiornamento della direttiva europea 89/552/CEE “Televisione per tutti” (pur facendolo in nome di principi economici e di mercato) prevede esplicitamente l’obbligo di introdurre misure atte a “garantire gradualmente che i servizi di media audiovisivi [...] diventino pienamente accessibili alle persone con disabilità sensoriali attraverso la messa a punto di forme di linguaggio gestuale, sottotitolazione, descrizione audio e sottotitolazione audio” (Hieronymi 2006: 239).

La maggioranza dei sottotitoli trasmessi dalla RAI tramite il servizio Televideo è di tipo intralinguistico, ed è destinata ai non udenti[52], anche se esistono pure qui altri fruitori possibili. Altri usi, sempre aperti alla totalità degli spettatori, possono implicare l’utilizzo parallelo di due lingue e quindi la sottotitolazione sia intralinguistica che interlinguistica, come la sottotitolazione di opere liriche o di brani di parlato difficilmente comprensibile. Soprattutto all’estero molte emittenti preferiscono trasmettere l’audio originale di film o importanti eventi di cronaca in cui si parla una lingua straniera o vi siano parlanti difficilmente intelligibili, integrato da una traduzione o trascrizione sotto forma di sottotitoli, in quanto ritengono che questa procedura aggiunga informatività e autenticità alla trasmissione[53]. Un fattore decisivo resta comunque anche quello dei costi di produzione, che sono massimi per il doppiaggio, seguiti a distanza da voice-over e sottotitolazione (cfr. Luyken et al. 1991: 105).

Anche chi studia o non conosce ancora bene una lingua straniera può trarre beneficio dalla parziale ridondanza informativa garantita dalla sottotitolazione grazie all’apporto sinergico di sonoro, testo scritto e immagini tramite i vari canali percettivi, la cui maggiore complessità pare non rallenti, ma anzi agevoli l’apprendimento, aumentando nel contempo la motivazione all’apprendimento. I sottotitoli possono così costituire un valido supporto per l’apprendimento o il rafforzamento delle conoscenze di una lingua straniera, sia da parte di adulti[54] che di bambini (d’Ydewalle e van de Poel 1999).

Le tecnologie multimediali consentono già di avere prodotti DVD con la scelta fra varie opzioni di tracce audio (in lingua originale o doppiate) abbinate a sottotitoli sia intra- che interlinguistici. Questo permette ad esempio a un discente di vedere un film in lingua straniera e sottotitoli nella propria lingua, ma anche viceversa di averlo doppiato nella propria lingua con sottotitoli nella lingua straniera, oppure di scegliere tra full-text e keyword captioning (Danan 1992 e 2004). Come per tutti gli altri casi di trascrizione, anche nel sottotitolaggio le scelte operative sono diverse e vanno calibrate sulle esigenze degli utenti. Qui l’ultima frontiera auspicata, oltre alla sottotitolazione dell’intera programmazione televisiva, resta la possibilità di scelta tra tipologie diverse di sottotitoli.

5. Conclusione

Buona parte del fascino di resocontazione e trascrizione è dovuta al fatto che vengono utilizzate in ambiti molto diversi tra loro, il che permette di attingere a esperienze che, come abbiamo già affermato nell’introduzione, possono costituire un arricchimento per tutte le categorie interessate se messe in rete e condivise: fornitori di servizio e i relativi operatori (stenografi giudiziari e parlamentari, resocontisti, sottotitolatori che usano stenotipia e/o riconoscimento vocale, redattori, respeaker, docenti, interpreti di conferenza ...), utenti e destinatari dei servizi con i loro diversi interessi (cittadini comuni, studenti universitari, sordi profondi o audiolesi, ...), produttori di applicazioni e di strumenti tecnologici (industria privata) e centri di insegnamento e ricerca (tra cui ancora le università).

Da un canto una migliore conoscenza reciproca e interazione tra professionalità distinte permette di conoscere strumenti e procedure potenzialmente utili anche per altri settori; dall’altro l’industria può trarre vantaggio da una migliore conoscenza delle esigenze a cui rispondere per individuare problematiche che restano ancora da risolvere. Anche la ricerca può giovarsi di una prospettiva più ampia nelle sue indagini e nella formulazione dei suoi obiettivi futuri. Il passo a cui procede lo sviluppo nell’ambito delle tecnologie multimediali e del trattamento automatico del linguaggio è tale che singoli ricercatori solo difficilmente possono conoscere gli ultimi sviluppi in tutti i campi potenzialmente interessanti. In particolare, la trascrizione (specie se in tempo reale) costituisce un promettente campo di indagine per l’interazione uomo-macchina e per approfondire aspetti cognitivi (attenzione condivisa tra attività contemporanee), teorici (rapporto tra tipologie testuali, meccanismi di riformulazione e condensazione, riassunto automatico, costituzione di grandi corpora multimediali di parlato trascritto) ed etico-sociali (gerarchia di esigenze e priorità d’azione, concetto di autorialità - cfr. Simone 2000).

Non da ultimo, questo confronto serve anche alle istituzioni accademiche per aggiornare e rinnovare i loro curricula onde garantire che i loro laureati siano in grado di orientarsi e trovare una collocazione in un mercato del lavoro estremamente dinamico e competitivo[55]. Si è potuto già constatare ad esempio che lo shadowing, la trascrizione o la traduzione a vista non hanno una ragione d’essere solo come esercizi propedeutici all’interpretazione simultanea, ma possono costituire anche delle attività con dignità propria all’interno di nuovi profili professionali emergenti. Un altro caso di possibile scambio di esperienze e saperi riguarda gli studi sulla presa di note e l’attenzione condivisa, che interessano sia l’interpretazione consecutiva che il CART (cfr. Piolat et al. 2005), o certe analogie nelle modalità di apprendimento tra studenti principianti di interpretazione e resocontisti alle prime armi (cfr. Trivulzio in questo volume).

Più importante di qualsiasi aspetto teorico o tecnico resta tuttavia un elemento che non potrà mai essere sostituito da nessuna tecnologia: la volontà di capire e farsi capire, da cui discende la cooperazione attiva di tutte le parti in causa alla riuscita della comunicazione. Un partecipante alla Giornata di studi di Forlì lo ha formulato con parole molto precise, che vale la pena riprendere qui:

Sono sordo, svolgo la professione di avvocato e prendo parte anche a conferenze, come docente e come partecipante. Il problema principale che ho incontrato e che ho risolto come relatore è questo: per capire quello che io dico, chi ascolta deve prepararsi e collaborare nel corso della mia esposizione. La collaborazione tra le persone è un momento fondamentale per la trasmissione del sapere. Sulla base di questo ragionamento, un anno fa a Roma ho organizzato una conferenza di diritto, molto tecnica, aperta a tutti, anche ai disabili. Non abbiamo potuto usare la sottotitolazione, perché era costosissima. Cosa abbiamo fatto? Tutti i relatori hanno fornito in anticipo un abstract, e poi usato delle slide fatte in maniera tale che chi le vedeva poteva capire almeno il 70% dell’esposizione orale. C’erano tre schermi, uno centrale e due laterali, così, ovunque una persona fosse seduta, vedeva sempre la faccia in primo piano del relatore. L’esperimento è riuscito benissimo, e hanno capito tutti. Quest’anno abbiamo organizzato un altro convegno a Ravenna, e la sfida questa volta è stata quella di far lavorare fianco a fianco un sordo come me e una persona completamente paralizzata, che muove soltanto quattro dita e parla in maniera molto stretta. Nonostante non avessimo i sottotitoli, ci siamo riusciti - senza sottotitoli, senza script, senza nulla - e abbiamo dimostrato, noi disabili - uno motorio, l’altro sordo come una campana - che possiamo parlare e ascoltare. Conclusione: la tecnica della sottotitolazione è ottima, ma quello che mi ha lasciato perplesso è l’approccio puramente tecnico. Da un lato sta chi parla, chi stenografa o sottotitola, dall’altro chi ascolta. Attenzione, perché qui si sta ripetendo quello che secondo me è un errore concettuale grave, un errore di fondo. Mi spiego. Le nuove tecnologie sono basate su programmi, su istruzioni. Quindi per funzionare a misura d’uomo, di cosa hanno bisogno? Di collaborazione! E’ questa la parola magica. Il messaggio che voglio portare, il dubbio scientifico che voglio insinuare è proprio questo: Attenzione - la comunicazione, lo dice la parola stessa, è unire con, non è uno che parla, un altro ascolta e uno in mezzo che cerca di mettere in contatto le due parti. Questo è il punto. Grazie, e ... scusate.[56]

Tabella 1: Le casistiche più comuni di passaggio dal parlato allo scritto in ambito pubblico
                                                                                                                                                                           
atto comunicativo e tecnica usata operatore canali ed eventuali fasi intermedie del processo prodotto d’arrivo
parlato in ambito giudiziario
stenotipia ausiliario + stenotipista (+ evtl. programma di CAT) orale ascoltato (+ riproduzione fonografica o audiovisiva) -> trascrizione (digitale) (parte del) processo verbale (in forma integrale)
riproduzione fonografica o audiovisiva ausiliario + stenotipista (+ evtl. personale tecnico) + personale tecnico giudiziario o altra persona idonea orale ascoltato -> trascrizione stenotipica -> trascrizione in caratteri comuni (digitale) verbale in forma riassuntiva + trascrizione/de-registrazione della riproduzione
parlato in ambito parlamentare
stenotipia resocontista-stenografo + programma di CAT orale ascoltato -> trascrizione stenotipica -> trascrizione (digitale) resoconto stenografico +processo verbale in extenso(dopo revisione)
riconoscimento vocale resocontista + programma di riconoscimento vocale orale ascoltato -> orale prodotto -> trascrizione (digitale) resoconto sommario
        resocontista     orale (registrato) e/o trascrizione e/o appunti scritti o vocali -> scritto digitale
lezione universitaria
appunti incaricato ad hoc orale (registrato) e/o appunti scritti -> scritto (digitale) appunti per non udente
trascrizione convenzionale stenotipista orale ascoltato -> trascrizione stenotipica -> trascrizione digitale trascrizione digitale
stenotipia respeaker o docente + programma di riconoscimento vocale     orale (registrato) -> trascrizione digitale     visualizzazione su schermo di porzioni estese di trascrizione + trascrizione    
        riconoscimento vocale
trasmissione televisiva
parlato adattatore orale registrato e/o testo scritto/lista dialoghi/trascrizione -> scritto digitale sottotitolo tradizionale
sottotitolatore orale (+ event. trascrizione) -> scritto sottotitolo in diretta mediante stenotipia
sottotitolatore orale ascoltato -> orale prodotto -> scritto digitale     sottotitolo in diretta mediante rispeakeraggio (da trascrizione con riconoscimento vocale)
rispeaker

 

Riferimenti bibliografici

(s.d.). “Corso di tecnica di resocontazione sommaria”. Disponibile in rete all’indirizzo http://www.resoconti.net/corso.htm Sito curato e diretto da Luigi Ciaurro, Consigliere parlamentare del Senato (ultimo accesso 28.12.2006)

(s.d.). “Cos’è la resocontazione”. Disponibile in rete all’indirizzo http://www.resoconti.net/resocontazione.htm Sito curato e diretto da Luigi Ciaurro (Consigliere parlamentare del Senato) (ultimo accesso 28.12.2006).

(s.d.). “Il Senato della Repubblica presenta il sistema di resocontazione Michela”. Disponibile in rete all’indirizzo http://www.senato.it/relazioni/21615/21699/28647/30920/30923/30924/genpagina.htm (ultimo accesso 23.12.2006).

(1989) Direttiva 89/552/CEE del Consiglio, del 3 ottobre 1989, relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati Membri concernenti l’esercizio delle attività televisive. Gazzetta ufficiale n. L 298 del 17/10/1989/23. Disponibile in rete all’indirizzo http://www.urpcomunicazioni.it/normativa/radiotv/rtv_it89_552.htm (ultimo accesso 23.12.2006).

(1996). Legislatura 13º - Disegno di legge N. 886 - Modifiche al codice di procedura penale in materia di documentazione degli atti.

(2000). Legge 7 giugno 2000, n. 150 “Disciplina delle attività di informazione e di comunicazione delle pubbliche amministrazioni”. Disponibile in rete all’indirizzo http://www.senato.it/parlam/leggi/00150l.htm (ultimo accesso 28.12.2006).

(2004). Legge 9 gennaio 2004, n. 4 “Disposizioni per favorire l’accesso dei soggetti disabili agli strumenti informatici”. Disponibile in rete all’indirizzo http://www.camera.it/parlam/leggi/04004l (ultimo accesso 28.12.2006).

(2006). Convention on the Rights of Persons with Disabilities. UN Ad Hoc Committee on a Comprehensive and Integral International Convention on the Protection and Promotion of the Rights and Dignity of Persons with Disabilities. Resumed eighth session. New York, 5 December 2006. Disponibile in rete all’indirizzo http://www.un.org/esa/socdev/enable/rights/ahc8docs/ahc8l8rev1e.doc (ultimo accesso 23.12.2006).

(2006). Legislatura 15º - Disegno di legge N. 1075 - Riforma del codice di procedura penale.

(2007). Ordinanza n. 7 del 2007 della Corte costituzionale. Disponibile in rete all’indirizzo http://www.giurcost.org/decisioni/2007/0007o-07.html

Alexieva, B. (1997). “A typology of interpreter-mediated events”. In The Translator. Studies in Intercultural Communication 3:2, 153-174.

Aliprandi, F. (2003) “Stenotipia e processo penale”. In I quaderni di Telèma Media 2000 n. 210, XXI-8, 10, 63-65. Disponibile in rete all’indirizzo http://www.fub.it/repository/telema/testi/n_210.pdf (ultimo accesso 3.12.2006).

Angeloni, F. (2003). “La trascrizione computerizzata dei resoconti di Assemblea e delle Commissioni: l’esperienza del Senato italiano. Scrivere quasi la stessa cosa”. In Specializzazione. Rivista online dell’Accademia Aliprandi. Disponibile in rete all’indirizzo http://www.accademia-aliprandi.it/ (ultimo accesso 15.12.2006).

Bailey, R. W. (1996). Human performance engineering: Designing high quality professional user interfaces for computer products, applications and systems. Upper Saddle River, N.J.: Prentice Hall.

Bailey, R. (2000). “Human interaction speeds”. Disponibile in rete all’indirizzo http://webusability.com/article_human_interaction_speeds_9_2000.htm (ultimo accesso 18.12.2006).

Bain, K.; Basson, S.; Faisman, A.; Kanevsky, D. (2005). “Accessibility, transcription, and access everywhere”. In IBM Systems Journal 44:3, 589-603. Disponibile in rete all’indirizzo http://www.research.ibm.com/journal/sj/443/bain.pdf (ultimo accesso 21.12.2006).

Behm, W. (2001). “Der Umzug des deutschen Parlaments und seiner Dienste in das neue Berlin. Die Zukunft der Parlamentsstenografie”. Disponibile in rete all’indirizzo http://www.intersteno.de/Kongress/Vortrage/behm.pdf (ultimo accesso 28.12.2006).

Berruto, G. (1993). “Varietà diamesiche, diastratiche, diafasiche”. In Sobrero, A. A. (a cura di), Introduzione all’italiano contemporaneo: La variazione e gli usi. Bari: Laterza, 37-92.

Bobeldijk, M. (2004). “Technology from a deaf person’s perspective (2)”. Relazione tenuta in occasione della conferenza europea Access to the Information Society, Bruxelles, 25.2.2004.

Brotherton, J. A.; Abowd, G. D. (2004). “Lessons learned from eClass: Assessing automated capture and access in the classroom”. In ACM Transactions on Computer-Human Interaction (TOCHI) 11:2, 121-155. Disponibile in rete all’indirizzo http://portal.acm.org/citation.cfm?doid=1005361.1005362 (ultimo accesso 18.12.2006).

Caimi, A. (2006). “Audiovisual translation and language learning: The promotion of intralingual subtitles”. In JoSTrans The Journal of Specialised Translation Special Issue 06, 85-98. Disponibile in rete all’indirizzo http://www.jostrans.org/issue06/issue06_toc.php (ultimo accesso 21.12.2006).

Carnevali, D.; F. Contini; M. Fabri (a cura di). (2006). Tecnologie per la giustizia. Milano: Giuffré.

Carroll, J.; McLaughlin, K. (2005). “Closed captioning in distance education”. In Journal of Computing Sciences in Colleges 20:4, 183-189.

Cencini, M. (2000). Il Television Interpreting Corpus (TIC) - Proposta di codifica conforme alle norme TEI per trascrizioni di eventi di interpretazione in televisione. Tesi di laurea non pubblicata, Università degli Studi di Bologna - SSLMIT Forlì.

Cencini, M. & Aston, G. (2002). “Resurrecting the corp(us|se): towards an encoding standard for interpreting data”. In Garzone, G. e Viezzi, M. (eds.) Interpreting in the 21st century. Challenges and opportunities. Selected papers from the first Forlì Conference on Interpreting Studies, 9.-11.11.2000. Amsterdam/Philadelphia: John Benjamins, 47-62.

Chalier, C. (1996). “If I read well, you promise me the world: The challenge of subtitling for Australian television today”. In New Horizons. Horizons nouveaux. Proceedings of the XIVth FIT World Congress, Melbourne February 12.-16. 1996. Vol. I. Melbourne: AUSIT - The Australian Institute of Interpreters and Translators, 441-447.

Chaume, F. (2004). “Film studies and translation studies: Two disciplines at stake in audiovisual translation”. In Meta 49:1, 12-24.

Chiari, I. (2007). Introduzione alla linguistica computazionale. Bari: Laterza.

Christoffels, I.; de Groot, A. (2004). “Components of simultaneous interpreting: Comparing interpreting with shadowing and paraphrasing”. In Language and Cognition 7:3, 227-240.

Ciaurro, G. F. (s.d.) “Breve storia dei resoconti parlamentari”. Disponibile in rete all’indirizzo http://www.resoconti.net/storia.htm (ultimo accesso 23.12.2006).

Cortelazzo, M. A. (1985) “Dal parlato al (tra)scritto: i resoconti stenografici dei discorsi parlamentari”. In Holtus, G.; Radtke, E. (eds.) Gesprochenes Italienisch in Geschichte und Gegenwart. Tübingen: Gunter Narr Verlag, 86-118.

Cresti, E. (2000). Corpus di italiano parlato. Vol. I° Introduzione. Firenze: Accademia della Crusca.

Cresti, E.; Gramigni, P. (2004). “Per una linguistica corpus based dell’italiano parlato: le unità di riferimento”. In Albano Leoni, F.; Cutugno, F.; Pettorino, M.; Savy, R. (a cura di) Il parlato italiano. Atti del convegno nazionale. Napoli, 13-15 febbraio 2003 (su CD). Napoli: D’Auria Editore, M02.

Danan, M. (1992). “Reversed subtitling and dual coding theory: New directions for foreign language instruction”. In Language Learning 42:4, 497-527.

Danan, M. (1995). “Le soustitrage. Stratégie culturelle et commerciale”. In Gambier, Y. (éd.) Rapport sur le rencontre de Strasbourg, 23-24 juin 1995 “Communication audiovisuelle et transferts linguistiques”. Translatio XIV/3-4, 272-281.

Danan, M. (2004). “Captioning and subtitling: Undervalued language learning strategies”. In Meta 49:1, 67-77.

Dardano, M. (1994). “Testi misti”. In De Mauro, T. (a cura di) Come parlano gli italiani. Scandicci: La Nuova Italia, 175-181.

de Bot, K.; Jagt, J.; Hansen, H.; Kessels, E.; Schils, E. (1986). “Foreign language television and language maintenance”. In Second Language Research 2:1, 72-82.

Delabastita, D. (1989). “Translation and mass communication: film and T.V. translation as evidence of cultural dynamics”. In Babel. International Journal of Translation 35:4, 193-218.

de Linde, Z. (1995). “Read my lips: subtitling principles, practices, and problems”. In Perspectives. Studies in Translatology 3:1, 9-20.

de Linde, Z.; Kay, N. (1999). The semiotics of subtitling. Manchester: St. Jerome Publishing.

den Boer, C. (1998). “Live Subtitling” in Languages & The Media. Les langues dans l’audiovisuel. Sprache & Medien. 2nd International Conference and Exhibition on Quality and Standards in Audiovisual Language Transfer. Berlin, October 15-16, 1998. Book of Abstracts. Bonn: International Where & How, 60-61.

Di Carlo, A. (2003). “Resocontazione multimediale: una nuova prospettiva”. In I quaderni di Telèma Media 2000 n.210, XXI-8, 10, 2003, 66-70. Disponibile in rete all’indirizzo http://www.fub.it/repository/telema/testi/n_210.pdf (ultimo accesso 3.12.2006).

Di Federico, G.; Zanzara, G.; Mestitz, A. (1993). Verbalizzazione degli atti processuali, tecnologie video e gestione dell’innovazione nell’amministrazione della giustizia. Roma: CNR.

Di Piazza, G. (2001). “La resocontazione stenografica all’Assemblea regionale siciliana”. In Specializzazione. Rivista online dell’Accademia Aliprandi. Disponibile in rete all’indirizzo http://www.accademia-aliprandi.it/ (ultimo accesso 15.12.2006).

d’Ydewalle, G.; van de Poel, M. (1999). “Incidental foreign-language acquisition by children watching subtitled television programs”. In Journal of Psycholinguistic Research 28:3, 227-244.

Edwards, J. A. (2001). “The transcription of discourse”. In Schiffrin, D. & Tannen, D. & Hamilton, H. E. (eds.), The handbook of discourse analysis. Malden, Mass./Oxford: Blackwell, 321-348.

Edwards, J. A.; Lampert, M. D. (eds.). (1991). Talking languages: a handbook for transcription and coding of spoken language. Hillsdale, N.J.: Lawrence Erlbaum Associates.

Edwards, J. A.; Lampert, M. D. (eds.). (1993). Talking data: transcription and coding in discourse research. Hillsdale, N.J.: Lawrence Erlbaum Associates.

Eugeni, C. (2003). Il teatro d’opera e l’adattamento linguistico simultaneo. Tesi di laurea, Università degli Studi di Bologna - SSLMIT Forlì. Disponibile in rete all’indirizzo http://voice.jrc.it/educ/univ/thesis/eugeni/_eugeni_it.htm (ultimo accesso 15.12.2006).

Fabbretti, D. (2002). “Il linguaggio dei sottotitoli e gli spettatori sordi”. In Scripta volant. La Rai per i sordi. Seminario sui programmi televisivi sottotitolati. Roma, 25 - 26 ottobre 2001. Roma: Rai ERI, 23-35.

Falbo, C. (2005). “La transcription: une tâche paradoxale”. In The Interpreters’ Newsletter 13, 25-38.

Fantoni, L. (2001). Il minore sessualmente abusato: vicende processuali e trattamento terapeutico. Tesi di Laurea in Psicologia. Facoltà di Giurisprudenza - Università degli Studi di Firenze.

Ginzburg, C. (1991). Il giudice e lo storico. Considerazioni in margine al processo Sofri. Torino: Einaudi.

Giulietti, F. (1968). Storia delle scritture veloci: dall’antichitá ad oggi. Firenze: Giunti Barbera.

Hieronymi, R. (2006). Relazione sulla proposta di direttiva del Parlamento europeo e del Consiglio che modifica la direttiva 89/552/CEE del Consiglio relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti l’esercizio delle attività televisive. Documento di seduta del Parlamento europeo Finale A6-0399/2006, 22.12.2006.

Jakobson, R. (1959). “On linguistic aspects of translation”. In Brower, R. A. (ed.) On translation, Cambridge, Mass.: Harvard University Press, 232-239. In it. “Aspetti linguistici della traduzione”. In Saggi di linguistica generale. Milano: Feltrinelli, 1966; 4. ed. 1992, 56-64; tr. di L. Heilmann e L. Grassi.

Kopczynski, A. (1982). “Effects of some characteristics of impromptu speech on conference interpreting”. In Enkvist, N. E. (ed.), Impromptu speech: a symposium. Abo: Research Institute of the Abo Akademi Foundation, 255-266.

Kurz, I. (1992). “Shadowing exercises in interpreter training”. In Dollerup, C.; Loddegaard, A. (eds.) Teaching translation and interpreting 1: Training, talent and experience. Papers from the First Language International Conference, Elsinore, Denmark, 31 May-2 June 1991. Amsterdam/Philadelphia: John Benjamins, 245-250.

Kurz, I.; Katschinka, L. (1988). “Live subtitling - A first experiment on Austrian TV”. In Nekeman, P. (ed.) Translation, our future. Proceedings of the XIth World Congress of FIT, Maastricht 20.-27.8.1987. Maastricht: Euroterm, 479-483.

Lambourne, A.; Hewitt, J.; Lyon, C.; Warren, S. (2004). “Speech-based real-time subtitling service”. In International Journal of Speech Technology 7, 269-279.

Leech, G. N.; Myers, G. & Thomas, J. (eds.). (1995). Spoken English on computer: transcription, mark-up and application. New York: Longman.

Liso, L.; Picone, P.; Rampelli, S. (2002). “Proposta per un manuale di sottotitolazione per i sordi”. In Scripta volant. La Rai per i sordi. Seminario sui programmi televisivi sottotitolati. Roma, 25 - 26 ottobre 2001. Roma: Rai ERI, 183-234.

Luyken, G.-M.; Herbst, T.; Langham-Brown, J.; Reid, H.; Spinhof, H. (1991). Overcoming language barriers in television. Dubbing and subtitling for the European audience. Manchester: The European Institute for the Media.

Marcelli, S. (1991). Scripta volant. Viaggio nel televideo della Rai. Roma: Nuova ERI - RAI VQPT n. 103.

Meyer, B. (1998). “What transcriptions of authentic discourse can reveal about interpreting”. In Interpreting 3:1, 65-83.

Milzow, M.; Wiesenhütter, A. (1997). “Shadowing”. In Folia Translatologica. International Series 5, 21-28.

Monti, C.; Bendazzoli, C.; Sandrelli, A.; Russo, M. (2005). “Studying directionality in simultaneous interpreting through an electronic corpus: EPIC (European Parliament Interpreting Corpus)”. in Meta 50:4 (su CD).

Nencioni, G. (1976). “Parlato-parlato, parlato-scritto, parlato-recitato”. In Nencioni, G. (1983). Di scritto e di parlato. Discorsi linguistici. Bologna: Zanichelli, 126-179.

Ochs, E. (1979). “Transcription as theory”. In Ochs, E. & Schieffelin, B. B. (eds.), Developmental pragmatics. New York: Academic Press, 43-72.

Ong, W. J. (1977). Interfaces of the word. Studies in the evolution of consciousness and culture. Ithaca/London: Cornell University Press; in it. Interfacce della parola. Bologna: Il Mulino (1989). Trad. di A. Calanchi.

Ong, W. J. (1982). Orality and literacy: the technologizing of the word. London/New York: Methuen; in it. Oralità e scrittura: Le tecnologie della parola. Bologna: Il Mulino (1986). Trad. di G. Scatasta.

Orletti, F.; Testa, R. (1991). “La trascrizione di un corpus di interlingua: aspetti teorici e metodologie”. In Orletti, F. (a cura di) Aspetti linguistici e sociolinguistici dell’italiano dell’immigrazione. Studi italiani di linguistica teorica e applicata 20:2, 243-283.

Palmerini, M. (2006). “Detto, compreso e trascritto. Il problema della rappresentazione dei fenomeni del parlato nello scritto, in un corpus di trascrizione giudiziarie”. Comunicazione al Convegno internazionale “La comunicazione parlata” (Napoli, 23-25 febbraio 2006), 116. Raccolta degli abstracts disponibile in rete all’indirizzo http://www.comunicazioneparlata.org/Convegni/Napoli2006/ABSTRACTS.pdf (ultimo accesso 4.12.2006).

Paoloni, A. (2003). “Le tecniche di rendicontazione”. In I quaderni di Telèma Media 2000 n.210, XXI-8, 10, 2003, 57-60. Disponibile in rete all’indirizzo http://www.fub.it/repository/telema/testi/n_210.pdf (ultimo accesso 3.12.2006).

Piemontese, M. E. (2006). “La comprensibilità dei resoconti parlamentari. Problemi teorici dell’analisi”, Comunicazione al Convegno internazionale “La comunicazione parlata” (Napoli, 23-25 febbraio 2006), 117. Raccolta degli abstracts disponibile in rete all’indirizzo http://www.comunicazioneparlata.org/Convegni/Napoli2006/ABSTRACTS.pdf (ultimo accesso 4.12.2006).

Piolat, A.; Olive, T.; Kellogg, R. T. (2005). “Cognitive effort during note taking”. In Applied Cognitive Psychology 19:3, 291-312.

Ramondelli, F. (2000). “La riforma del servizio dei resoconti del Senato”. In Specializzazione. Rivista online dell’Accademia Aliprandi. Disponibile in rete all’indirizzo http://www.accademia-aliprandi.it/ (ultimo accesso 15.2.2006).

Ramondelli, F. (2001). “Innovazione e prospettive della resocontazione”. In Specializzazione. Rivista online dell’Accademia Aliprandi. Disponibile in rete all’indirizzo http://www.accademia-aliprandi.it/ (ultimo accesso 15.2.2006).

Ramondelli, F. (2004). “Esperienze di verbalizzazione al Senato”. In Specializzazione. Rivista online dell’Accademia Aliprandi. Disponibile in rete all’indirizzo http://www.accademia-aliprandi.it/ (ultimo accesso 15.12.2006).

Rampelli, S. (2002). “Sottotitoli TV per sordi: undici esempi”. In Scripta volant. La Rai per i sordi. Seminario sui programmi televisivi sottotitolati. Roma, 25 - 26 ottobre 2001. Roma: Rai ERI, 40-53

Schmidt, T. (2005). Computergestützte Transkription - Modellierung und Visualisierung gesprochener Sprache mit texttechnologischen Mitteln. Frankfurt a. M.: Peter Lang.

Shea, P. (2000). “Leveling the playing field: A study of captioned interactive video for second language learning”. In Journal of Educational Computing Research 22:3, 243-263.

Simone, R. (2000). “Tre paradigmi di scrittura”. In Italiano Scritto. Disponibile in rete all’indirizzo http://www.italianoscritto.com/interventi/testi/simone.htm (ultimo accesso 19.12.2006).

Sobrero, A. (1994). “Gli stili del parlato”. In De Mauro, T. (a cura di) Come parlano gli italiani. Scandicci: La Nuova Italia, 35-42.

Tannen, D. (1982). “The oral/literate continuum in discourse”. In Tannen, D. (ed.), Spoken and written language: exploring orality and literacy. Norwood, N.J.: Ablex, 1-16.

Titford, C. (1982). “Subtitling - constrained translation”. In Lebende Sprachen 27:3, 113-116.

Trivulzio, G. P. (2001). “L’evoluzione tecnica: da Tirone al riconoscimento del parlato”. In Specializzazione. Rivista online dell’Accademia Aliprandi. Disponibile in rete all’indirizzo http://www.accademia-aliprandi.it/ (ultimo accesso 15.12.2006).

Vettori, G. et al. (a cura di) (1990). Codice di Procedura Penale on-line. Disponibile in rete all’indirizzo http://www.camerapenale-bologna.org/intros/intro_4.htm (ultimo accesso 28.12.2006).

Villani, P. (2006). “Il parlato delle assemblee parlamentari: il lessico”. Comunicazione al Convegno internazionale “La comunicazione parlata” (Napoli, 23-25 febbraio 2006), 117. Raccolta degli abstracts disponibile in rete all’indirizzo http://www.comunicazioneparlata.org/Convegni/Napoli2006/ABSTRACTS.pdf (ultimo accesso 4.12.2006).

Volpi, A. (2002). Dragon NaturallySpeaking: programma di riconoscimento vocale e applicazione alla didattica dell’interpretazione. Tesi di laurea non pubblicata. Università degli Studi di Bologna - SSLMIT Forlì.

Wald, M. (2006). “Creating accessible educational multimedia through editing automatic speech recognition captioning in real time”. In International Journal of Interactive Technology and Smart Education: Smarter Use of Technology in Education 3:2, 131-142. Disponibile in rete all’indirizzo http://eprints.ecs.soton.ac.uk/12139/ (ultimo accesso 23.12.2006).

Zorzi, S. (2001). “Relazione sull’utilizzo della tecnica del riconoscimento vocale nella redazione dei resoconti integrali di base dei lavori della Camera dei deputati”. In Specializzazione. Rivista online dell’Accademia Aliprandi. Disponibile in rete all’indirizzo http://www.accademia-aliprandi.it/ (ultimo accesso 15.12.2006).

Note

[1] “... denn, was man schwarz auf weiß besitzt, kann man getrost nach Hause tragen.” (Faust I; trad. di Guido Manacorda. Firenze: Sansoni 1949).

[2] Per streaming si intende un sistema che permette di riprodurre su un computer un flusso di dati audio/video compressi e trasmessi via Internet in tempo reale o in differita su richiesta.

[3] Per podcasting si intende un sistema che permette di scaricare su un computer o un lettore dei documenti audio, video o di testo compressi messi a disposizione su Internet, spesso gratuitamente.

[4] Per una trattazione storica cfr. Giulietti 1968; più in particolare per la storia della resocontazione parlamentare cfr. Ciaurro (s.d.).

[5] Usiamo qui il termine resocontazione (che per analogia con ‘resoconto’ abbiamo preferito a rendicontazione) nell’accezione più ampia di processo o prodotto che documenta atti o avvenimenti, non necessariamente solo in forma scritta.

[6] Salvo indicazione diversa usiamo il termine trascrizione nel senso di processo o prodotto del riprodurre un testo orale in forma scritta ripetendone integralmente e con la massima accuratezza possibile almeno le parole e i tratti prosodici essenziali.

[7] Cfr. la legge 7 giugno 2000, n. 150 “Disciplina delle attività di informazione e di comunicazione delle pubbliche amministrazioni”.

[8] Le generazioni giovani di sordi in Italia quasi sempre hanno avuto un’educazione oralista, e molti non conoscono la Lingua dei segni.

[9] Questa vale soprattutto per i paesi oltreoceano. L’Unione europea non possiede ancora una norma comunitaria, e solo il Parlamento del Regno Unito ha legiferato sulla sottotitolazione in televisione. Sono tuttavia in atto tentativi di inserire un accenno alla sottotitolazione nella revisione della Direttiva 89/552/CEE sulla “Televisione per tutti” (cfr. Hieronymi 2006). Il 5 dicembre 2006 è stata presentata anche una bozza di Convenzione delle Nazioni Unite sui diritti delle persone disabili.

[10] Cfr. la Web Accessibility Initiative, http://www.w3.org/WAI e, per l’Italia, il sito http://www.pubbliaccesso.gov.it (ultimo accesso 28.12.2006).

[11] Uno degli esempi meno consueti di trasformazione dell’orale in scritto, accompagnato dal passaggio tra varie lingue, si è verificato proprio in occasione della già menzionata Giornata di studi di Forlì, dove gli interventi degli oratori di lingua inglese sono stati interpretati simultaneamente in italiano, e su questa base sia interpretati in Lingua Italiana dei Segni (LIS), sia trascritti da una stenotipista e visualizzati come testo continuo di 15 righe che scorrevano mano a mano verso l’alto su uno schermo. Artefici di questo bell’esempio di Communication access real-time transcription sono stati la stenotipista Simona Centurioni, l’interprete di LIS Antonio Ingrassia e gli interpreti vocali Saveria Arma, Marco De Martino, Maria Ugolini e Nicola Zarri. Un discorso inglese è stato invece interpretato in simultanea e trascritto contestualmente in italiano mediante riconoscimento vocale da Carlo Eugeni in occasione di un seminario sul progetto VOICE il 27.10.2005, sempre a Forlì (cfr. http://voice.jrc.it)

[12] Vedi Berruto 1993; Kopczynski 1982 per l’interpretazione identifica schematicamente quattro categorie:
1. unprepared oral monologue/dialogue (spoken medium: toast, exposé, free discussion)
2. semi-prepared oral monologue with notes (spoken medium: lecture)
3. written monologue intended for oral delivery and read (spoken medium: speech)
4. written monologue intended for records and read (written medium: resolution).

[13] Ciò nonostante, il Codice di procedura penale italiano all’Art. 134, 2° comma (Vettori et al. 1990) contempla ancora esplicitamente la redazione del verbale con scrittura manuale per la documentazione degli atti processuali.

[14] Molto approssimativamente, si calcola un rapporto tra velocità d’eloquio e scrittura di 10 a 1; cfr. Wald 2006:3; Edwards 2001:336; Bailey 1996 e 2000.

[15] In questo caso si parla anche di trascrizione (stenografica) supportata da computer o CAT; cfr. “Il Senato della Repubblica presenta il sistema di resocontazione Michela” s.d.; Ramondelli 2001 e 2004; Trivulzio 2001; Paoloni 2003.

[16] Cfr. Eugeni in questo volume; vedi anche Trivulzio e Ramondelli in questo volume.

[17] Cfr. http://en.wikipedia.org/wiki/Stenomask e http://www.talkincorporated.org/ (ultimo accesso 28.12.2006).

[18] Di particolare interesse in Italia sono gli sviluppi ottenuti dalla società FBL con il software VoiceMeeting e, all’estero, il progetto Malach, che, combinando ricerca avanzata e applicazione pratica, si prefigge la trascrizione automatica del grande corpus di parlato multilingue dei sopravvissuti allo sterminio degli ebrei della Shoah Visual History Foundation. Cfr. http://www.research.ibm.com/malach/ (ultimo accesso 28.12.2006).

[19] Cfr. ad es. il Codice di procedura penale all’Art. 494, 2° comma: “L’ausiliario riproduce integralmente le dichiarazioni [= spontanee; n.d.a.] rese a norma del comma 1, salvo che il giudice disponga che il verbale sia redatto in forma riassuntiva”, e all’Art. 510 2° comma: “L’ausiliario che assiste il giudice documenta nel verbale lo svolgimento dell’esame dei testimoni, dei periti, dei consulenti tecnici e delle parti private, riproducendo integralmente in forma diretta le domande poste dalle parti o dal presidente nonché le risposte delle persone esaminate.” (Vettori et al. 1990; corsivi miei).

[20] Per una prima panoramica cfr. Ochs 1979, Edwards e Lampert 1991 e 1993; Leech et al. 1995; Edwards 2001; per la trascrizione nella ricerca sull’interpretazione anche Meyer 1998, Cencini 2000 e 2002, Falbo 2005, Monti et al. 2005; per la trascrizione di corpora orali Cresti e Gramigni 2004.

[21] Per maggiori dettagli cfr. Kurz 1992; Milzow e Wiesenhütter 1997; Christoffels e de Groot 2004. Per una possibile applicazione del riconoscimento vocale alla didattica dell’interpretazione cfr. Volpi 2002.

[22] Cfr. Titford 1982, che parla della sottotitolazione come constrained translation.

[23] Cfr. Fabbretti 2002 e De Seriis in questo volume.

[24] Analogamente un addetto ai lavori descrive la consapevolezza del resocontista che sa di “scrivere quasi la stessa cosa” (Angeloni 2003).

[25] Cfr. Codice di procedura penale Artt. 138, 1° comma e 483, 2° comma (Vettori et al. 1990).

[26] In questo settore il CENELEC (Comitato Europeo per la Normalizzazione Elettrotecnica) svolge da anni un’intensa attività di promozione e coordinamento; http://www.cenelec.org (ultimo accesso 18.12.2006).

[27] Per i sottotitoli destinati ai sordi cfr. Rampelli 2002 e Liso et al. 2002.

[28] Questo passo è stato tratto dalla trascrizione effettuata in tempo reale durante la Giornata di studi di Forlì da Simona Centurioni della Synchronos s.r.l. di Roma, che ringraziamo per averci messo a disposizione il frutto del suo lavoro.

[29] Cfr. ad es. le considerazioni sulla necessità di semplificazione dei sottotitoli per tenere conto delle maggiori difficoltà di lettura dei sordi rispetto agli utenti o degli studi sulla comprensione dei sottotitoli da parte di bambini e ragazzi in Fabbretti 2002.

[30] Per una piccola panoramica sull’offerta di servizi di trascrizione cfr. ad es. http://roma2003.intersteno.it/page.php/id_primario-5/id_secondario-102/language-francese/ (ultimo accesso 23.12.2006).

[31] Lo sa bene chi produce e fa uso di trascrizioni per la ricerca sul parlato, e lo sa chi con le trascrizioni lavora per ricerche di altro tipo. Lo storico Carlo Ginzburg ad esempio, a proposito delle trascrizioni relative a un controverso caso giudiziario italiano, annota che “nel passaggio dall’oralità alla scrittura vanno perduti intonazioni, esitazioni, silenzi, gesti. Vanno perduti, ma non del tutto. Spesso [...] i trascrittori registrano tra parentesi lacrime, risa, risposte mancate o pronunciate con particolare foga.” Ne conclude che “Qui la trascrizione è già interpretazione, e condiziona le interpretazioni successive elaborate in un futuro prossimo [...] o remoto”, aggiungendo in nota un elogio per trascrizioni “curate con grande intelligenza ermeneutica (penso soprattutto all’uso sapiente della punteggiatura)” (Ginzburg 1991: 11; corsivo mio).

[32] Cfr. Di Federico et al. 1993; Carnevali, Contini e Fabri 2006.

[33] Cfr. http://www.forumpa.it/archivio/3000/3300/3340/3348/astreafinestra-veloci.html e http://www.cineca.it/gai/files/pdf/Astreait.pdf (ultimo accesso 23.12.2006).

[34] Cfr. Fantoni 2001 per i processi che coinvolgono minori abusati.

[35] Relazione sul disegno di legge n. 886 del 1996 “Modifiche al codice di procedura penale in materia di documentazione degli atti” (Legislatura 13º).

[36] Disegno di legge n. 1075 del 2006, Art. 152 “Riforma del codice di procedura penale” (Legislatura 15º).

[37] Ordinanza n. 7 del 2007 della Corte costituzionale http://www.giurcost.org/decisioni/2007/0007o-07.html

[38] Cfr. ad es. i comuni di Grosseto (http://stream.comune.grosseto.it/) e Sesto San Giovanni (http://consiglio.sestosg.net/); per la prassi all’Assemblea regionale siciliana cfr. Di Piazza 2001; per un riassunto sulla prassi del Parlamento federale tedesco cfr. Behm 2001.

[39] http://www.camera.it/audiovideo/ (ultimo accesso 23.12.2006).

[40] Il sistema consente anche di visualizzare il resoconto stenografico dell’Assemblea redatto in corso di seduta, quasi in tempo reale. Per ogni seduta a partire dal gennaio 2004 è inoltre possibile accedere all’ordine del giorno e ai singoli interventi, mentre le sole registrazioni degli interventi sono presenti anche per le due legislature precedenti. Per una descrizione più dettagliata del sistema cfr. http://www.interact.it/files/Whitepaper_videoassemblea.pdf (ultimo accesso 23.12.2006).

[41] Angeloni 2003; Di Carlo 2003; Ramondelli 2004; per una bibliografia più ampia cfr. http://www.resoconti.net/biblio.htm (ultimo accesso 28.12.2006).

[42] Da “Cos’è la resocontazione” (corsivo mio). Disponibile in rete all’indirizzo http://www.resoconti.net/resocontazione.htm Sito curato e diretto da Luigi Ciaurro, Consigliere parlamentare del Senato (ultimo accesso 28.12.2006).

[43] Cfr. Cortelazzo 1985. Per uno studio specifico sul lessico dei resoconti cfr. Villani 2006.

[44] Cfr. “Corso di tecnica di resocontazione sommaria”. Disponibile in rete all’indirizzo http://www.resoconti.net/corso.htm (ultimo accesso 28.12.2006). Nel caso delle due sedute del Senato n. 87 e 88 del 14 dicembre 2006, scelte dall’autrice a caso a titolo di esempio, il numero di parole dei resoconto sommario era pari al 7-8% di quelle del resoconto stenografico, riducendone la densità approssimativa da 255 a 19 parole per minuto.

[45] Cfr. ad es. la Legge n. 4 del 9.1.2004 “Disposizioni per favorire l’accesso dei soggetti disabili agli strumenti informatici” (legge Stanca).

[46] Cfr. l’esperienza descritta da Pirelli in questo volume. Fanno riflettere anche le osservazioni di un partecipante alla Giornata di studi di Forlì di Angelo Paglino della FBL srl, produttrice di software per la trascrizione in tempo reale: “Il problema è quello di controllare la velocità del parlato. Possiamo utilizzare la tecnologia del riconoscimento vocale laddove l’insegnante è disposto ad adeguare la velocità del suo parlato alla velocità di lettura della persona che deve leggere l’informazione scritta nel sottotitolo. Non abbiamo assolutamente problemi nelle scuole elementari, e normalmente neppure nelle superiori. All’università incontriamo invece di solito un netto rifiuto del docente di utilizzare qualsiasi tecnologia, perché rallenterebbe il suo modo di esporre la lezione. E’ in sostanza lo stesso problema che avremmo nel caso di presenza di un interprete (vocale o della lingua italiana dei segni), che entrambi non possono interpretare adeguatamente un parlato troppo veloce. All’università di Pavia abbiamo preferito registrare le lezioni (il ragazzo sordo va a lezione e dà all’insegnante un radiomicrofono che lo registra) che vengono poi sbobinate, trascritte in un secondo momento. Non riusciamo a ottenere normalmente dall’insegnante un modo di parlare adeguato alla possibilità di leggere un sottotitolo.” (Questo passo è stato tratto dalla trascrizione effettuata in tempo reale durante la Giornata di studi di Forlì da Simona Centurioni della Synchronos s.r.l. di Roma, che ringraziamo per averci messo a disposizione il frutto del suo lavoro).

[47] Per approfondimenti bibliografici cfr. il sito http://www.liberatedlearning.com/resources/index.shtml (ultimo accesso 28.12.2006).

[48] Cfr. http://www.liberatedlearning.com/consortium/bologna.shtml (ultimo accesso 28.12.2006).

[49] Un caso molto interessante è il teletext (ad es. Televideo RAi) come ulteriore tipologia di offerta d’informazione scritta all’interno del mezzo televisivo (cfr. Marcelli 1991).

[50] Negli USA, dove la sottotitolazione è nata all’inizio degli anni settanta, si parla di open captioning, visibile a tutti gli spettatori senza la necessità di attrezzature specifiche come le sovrimpressioni di nomi o le notizie scritte che scorrono in fondo allo schermo durante un notiziario; per contro il closed captioning deve essere appositamente attivato su televisori dotati di ricevitore di teletext, oppure dal software di riproduzione video se utilizzati su un computer (cfr. Carroll e McLaughlin 2005). Di conseguenza le captions sono in genere intralinguistiche, mentre subtitling implica un’operazione interlinguistica; in Europa quest’ultimo termine tende tuttavia a essere usato per entrambe le forme.

[51] Cfr. Delabastita 1989; Danan 1995; de Linde 1995; de Linde e Kay 1999; Chaume 2004.

[52] Cfr. De Seriis in questo volume; per indicazioni bibliografiche sulla sottotitolazione per sordi cfr. Fabbretti 2002.

[53] Per la sottotitolazione in tempo reale cfr. Kurz e Katschinka 1988; den Boer 1998; de Korte in questo volume.

[54] Cfr. De Bot et al. 1986; Chalier 1996; Shea 2000; Danan 2004; Caimi 2006.

[55] Cfr. Baaring e van der Veer in questo volume.

[56] Questo passo è stato tratto dalla trascrizione effettuata in tempo reale durante la Giornata di studi Forlì da Simona Centurioni della Synchronos s.r.l. di Roma, che ringraziamo per averci messo a disposizione il frutto del suo lavoro. Per ulteriori indicazioni sui convegni menzionati cfr. http://www.meetinability.net (ultimo accesso 10.11.2006).

 

About the author(s)

Gabi Mack è professore associato di lingua e traduzione tedesca presso la Scuola Superiore di Lingue Moderne per Interpreti e Traduttori dell’Università di Bologna a Forlì, dove insegna interpretazione tra il tedesco e l’italiano. Ha lavorato per anni come interprete di conferenza e traduttrice. I suoi interessi di ricerca riguardano principalmente la didattica dell’interpretazione, l’analisi e la valutazione del risultato del processo interpretativo, l’interpretazione di conferenza, per i media nonché in campo sociale.

The author is associate professor of German language and translation at SSLMIT, the School for Interpreters and Translators of Bologna University at Forlì, where she teaches interpreting between German and Italian. She has been working as a free-lance conference interpreter and translator for many years. Her main research interests focus on interpreter training, analysis of interpreting processes and outcomes as well as conference, media and public service interpreting.

Email: [please login or register to view author's email address]

©inTRAlinea & Gabriele Mack (2006).
"Detto scritto: un fenomeno, tanti nomi"
inTRAlinea Special Issue: Respeaking
Edited by: Carlo Eugeni & Gabriele Mack
This article can be freely reproduced under Creative Commons License.
Permanent URL: http://www.intralinea.org/specials/article/1695

Go to top of page