From mc9809@mclink.it Tue Nov 16 10:49:49 1999
Date: Tue, 16 Nov 1999 02:11:54 +0100
From: Domenico Fiormonte 
To: Fiammetta 
Subject: CLP 2 Report / Relazione seminario

Cari amici / Dear friends:

here goes a bilingual version of the "Computer, Literature and  Philology"
seminar report.

I'd be very grateful if you could send it to all the people you think  might
be interested. A special thank to Jon Usher for the English  translation!

All the best

Domenico

Dal 3 al 5 novembre 1999 si e' svolta presso l'Universita' di Roma "La Sapienza" la seconda edizione di ^ÓComputer, letteratura e filologia^Ô, un seminario internazionale dedicato al rapporto fra informatica e discipline umanistiche. Il seminario e' stato organizzato dal Progetto Testi Italiani in Linea, attivo presso il Dipartimento di Studi Linguistici e Letterari della Facolta' di Lettere. Il primo appuntamento, svoltosi con successo in Scozia, era stato realizzato con il contributo del Dipartimento di Italiano dell'Universita' di Edimburgo e dell'Istituto Italiano di Cultura (che sta curando anche la pubblicazione degli atti).

Come l'anno scorso su Web sono disponibili tutti gli abstract del convegno, mentre Repubblica online ha dedicato all'evento un articolo che è rintracciabile all'indirizzo http://www.repubblica.it /online/cultura_scienze/ classici/classici/classici.html. anche altri e-journals

Dagli interventi e' emerso che la situazione dell'informatica umanistica in Italia e' senz'altro vivace. E' un momento importante, forse decisivo, per il riconoscimento dell'informatica umanistica come disciplina autonoma. In certe aree siamo piu' avanti di altri paesi europei e soprattutto esistono gruppi attivi nelle principali universita'. Faccio alcuni nomi, ma lista non e' esaustiva: Bologna (Dino Buzzetti, Federico Pellizzi), Pisa (Mirko Tavoni, Antonio Zampolli), Roma (Giuseppe Gigliozzi, Tito Orlandi, Raul Mordenti, Fabio Ciotti), Trieste (Giulio Lughi), Torino (Mario Ricciardi, Maurizio Lana, Luca Toselli), Firenze (Luca Toschi, la Fondazione Franceschini, ecc.) Milano (Alberto Cadioli, Paolo Ferri, ecc.), L'Aquila (Pasquale Stoppelli), Viterbo (Gino Roncaglia).

C'e' stato un momento in cui molti dei membri di questa variegata galassia si riunivano e parlavano di progetti comuni. Poi con Web e la multimedialita' ogni gruppo e' decollato seguendo direzioni proprie. Se queste forze si unissero, anche parzialmente e su obiettivi minimi, il nostro sarebbe uno dei paesi europei piu' avanzati in campo umanistico- tecnologico.

L'incontro di Roma voleva essere un tentativo in questa direzione: confrontarsi con le grandi istituzioni straniere e trovare punti di collaborazione all'interno dei gruppi italiani.

Il cuore "teorico" del convegno e' stato il dibattito sulla codifica elettronica dei testi. La codifica e' per molti un concetto astruso, roba per addetti ai lavori. In realta' questa pratica rappresenta un momento cruciale nella cultura del nostro tempo: il passaggio dal supporto cartaceo a quello elettronico. La codifica infatti e' il processo attraverso un quale un testo conserva la "memoria" di cio' che fu: formattazione, capoversi, particolarita' ortografiche, ecc. Si pensi per un momento all'enorme patrimonio bibliotecario e archivistico del nostro paese. Lo scenario e' chiaro: su questo 'oscuro' concetto ci si gioca un pezzo di eredita' culturale. E di conseguenza anche molti soldi: chi decidera' / influenzera' il modo in cui domani verra' digitalizzato il patrimonio testuale del nostro paese? Con quali strumenti verra' fatto? secondo quali criteri? Come si vede il convegno andava ben oltre il suo titolo.

Oggi, ogni biblioteca, archivio o centro di documentazione deve porsi il problema della "trasportabilita'" e della fedelta' attraverso il tempo delle informazioni. Per rendere disponibili (e naturalmente "interrogabili") enormi quantita' di dati sono nati i linguaggi di marcatura (HTML e' fra questi), speciali "segni diacritici" che assegnano una struttura o un aspetto specifico alla sequenza dei caratteri. Ma quali problemi interpretativi (teorici e pratici) implica la codifica elettronica di un testo?

Di questo ha parlato nella prima giornata Dino Buzzetti (Universita' di Bologna) e il dibattito e' poi proseguito con Lou Burnard (Oxford University), uno dei fondatori del prestigioso Oxford Text Archive, che ha illustrato le possibilita' offerte dal linguaggio di marcatura XML (Extensible Markup Language). Burnard ha anche introdotto la Text Encoding Initiative, il consorzio internazionale che si occupa di discutere e proporre standard di codifica dei testi utilizzando SGML (Standard Generalized Markup Language). Agli standard della TEI ha aderito (che io sappia per la prima volta in Italia) il Progetto Testi Italiani in Linea, presentato nella seconda giornata.

Nel pomeriggio Fernando Magan (Centro Ramon Piñeiro, Santiago de Compostela) ha parlato di un progetto di digitalizzazione di manoscritti della letteratura Galego-Portuguesa che fa uso di SGML ma non della TEI, mostrando come il cammino della standardizzazione risulti e come ciascuna tradizione testuale presenti problemi distinti (e qualche volta ignorati da chi e' lontano da certe aree culturali). La giornata d'altronde era stata aperta da Jon Usher, dell'Universita' di Edimburgo, che ha ricordato a tutti il primato dell'oggetto critico: "il testo in cerca di interpreti" (cfr. http://til.let.uniroma1.it/appuntamenti/usher.htm).

Gli altri interventi della giornata hanno spaziato dalla codifica delle Novelle Porrettane (Francesca Tomasi) al Decameron Web (Michael Hemment), uno dei primi ipertesti in rete dedicati all'insegnamento della lingua e della letteratura italiana. Molto interessanti (e utili) le presentazioni degli sponsor: IBM, Expert System e Inso, tre aziende (due di queste multinazionali) impegnate su diversi fronti: la divulgazione alta (IBM, con l'eccezionale sito del museo Hermitage), la linguistica (Expert System) e l'analisi di grandi basi di dati testuali (Inso).

Nell'ultima giornata Allen Renear (Scholarly Technology Group, Brown University), Elisabeth Burr (Duisburg) e Tito Orlandi (CISADU, Roma I) hanno concluso parlando dei principi pratici e teorici che dovrebbero guidare la costruzione di un curriculum di informatica umanistica. Particolarmente interessante il contrasto fra il taglio dato da Renear e quello dato da Orlandi: il primo ha insistito sull^Òimportanza del rapporto con il mercato e la societa', il secondo sulla completezza e sull'affidabilita' scientifica della preparazione dello studente. Per Renear siamo di fronte a un "punto di svolta" ed e' dunque necessario ripensare l'intero impianto delle discipline umanistiche, mentre per Orlandi la questione e' come rispettare (preservare?) le discipline esistenti, costituitesi attraverso secoli di affinamento teorico e metodologico. Si e' riproposta insomma la sempre piu' frequente dicotomia USA-Europa in campo culturale: dinamismo (a volte frettoloso) da un lato, prudenza (a volte conservatrice) dall'altro.

Relazioni a parte, anche grazie al dibattito finale il convegno ha raggiunto un primo risultato politico: un gruppo di relatori italiani del seminario presentera' al CUN una richiesta per l'inserimento dell'informatica umanistica nei nuovi ordinamenti disciplinari.

La battaglia e' appena iniziata, e richiedera' l'impegno di tutti quelli che considerano questa materia non solo uno strumento per riscattare e difendere le competenze del laureato in materie umanistiche, ma anche la disciplina in grado di gestire i grandi cambiamenti imposti dalla societa' dell'informazione (digitalizzazione dell'eredita' culturale, formazione a distanza, ecc.).

I am pleased to be able to respond to those who were asking for news of what happened at the seminar "Computers, Literature and Philology". The seminar web- page contains all the abstracts we were sent whilst Repubblica On Line and other e-magazines talked about the event.

I'd like to preface what I have to say with a few words: Humanities Computing in Italy is pretty lively. It's an important, perhaps even critical moment for the recognition of Humanities Computing as an independent discipline. We have groups which are active in all the major universities: Rome, Milan, Turin, Florence, Bologna, Trieste, Pisa, Siena, Catania, Viterbo, etc. Some of these groups are made of young researchers who work on a voluntary basis, some others enjoy full-time jobs and have access to national funding.

There was a time when many members of this varied galaxy met to talk about common projects. With the advent of the Web and multimedia, each group went off on its separate way. If this scattered potential were harnessed together, even partially and minimally, Italy would be one of the European leaders in the Humanities Technology field.

The Rome meeting aimed to be a step in this direction: comparing ourselves with our major foreign counterparts, and trying to find areas of collaboration within the Italian scene.

The 'theoretical' core of the conference was the debate on electronic encoding of texts. For many (not Humanist members, of course!) encoding is an arcane concept, stuff for specialists. Speakers at this conference explained in simple words that this procedure represents a crucial turning point in contemporary culture: the move from paper-based to electronic media. Encoding is in fact the procedure by which a digitized text retains a 'memory' of what it used to be like on paper: formatting, first lines, spelling features, etc.. Just think of the enormous library and archive heritage in our country. The scenario is clear: this 'obscure' concept of encoding is going to play a vital role in our cultural inheritance. A lot of financial resources, too, are at stake. Who will decide / influence the way in which our country's cultural resources will be put into electronic form? What tools will be used? What criteria will be adopted? As you can see, the theme of the conference went far beyond its title.

Today, every library, archive, or documentation centre has to think seriously about the 'transportability' and the 'fidelity' through time of the information they hold. It was to respond to this need, to make information available and searchable, that mark-up languages were evolved, and in particular, special embedded signs which assign a structure or a specific feature to a sequence of characters. But what interpretative problems, at a theoretical and even practical level, does text-encoding present? This is what Dino Buzzetti (University of Bologna) talked about on the first day, followed by Lou Burnard (Oxford University) who gave illustrations of what could be achieved with XML mark-up language. Lou Burnard also presented the Text Encoding Initiative, the international consortium which is involved in standardising encoding using SGML. The TEI standard has been adopted (for the first time, I think, in Italy) by the TIL (Italian Texts Online) project, presented on the second day.

In the afternoon, Fernando Magan (Centro Ramon Piñeiro, Santiago de Compostela) spoke about a project to digitize manuscrits of medieval Galician which include iconographic and musicological elements, adopting, for precise philological reasons to do with the texts in question (issues sometimes overlooked by non- specialists), SGML but not TEI standards. The day had opened with Jon Usher (University of Edinburgh) who reminded delegates of the primacy of the cultural object, the 'text in search of interpreters' (cfr. abstract http://til.let.uniroma1.it/appuntamenti/usher.htm)

The other speakers of the day, all of an excellent standard, ranged in their topics from encoding the "Novelle Porrettane", to the didactic planning and application of the Decameron Web, one of the first hypertexts on line dedicated to the teaching of Italian language and literature. A novel feature, and an intellectual success, was the participation of the commercial sponsors, who spoke in an illuminating way about the real-world parameters within which they worked to produce their software. IBM, Expert System and Inso / Sherpa are involved in different sectors: high-level public access (IBM's major project with the St Petersburg Hermitage Museum); practical language tools (Expert System); large-scale textual database management (Inso).

On the last day, Allen Renear (Brown Univesrity), Elisabeth Burr (Duisburg University) and Tito Orlandi (University of Rome) closed the proceedings with a discussion on the practical and theoretical principles which might be used to create a formal curriculum in Humanities Computing. The divergent perspectives of Renar and Orlandi were particularly revealing (and useful): Renear stressed the importance of the relationship between the market and society in general, Orlandi, instead, underlined the need for a prior, rigorous, academic training before specific Humanities Computing studies. For Allen Renear, we are at a turning point, and this implies re- thinking all the humanities disciplines, whilst for Tito Orlandi, the problem is how to respect (preserve?) the traditional, existing disciplines, when faced with the challenge and possibilities of new technologies. In other words, here too, we were faced with the fequent USA-Europe dichotomy: dynamism (and haste?) on one side, prudence (conservative?) on the other.

Apart from the papers, the final discussion justified the whole conference by achieving a political goal: a representative group of the Italian delegates at the conference will present a request to the CUN (Italian Universities National Council) for the inclusion of Humanities Computing amongst the recognised disciplines in the Reformed University Code.

The battle has hardly begun, and will require the commitment of everybody who considers that this subject is not just a device for protecting the 'self-interest' of arts graduates, but that it can be the means of effecting and managing the large- scale changes which the 'information society' will inevitably bring about (digitizing our cultural heritage, distance education, etc.)

Thanks for bearing with me,

Domenico Fiormonte (translated by Jonathan Usher) University of Edinburgh School of European Languages and Literature