3D Arch 2013: a report

Il 25-26 febbraio si è tenuta la 5ª edizione del Workshop Internazionale 3D Virtual Reconstruction and Visualization of Complex Architectures: tenutosi per la terza volta in quel di Trento, quest’anno nella sede scientifica della Fondazione Bruno Kessler, viene promosso ed organizzato da Fabio Remondino, responsabile dell’unità 3DOM della stessa FBK e tra i massimi esperti a livello internazionale nel campo fotogrammetrico. L’intensa due giorni è stata articolata lungo 8 sessioni a coprire la maggior parte delle tematiche inerenti il topic principale: sebbene una sessione specificamente dedicata al Cultural Heritage questa volta è mancata, sostituita da un più generico Historic Buildings per evitare sovrapposizioni con il CIPA di settembre, non di meno svariati sono stati i progetti dal chiaro sfondo archeologico.

Nella prima sessione, i progetti presentati da un team greco sulla Stoà di mezzo nell’Agorà di Atene e un progetto vietnamita al quale partecipa il Politecnico di Milano sotto la guida di Gabriele Guidi hanno mostrato il felice uso integrato di varie tecnologie: laser scanner ToF, modellazione tridimensionale, software come Autodesk 123DCatch e Photoshop integrati insieme hanno consentito una puntuale ricostruzione dell’antico edificio greco; in oriente, ancora laser scanner e Structure from Motion, unitamente alla modellazione di strutture scomparse (con Luxury MODO) in accordo con la documentazione storica a disposizione, hanno permesso di indagare le possibilità volumetriche degli edifici e proporre una ricostruzione architettonica quanto più fedele possibile all’indagine archeologica.

La seconda sessione è stata aperta con una presentazione riguardante la possibilità di ottenere nuvole di punti di edifici dalle quali estrarre elementi piani da classificare semanticamente e collegare ad informazioni di tipo termale, un campo di indagine utile per la prevenzione di dannose infiltrazioni d’acqua ma non solo. Dalla Spagna un progetto sul ponte di Alcantara e la cattedrale di Coria, nei quali a partire dalle geometrie ottenute da stazione totale (Faro LS840) e laser scanner (Leica C10) è stato possibile modellare in 3D superfici complesse in grado di restituire sezioni paragonabili con i rilievi storici, dai quali ottenere ad es. informazioni sulla tenuta statica e gli spostamenti nel tempo delle architetture. Quanto emerso da questa ricerca è: «understanding geometry accuracy as possibile for heritage conservation». Dall’Italia un algoritmo utile alla ricostruzione di forme a partire da nuvole di punti ottenute da laser scanner: nel caso della Chiesa di San Carlo alle Quattro Fontane (uno dei capolavori dell’architettura barocca firmato dal Borromini) è stato possibile paragonare (attraverso la tecnica del poligrafo) i disegni dell’architetto con l’effettiva realizzazione; uno studio che consente di approfondire le conoscenze architettoniche oltre il semplice spoglio della documentazione storica.

Dal RomeLab dell’UCLA un bel progetto su come l’integrazione di dati geofisici all’interno di software procedurale possibile con l’accoppiata ArcGIS+City Engine di ESRI offre la possibilità di generare ambienti virtuali navigabili all’interno di un game engine come Unity, così da replicare virtualmente la visione diacronica dell’evoluzione spaziale in antico a Magnesia sul Meandro. In relazione alla modellazione parametrica, permanendo la difficoltà di sintetizzare l’architettura antica all’interno di formule matematiche, sono allo studio librerie in grado di facilitare l’inserimento in scena di oggetti complessi e non lineari, soprattutto nell’ottica dell’integrazione con processi di Building Information Modeling (BIM), nell’ottica della segmentazione semantica (Autodesk Revit) o ancora nel caso di applicazioni GIS. Una seconda sessione sul tema si è tenuta il secondo giorno, durante la quale è stato presentato un prototipo (GreenSpider) che consentirà in futuro di gestire nuvole di punti all’interno di questi software nell’ottica di ricostruire dati spaziali utili alle strategie di documentazione del bene culturale. Altro plugin presentato è stato HBIM Façade, utile per generare velocemente facciate di edifici aderenti al reale, magari per collegare informazioni storiche alla geometria. D’altronde la necessità di avere modelli tridimensionali degli edifici storici si fa sempre più pressante proprio nell’ottica della loro manutenzione e amministrazione, e la necessità di poter consultare un dato preciso e aggiornato è di fondamentale importanza.

Tornando alla corretta sequenza temporale delle sessioni, interessante il progetto 3D-Antlers, portato avanti con hardware low-cost come il David Laser Scanner o l’Artec MH per poter costruire un catalogo delle corna di cervo. È stata poi la volta della presentazione di un workflow pratico sul come giungere dal modello 3D ottenuto da fotogrammetria e point cloud, al modello trattato per game engine, attraverso processi di triangolazione della mesh, quad-poly, low-poly e tecniche di backing; l’utilizzo dei Level of Details (LoD), oggi reso semplice dagli Shader Model in versione 5.0 è attualmente il sistema migliore per bilanciare visualizzazioni realistiche e performance. Molto interessante la possibilità di sfruttare tecniche di Shape from Shading (SfS) nell’analisi topografica, anche con la creazione di immagini RTi, ovvero Reflectance Transformation image: «what for is even more important than the how, where and when».

Sul keynote d’apertura della seconda giornata, relativo all’utilizzo delle “airborne oblique imaging”, vi invito a leggere quanto ho scritto sul report sintetico pubblicato sul sito di Archeomatica. La prima sessione della mattinata è stata dedicata alle problematiche relative all’automazione e l’image registration: presentato un nuovo approccio che soprattutto nel caso dei “repetitive texture patterns” (come comprensibile, uno dei grandi problemi della Computer Vision), parte dalla progettazione preventiva di un camera network così da guidare preventivamente l’approccio al matching pre-impostando i parametri dell’orientamento esterno, pipeline che risulta estremamente più rapida e precisa del “full pairwise”. Dalla Francia, laboratorio guidato da Livio De Luca, arriva un altro tool della loro suite dedicato all’annotazione semantica: il sistema si avvale di APERO per la triangolazione delle immagini, MicMac per la misura delle superfici, infine viene generata la cloud point; le annotazioni semantiche generate su un’immagine attraverso la “nuvola” vengono mappate sulle singole immagini attraverso un recupero delle coordinate 3D: ogni immagine, costruita pixel by pixel, subisce di conseguenza la propagazione delle annotazioni. Permangono ancora alcuni problemi irrisolti, dovuti per esempio alle occlusioni che si verificano sulla porzione selezionata su un’immagine ma non visibile su un’altra.

Nel campo del multi-view stereo è in arrivo dall’IFP di Stoccarda il nuovo SURE, algoritmo per il matching che parte dall’assunto di stimare la profondità per ogni pixel dell’immagine, partendo dall’assunto che per il modello un piccolo angolo di intersezione è necessario per completare il matching, ma un ampio angolo di intersezione è richiesto per la precisione. Dall’Italia, 3DFlow ha messo a punto recentemente il nuovo programma SAMANTHA (free for non-commercial purposes), il quale calcola la mappa di profondità per ogni camera, ottenendo una fusione delle varie mappe all’interno di uno spazio volumetrico: il vantaggio ottenibile è che può lavorare in totale assenza di riferimenti di camera, ovvero procede ad un orientamento completamente automatico e completamente autocalibrato delle immagini (a differenza di altri software come VisualSfM che si appoggiano ai dati EXIF delle foto, ove esistenti, per migliorare la qualità del matching). Nel campo della ricostruzione urbana è in atto il tentativo di mappare su una scansione LiDAR le textures ottenute da un dense stereo matching da cui si è ottenuto un singolo DTM.

Interessante un progetto greco che cerca di sfruttare il 3D come strumento di educazione e studio, che sia dunque otticamente perfetto e geometricamente accurato: laddove un software come Autodesk 123DCath ha fallito, così come la scansione a luce strutturata, è stato costruito un sistema di scansione che porta la nuvola di punti meshata all’interno di 3DS Max per una esportazione in obj. Una procedura che richiede tempo, la cui qualità è basata sull’esperienza: «each geometric documentation process has different requirements». Ancora dall’Italia, dal PoliMI, una bella comparazione su scenari a differente complessità di CV, stazione totale e laser scanner: l’obiettivo era ottenere una pipeline di generazione della mesh 3D completamente automatica, che non richiedesse l’uso di strumentazione, target o interventi umani. L’obiettivo è stato raggiunto con Agisoft PhotoScan, il cui modello comparato con una presa laser scanner è risultato estremamente puntuale sotto il profilo metrico. «The image block should have the right number of images»: come è stato sottolineato a fine presentazione, esiste un “warning”, ovvero la necessità di verificare sempre che il processo di CV sia accurato quanto necessario, ancorando il matching ottenuto all’interno di un sistema metricamente certo. Dall’Università di Bologna prosegue il lavoro di A.M. Manferdini sulla comparazione di differenti sistemi di ricostruzione 3D: ancora messo sotto torchio Autodesk 123DCatch, comparato con stazione totale e laser scanner. Quello che si è notato è che la stazione totale riscontra problemi in geometrie angolari, che gli algoritmi SfM incontrano notevoli difficoltà nel caso di ostacoli fissi e nel caso di spazi chiusi possono essere affetti dalla deformazione bidimensionale delle immagini. Per ora, il software Autodesk non soddisfa pienamente i criteri richiesti in archeologia, a differenza di altri software di medesimo tipo. Ne risulta che i sistemi range-based sono i più accurati in termini metrici, mentre i sistemi SfM sono da preferirsi in termini radiometrici.

Da quanto detto si può concludere che: alla fine ci si deve sempre appoggiare o a mire prese con stazione totale, o rilievi dense matching fotogrammetrico / laser scanner per verificare se la nuvola di punti è realmente corretta (ovvero se la deviazione totale è all’interno di un range accettabile). Allora, il risparmio tanto agognato con gli SfM dov’è se tanto poi bisogna comunque dotarsi di questi strumenti? Per una stazione totale decente, sempre €10.000 ci vogliono, per un sistema DSRL professionale completo (comunque necessario anche nel caso della Computer Vision) sono richiesti buoni €15.000 e un buon laser scanner oramai si può trovare a €25.000, che è sempre un taglio netto rispetto ai €50-70.000 richiesti fino a qualche anno fa, prima del grande ritorno della fotogrammetria e dell’esplosione della SfM. Se la questione è risparmiare due-tremila euro, non credo che sia una moneta barattabile con l’accuratezza di un rilievo metrico. E se com’è oramai appurato la differenza ammonta a 2cm appena, bisogna capire cosa ce ne facciamo della nuvola di punti: se è necessaria per valutare staticità e stabilità, dove lo spostamento di 1cm può essere molto grave e prodromico ad un possibile crollo, oppure se la frattura su una parete che ieri era di 0,7cm e oggi è di 1,5cm (quindi con uno scarto di appena 0,8cm ma estremamente pericoloso in termini di dinamica dei crolli), con una differenza di 2cm non saremo mai in grado di valutare correttamente questi eventi. D’altronde, al convegno è stato dimostrato come probabilmente uno dei migliori software di Computer Vision attualmente in commercio, ovvero Agisoft PhotoScan, fosse in grado di restituire nuvole di punti estremamente affidabili sotto il parametro metrico, ma l’operatore che ha ottenuto tale precisione poteva mettere in campo grande esperienza e praticità nella presa delle immagini fotografiche, vera chiave di volta degli algoritmi SfM. Ricorando come comunque, una presa metricamente affidabile è sempre e comunque necessaria, per assicurarsi che la nuvola di punti da CV in quel contesto sia realmente corretta: come dire, alla fine gli strumenti li devi comunque possedere, quindi il risparmio non si vede dove sia. Laddove se invece l’obiettivo è la rappresentazione visuale dei modelli questo tipo di strumenti risulta di grande vantaggio sia un termini di tempo risparmiato sia in termini di risultato finale.

Nell’ottica di una elevata affidabilità metrica sull’intero modello 3D risulta in definitiva ancora difficile ottenere una deviazione standard omogenea su tutte le superfici del modello, finendo per calcolare una media che altro non è se non un dato matematico ottenuto da una deviazione randomica e non controllata sull’intera superficie, quindi in sostanza un dato non scientifico, fine a se stesso. Questo, pur riconoscendo il grande impegno che sviluppatori e ingegneri stanno impiegando per mettere a punto formule matematiche sempre più precise: quanto presentato in questo convegno è una prova che la strada percorsa è quella giusta ed entro pochi anni si raggiungerà l’agnognato obiettivo. Ma allo stato attuale, le strategie di documentazione geometrica continuano ad essere profondamente dipendenti tanto dal cosa quanto dalla finalità. Permane pertanto la necessità di ancorare sempre il processamento delle immagini ad una presa strumentale la cui precisione è certificata e a punti d’appoggio di coordinate note. Tenendo poi a mente che non sempre è possibile applicare sulle strutture dei marker di precisione, vuoi per difficoltà tecniche, vuoi per impedimenti di tipo burocratico.

Per quanto dunque gli algoritmi di Computer Vision, spesso integrati in software open source (con licenza GPL o con divieto per usi commerciali), consentano all’archeologo di ottenere strutture tridimensionali metricamente affidabili, la parola chiave è sempre integrazione: di tecniche, di metodologie, di fonti e di dati. Come ho scritto su un articolo di prossima pubblicazione sulla rivista Archeomatica, tutte le fasi di rilevamento e rilievo dipendono dall’oggetto e dalle finalità, dal “what”: non esiste la tecnologia all-in, valida sempre e ovunque, esiste solo la mente del ricercatore che sa scegliere e usare gli strumenti a sua disposizione nel miglior modo possibile. Diffidate sempre di chi “spaccia scatole magiche”.

Approfondimenti:

  • I paper in PDF dell’intero convegno
  • http://www.vision.deis.unibo.it/keypoints3d
  • http://www.pointclouds.org
  • http://etc.ucla.edu
  • http:///www.generative-modeling.org
  • http://www.ifp.uni-stuttgart.de
  • http://samantha.3dflow.net