Controlli Non Distruttivi

Download Report

Transcript Controlli Non Distruttivi

Massimiliano Pau
Cenni sui
Controlli
Non Distruttivi
Dipartimento di Ingegneria Meccanica
Università di Cagliari
Introduzione
I CONTROLLI NON DISTRUTTIVI
Il ruolo dei Controlli Non Distruttivi nell’industria
Cricche 1 e difetti possono influenzare in modo devastante le prestazioni di
componenti e strutture a tal punto che la loro individuazione è parte essenziale
del controllo di qualità in tutti i campi dell’ingegneria. L’insieme delle tecniche
e delle procedure che hanno come fine la valutazione delle difettosità nei
materiali o nei manufatti è genericamente classificato sotto il nome di “Controlli
non Distruttivi” o, nella letteratura anglosassone, “Non-destructive Testing”
(NDT) o “Non-destructive Evaluation” (NDE). Tuttavia le applicazioni NDT
spesso vanno molto oltre la semplice individuazione e localizzazione dei difetti,
poiché esse riguardano tutti gli aspetti della caratterizzazione dei solidi, lo
studio della loro microstruttura e morfologia, l’analisi delle proprietà fisicochimiche, i loro metodi di preparazione ecc.
Tra le tecniche NDT si comprendono usualmente i metodi radiografici, quelli
ultrasonici, l’ispezione con liquidi penetranti, il metodo delle particelle
magnetiche (magnetoscopia), la termografia, tecniche basate sull’impiego di
1
La cricca può essere definita come una discontinuità originatasi per distacco inter o
transcristallino in un materiale metallico originariamente continuo e sano. È un difetto che
viene indicato come bidimensionale poiché solitamente si presenta più o meno lungo e
profondo con andamento frastagliato mentre i suoi lembi sono piuttosto ravvicinati. Se le
cricche hanno dimensioni molto ridotte (inferiori ad 1 mm), vengono definite microcricche.
2
campi elettrici e magnetici e l’ispezione visiva. Nell’industria le tecniche NDT
possono essere applicate a materiali sia metallici che non metallici e ad oggetti
di differenti dimensioni sia statici sia in movimento, ma esiste un punto
comune a tutte, ossia la loro capacità di non influire in alcun modo sulle
caratteristiche fisico-meccaniche del componente testato; ciò significa che, a
differenza di molti dei test usualmente impiegati per caratterizzare i materiali
(per es. le prove a trazione) che prevedono la parziale o totale distruzione del
provino, i controlli non distruttivi non alterano la funzionalità del pezzo, che
può tranquillamente essere rimesso in esercizio (quando non sia possibile
testarlo “in situ”) subito dopo l’esecuzione della prova.
L’azienda che si trova a dover pianificare una campagna di controlli sui propri
manufatti (o sui materiali provenienti dai fornitori) deve tenere presente che
spesso la soluzione ottimale in termini di completezza delle informazioni
provenienti dai test NDT è frutto di soluzioni di compromesso che mettono in
gioco diversi aspetti quali costi, abilità dell’operatore, sensibilità, sicurezza ecc.
Caratteristica rilevata
Vantaggi
Limiti
Esempi di impiego
Richiede l'uso di un mezzo
accoppiatore, le superfici
devono essere non troppo
rugose
Cricche nelle saldature, verifica
dell'efficienza delle giunzioni
Metodo
Ultrasuoni
Radiografia
Variazioni di impedenza
Può penetrare elevati spessori,
acustica causate dalla
eccellente per l'individuazione
presenza di cricche, interfacce,
di cricche, autmoatizzabile
inclusioni ecc.
Occorre adottare precauzioni
Versatile in quanto a materiali
severe per le radiazioni.
Variazioni di densità originate
e spessori testabili. La pellicola
Difficile individuare cricche
dalla presenza di vuoti,
fornisce una registrazione
orientate perpendicolarmente
inclusioni, o materiali differenti
permanente della prova
al fascio
Diefftosità interna in
semilavorati, difettosità nelle
saldature
Ispezione visiva
Caratteristiche superficiali quali
graffi, cricche o variazioni
cromatiche. Corrosione,
deformazioni nei materiali
plastici
Economico, può essere
automatizzato
Può essere impiegato solo per Carta, legno e metalli solo per
finiture superficiali ed
difetti superficiali o su materiali
uniformità
trasparenti
Correnti indotte
Variaizoni nella conduttività
elettrica causate da cricche,
vuoti o inclusioni
Costo moderato
Tubi di scambiatori di calore
Impiego limitato ai materiali
conduttori. Scarsa capacità di (assottigliamento delle pareti o
cricche)
penetrazione
Liquidi penetranti
Aperture superficiali causate
da cricche, porosità ecc.
I difetti devono avere sbocco
Poco costoso, facile da
sulla superficie, non applicabile
applicare, portatile, sensibile a
su superfici porose o ad
piccoli difetti superficiali
elevata rugosità
Particelle magnetiche
Variazioni nel campo
magnetico causate da difetti
superficciali o sub-superficiali
quali cricche, inclusioni, ecc.
Costo medio-basso, sensibile
a difetti superficiali e subsuperficiali
Impiego limitato ai materiali
ferromagnetici. Preparazione
della superficie laboriosa, può
richiedere postsmagnetizzazione
Pale di turbina (cricche e
porosità)
Ruote ferroviarie (cricche),
getti
3
Di per sé la sola esistenza di una notevole varietà di metodi NDT suggerisce che
nessuna delle tecniche è di per sé completa, ma piuttosto esse costituiscono un
insieme nel quale ciascuna si dimostra più adatta di altre in determinate
circostanze, oppure (come capita spesso) più metodiche sono impiegate in
modo complementare per il controllo di uno stesso manufatto al fine di
garantire l’individuazione del maggior numero possibile di potenziali difetti.
4
Sebbene siano state proposte numerose classificazioni finalizzate alla
suddivisione delle tecniche in classi omogenee, il confine tra le prestazioni che
ciascuna metodica può offrire si presenta alquanto sfumato. Tuttavia una
classificazione di larga massima può essere fatta separando i controlli
“volumetrici” da quelli “superficiali”: nel primo caso (Raggi X, Ultrasuoni) è
possibile investigare sull’esistenza di difetti interni al componente, mentre nel
secondo (Magnetoscopia, Penetranti, Correnti Indotte, Ispezione Visiva) la
tecnica si limita a fornire informazioni su difettosità superficiali o subsuperficiali. A volte, come accade per esempio nel caso del metodo ultrasonico,
Metodica
Ultrasuoni
Raggi X
Correnti Indotte
Magnetoscopia
Liquidi penetranti
Costo
strumentazione
Medio-alto
Alto
Medio-basso
Medio
Basso
Costo consumabili
Molto basso
Alto
Basso
Medio
Medio
Tempo necessario
ad ottenere i risultati
Immediato
Medio
Immediato
Basso
Basso
Effetto della
geometria
Importante
Importante
Importante
Non molto
importante
Non molto
importante
Problemi di
accessibilità
Importante
Importante
Importante
Importante
Importante
Difetti rilevabili
Interni
Interni e superficiali
Superficiali e sub
Superficiali e sub
Superficiali
Sensibilità
Alta
Media
Alta
Bassa
Bassa
Automatizzabile
SI
Con difficoltà
SI
Quasi nulla
Quasi nulla
Dipendenza dal
materiale
Alta
Media
Alta
Solo ferromagentici
Bassa
Abilità dell'operatore
Alta
Alta
Media
Bassa
Bassa
Portabilità
Alta
Bassa
Medio-alta
Medio-alta
Alta
adottando opportuni accorgimenti è possibile rilevare entrambi le classi di
difetti, ma in genere tale tecnica è maggiormente utilizzata per il controllo
interno.
5
Altro fattore condizionante può essere legato al tipo di materiale testato. Non
tutti i metodi si prestano ugualmente bene ad indagare sulla vasta gamma dei
materiali impiegati nei diversi settori dell’ingegneria meccanica, civile o
nucleare. Ad esempio, il metodo delle particelle magnetiche e quello delle
correnti indotte possono essere applicati rispettivamente solo a materiali
ferromagnetici
o conduttivi, e questo esclude a priori tutte le classi del
materiali non metallici plastici o gommosi. Questo problema non si riscontra,
invece, se si impiegano gli ultrasuoni che, essendo onde elastiche, necessitano
solo di un mezzo (solido o liquido) nel quale propagarsi.
Le indicazioni fornite dai test NDT
Qualunque sia il metodo che viene selezionato per una indagine non distruttiva
e qualunque sia il componente/manufatto/semilavorato oggetto di test, ciò che
ci si aspetta dal controllo è l’accertamento (o meno) delle cosiddette
indicazioni, ossia di informazioni che devono essere opportunamente
interpretate e valutate con il fine ultimo di formulare un giudizio di
accettazione o rifiuto del campione. Occorre sottolineare, comunque, che la
presenza di un’indicazione non è necessariamente indice dell’esistenza di
difettosità.
In base alla normativa ASTM 2 la terminologia relativa alle indicazioni le
classifica come segue:
•
Falsa. È un’indicazione non originata dall’interazione della tecnica
impiegata con una discontinuità, ma piuttosto un’informazione
fuorviante causata da un’errata procedura o da una scorretta
elaborazione dei dati sperimentali. Viene anche definita indicazione
“fantasma” o “spuria”.
2
American Society for Testing and Materials
6
•
Non-rilevante.
È un’indicazione che non ha relazione con una
discontinuità che è considerata difetto nella parte da testare; un difetto
con livello di tolleranza accettabile.
•
Rilevante. Un’indicazione o un difetto che può avere un qualche effetto
sulle prestazioni del componente.
•
Discontinuità. Un’interruzione (intenzionale o non-intenzionale) nella
configurazione del pezzo.
•
Difetto. Una o più indicazioni che violano le specifiche sul componente
fissate a priori.
La procedura di controllo si concretizza, dunque, nelle seguenti tre fasi:
1. Indicazione
2. Valutazione
3. Interpretazione
Nella prima fase, l’obiettivo è quello di applicare la procedura in modo tale da
far emergere la presenza di indicazioni (che poi possono essere classificate come
visto in precedenza). Successivamente le indicazioni raccolte, che per il
momento vengono caratterizzate esclusivamente in base al numero alla
localizzazione e alla dimensione, devono essere valutate secondo opportuni
criteri legati in parte alla normativa (sia essa generica o specifica definita in sede
di capitolato d’appalto) e in parte all’esperienza maturata dall’operatore che
esegue il controllo. Sfortunatamente, non esistono delle regole certe e definite
per tutte le tipologie di discontinuità rilevate durante un controllo che ne
consentano una classificazione generica obiettiva, ragion per cui è essenziale
introdurre nella procedura elementi di sensibilità personale che si rivelano poi
essenziali nell’esito finale del controllo. 3
3
Non sono infrequenti casi di dissidi tra tecnici della parte committente e tecnici dell’azienda appaltante
causate proprio da pareri discordanti nell’attribuzione dei giudizi di idoneità su un manufatto a seguito di
procedure NDT
7
Nella fase finale di valutazione, l’operatore formula un giudizio complessivo
che definisce, sulla base delle informazioni raccolte nelle fasi precedenti, se il
componente è idoneo allo svolgimento delle funzioni per le quali è stato
progettato e realizzato.
Gli standard per l’applicazione dei controlli non distruttivi
Gli standard sono documenti contenenti essenzialmente specifiche tecniche o
altri criteri che fungono da regole, linee guida o definizioni di caratteristiche tali
da assicurare la corretta applicazione di una metodica NDT.
In genere questi elaborati tecnici sono redatti da organizzazioni di
standardizzazione a livello nazionale o internazionale (es. ISO, ASME, ASNT,
EN) e, pur non avendo validità di legge, vengono formalmente inserite nei
capitolati che regolano il rapporto tra cliente e committente.
Tipicamente, un insieme di standard relativi a particolari aspetti di una
metodica NDT vanno a confluire nella cosiddetta “procedura”, che rappresenta
l’espressione operativa
delle normative tecniche a livello aziendale. In
8
sostanza, la procedura stabilisce le apparecchiature, gli accessori, i materiali di
consumo, la tecnica esecutiva ed i criteri di accettabilità per l’esecuzione di un
determinato controllo su una particolare categoria di manufatti.
Ad esempio, in una procedura per l’esecuzione di controlli radiografici su
saldature in valvole FCC, è stabilito che
il personale che eseguirà i controlli radiografici deve essere certificato almeno al livello 1,
in accordo con la norma EN 473, mentre il giudizio di accettabilità deve essere emesso
da personale certificato almeno al livello 2. Il personale classificato al livello 3 può essere
autorizzato a:
a)
assumersi piena responsabilità di un laboratorio di prova o di un centro di esame
e del relativo personale
b)
stabilire e convalidare istruzioni e procedure CND
c)
interpretare norme, codici, specifiche e procedure
d)
stabilire i particolari metodi di prova, le procedure e le istruzioni CND da
utilizzare
e)
eseguire e sovrintendere a tutti gli incarichi propri di un livello 1 e 2.
Verranno impiegate classi di sistema pellicola conformi alla EN 584-1. Le classi minime
dei sistemi pellicola sono indicate nei prospetti II e III allegati a EN 444. I prospetti
riportano anche il tipo e gli spessori raccomandati degli schermi metallici.
Devono essere apposti simboli su ogni sezione dell’oggetto da radiografare. Le immagini
di questi simboli devono comparire nella radiografia, dove possibile nella zona di
interesse, e devono garantire l’identificazione univoca della sezione. EN 444 ( 5.3.
identificazione delle radiografie)
Come scegliere il CND giusto?
9
La scelta corretta del tipo di controllo da impiegare scaturisce da un’attenta
analisi della problematica nel suo insieme ed è per questo che il processo
decisionale deve tenere conto di tutti i seguenti aspetti:
1. Programmazione
Il primo step consiste nel predisporre una appropriata “check list” che consenta
la raccolta e l’elaborazione dei dati attinenti al componente; per questo occorre:
•
classificare il componente secondo il livello di criticità
•
conoscere il tipo di materiale, le condizioni di progetto e di
esercizio, le caratteristiche geometriche del componente
•
raccogliere e catalogare indicazioni fornite da precedenti
esperienze sullo stesso componente ed analoghi.
•
stabilire le cause e le modalità più probabili di degrado
•
stabilire il tipo di CND più adeguato per verificare i danni subiti
dal componente con riguardo all’efficacia, ai tempi ed ai costi
•
definire i tempi necessari all’esecuzione dei controlli in relazione
anche ad altri interventi di manutenzione (es. impossibilità di
eseguire radiografie in concomitanza di altri lavori nella stessa
zona)
2. Accessibilità
È necessario che l’operatore possa accedere a tutte le superfici affinché queste
possano essere esaminate con i CND e tuttavia l’accessibilità ad una
apparecchiatura comporta dei costi che in molti casi potrebbero essere contenuti
se la progettazione tiene già conto a monte della possibilità di ispezione.Un
altro aspetto da considerare è la necessità di controllare un componente che
opera in una zona di impianto dove possono essere presenti campi elettrici,
magnetici od ionizzanti che limitano l’applicabilità dei CND.
10
3. Preparazione delle superfici d’esame
La preparazione delle superfici d’esame è per alcuni CND indispensabile per la
loro buona riuscita. Infatti i componenti di impianto hanno, molto spesso,
condizioni superficiali esterne alquanto critiche dovute a fenomeni di
ossidazione. Poiché la preparazione superficiale ha una incidenza sui costi dei
CND, è necessario che venga opportunamente valutato il tipo di controllo da
applicare per poter ottimizzare e razionalizzare l’intervento.
Ad esempio se consideriamo la preparazione superficiale di un giunto saldato
per un controllo ad ultrasuoni occorre valutare preventivamente quale tipo di
difetti si ricerca al fine di ottimizzare il tipo di preparazione (semplice
spazzolatura, una sabbiatura, una molatura superficiale ai lati della saldatura,
una molatura con rasatura completa del cordone di saldatura)
4. Conoscenza dei difetti tipici in esercizio
La conoscenza della tipologia caratteristica dei difetti nei componenti di
impianto, quali la loro origine, la loro collocazione, la loro probabilità di
individuarli in zone prestabilite e la loro evoluzione, sono elementi
indispensabili per una corretta metodologia di controllo. In assenza di queste
informazioni, si corre il rischio di applicare metodologie inadeguate o di dover
ricorrere ad una sovrabbondanza di controlli necessaria per considerare tutte le
ipotesi di difettosità. Ad esempio, se si ha a che fare con fenomeni di corrosione
uniforme, certamente controlli spessimetrici di tipo ultrasonico forniscono
informazioni su
estensione ed ubicazione del fenomeno corrosivo-erosivo,
mentre le radiografie possono fornire un contributo per la verifica dello
spessore su una visione di insieme. Inutile dire che i controlli superficiali sono,
in questo frangente, inutili.
11
5. Sensibilità dei controlli
Partendo dal presupposto che l’affermazione “componente privo di difetti”
tecnicamente non ha senso, è necessario sempre riferirsi alla normativa
applicabile che identifica l’accettabilità o l’inacettabilità dei difetti riscontrati.
A tal proposito, la normativa o la specifica di controllo applicabile definisce,
oltre alla classe di accettabilità, anche la taratura della strumentazione che fa
parte integrante della sensibilità del controllo. Quindi, una volta definito il
difetto minimo accettabile diviene determinante il confronto con difetti
artificiali di forma e dimensioni standard praticati su blocchi di calibrazione.
Di notevole supporto, nella definizione della sensibilità dei CND per i diversi
manufatti, è la normativa nazionale, europea ed internazionale in uso, la quale
suggerisce la corretta procedura d’esame. Dunque è essenziale, a monte
dell’esecuzione di un controllo non distruttivo, definire la normativa applicabile
secondo cui viene condotto il controllo o in mancanza di questa, la tipologia dei
difetti accettabili con cui confrontare le indicazioni riscontrate.
Talvolta si ricorre a blocchi campioni con difettosità artificiali fuori standard,
ottenute con particolari lavorazioni meccaniche, ma più frequentemente per
elettroerosione, per poter creare condizioni di taratura più vicine al caso reale.
6. Qualificazione del personale
L’esecuzione di un esame, sottintende la stesura di un’adeguata procedura di
controllo in grado di garantire la corretta applicazione del metodo e, dato che
l’efficacia dei CND è basata principalmente sulla loro ripetibilità, è fuor di ogni
dubbio che diventa necessario il rispetto, nella sua interezza, della specifica da
applicare. Quindi per poter raggiungere tale scopo risulta indispensabile che la
conduzione dei CND sia affidata a personale adeguatamente qualificato, di
provata capacità, serietà professionale e che abbia maturato una notevole
12
esperienza sul controllo di difettosità che vengono a crearsi nel componente in
esame.
7. Documentazione
Come accennato in precedenza, l’atto finale di un controllo è rapprsnetato dalla
stesura di un’apposita documentazione; infatti un esame anche ben condotto,
ma non sufficientemente ed appropriatamente documentato, perde gran parte
della sua validità, in quanto non può essere confrontabile né con i controlli
precedenti né con quelli futuri.
A tal fine è quindi necessario, disporre di una modulistica che risulti in grado di
poter descrivere le informazioni utili alla definizione del tipo di controllo con la
relativa classe di accettabilità e che possa contenere i dati necessari per la
ripetibilità del controllo. Di seguito sono riportati alcuni esempi di
certificazione redatti in conformità con le normative ASME.
13
CE/LP
CONTROLLLI CON LIQUIDI PENETRANTI
Foglio
.....................................
CERTIFICATO DI ESAME
........of.........
Sheet
Data (Date):
PENETRANT TEST EXAMINATION REPORT
CLIENTE:
factory
customer:
ITEM
Item examinated
OGGETTO IN ESAME
OGGETTO IN ESAME
item examined
PART. CONTR.
EST.
INT.
part examined
external
internal
PROCESSO DI PRODUZIONE
MATERIALE
production processing
material
DISEGNO
STADIO DI LAVORAZIONE
working processing
drawing
CONTR. VISIVO
CONDIZIONI SUPERFICIALI
°C
TEMP. SUPERFICIALE
OK
Visual check
surface condition
NO
surface temperature
PRODOTTI USATI - liquid penetrant grouping
sgrassante
penetrante
sviluppatore
lampada di wood
degreasing
penetrant
developer
wood light
Tipo
colorato
fluorescente
polvere
colored
fluorescent
powder
type
Marca
CGM
liquido
liquid
CGM
CGM
trade mark
Sigla
VELNET
ROTVEL
ROTRIVEL
initials
Caratterist.
caracteristic
diluibile
diluizione
calibrazione
that can be diluted
dilution
calibration
acqua - water
solvente - solvent
H2O
solv.
PROCEDURA D'ESAME - test procedure
NORME DI RIFERIMENTO
reference specification
PREPULIZIA
ACCETTABILITA':
ASME Sez. V atr. 6
acceptance standars
Proc. I8 (CQ) Rev. 0
APPLICAZIONE PENETRANTE
precleaning
IMMERSIONE
immersion
CHIMICA
PENNELLO
chemistry
brush
VAPORE
SPRUZZATURA
vapour
penetration time
CON ACQUA
with water
CON SOLVENTE
min
without water
spray
air
APPLICAZIONE SVILUPPATORE
developer application
TEMPO DI
IMMERSIONE
SVILUPPO
dweil time
immersion
SPRUZZO
A FORNO
spray
AD ARIA
excess penetrant removal
TEMPO DI PENETRAZIONE
MECCANICA
natural
LAVAGGIO
penetrant application
mechanics
ESSICAZIONE
drying
NATURALE
ASME Sez. VIII div. 1 app. 8
ISPEZIONE
inspection
PULIZIA FINALE
final cleaning
LUCE NATURALE
SI
NO
natural light
yes
no
LUCE DI WOOD
min wood light
oven
RISULTATO D'ESAME
test results : SATISFACTORY
Third Party o Customer
Remosa
NO RELEVANT INDICATION HAVE
BEEN FOUND.
MI8(CQ)-N°1-R0
14
CONTROLLI MAGNETOSCOPICI
CE/MT
.....................................
CERTIFICATO D'ESAME
Foglio
..........di...........
Data:
magnetic particle test
Date:
ITEM
CLIENTE
customer
OGGETTO IN ESAME
item examined
PART. CONTR.
EST.
INT.
part examined
external
internal
PROCESSO DI PRODUZIONE
MATERIALE
production processing
material
STADIO DI LAVORAZIONE
working processing
CONDIZIONI SUPERFICIALI
CONTR. VISIVO
surface condition
SCOPO
DISEGNO
NORME DI RIFERIMENTO
ASME Sez.V art. 7
ACCETTABILITA'
reference specification
Proc. I10(CQ)R.0
acceptance standard
GENERATORE
DI
ASME Sez. VIII div. 1 app. 6
e
q MARCA
u trade mark
i
p TIPO
e type
m
e MATRICOLA
n serial number
t
dry
marca tr. mark
SECCO
medium
inspection
RILEVATORE
UMIDO
wet
FLUORESC
fluoresc
LAMP.WOOD
wood light
marca
trade mark
marca
tr. mark
marca
trade mark
CGM
colore
colore
soluzione
sospensione
color
color
solution
suspension
grigio
grey
nero
black
tipo:
type
acqua
lung. d'onda luce nera
water
light wave lrnght
bleu
rosso
olio
bleu
red
oil
intensità
nm
intensity
DATA CALIBRAZIONE
rosso
contrasto
concentrazione
calibration
red
contrast
concentr.
............... %
PUNTALI
CONDUTT. CENTR.
CORRENTE
t
e
s
t
intensity
current
A
INTENSITA'
intensity
DISTANZA PUNTALI
................
DIRETTO
INDIRETTO
direct
indirect
INDICATORE
E
field indicator
S
BERTHOLD
ASME
A
M
E
RISULTATO D'ESAME
Test results:
.....................
METODO DI INDAGINE
magnetisation checking
Examination method
BOBINA
MAGNETE
magnet
CORRENTE
current
FLUSSO MAGNETICO
AMPERE/ SPIRE
magnetic flux
ampere/turns
DISTANZA POLARITA'
DIAMETRO INTERNO
mm internal diam.
CONTROLLO MAGNETIZ.
GIOCO
CORRENTE
current
A
INTENSITA'
prods. dist
p
r
o
c
e
d
u
r
e
CORRENTE
current
μ W/cm2
........................
magnetizazion method
METODO DI MAGNETIZZAZIONE
P
R
O
C
E
D
U
R
A
NO
drawing
purpose
A
P
P
A
R
E
C
C
H
I
A
T
U
R
A
OK
Visual check
mm polar spacing
...........................
METODO SMAGNETIZZANTE
DIAMETRO BOBINA
mm coil diam
............................................
mm
MAGNETISMO RESIDUO
demagnetisation method
residual magnetism
CONTINUO
continuos
RESIDUO
redidual
Third Party o Customer
Remosa
MI10(CQ)-N°1-R0
15
16
Liquidi Penetranti
LIQUIDI PENETRANTI
Introduzione e breve storia del metodo
L’ispezione mediante liquidi penetranti (LPI) è un metodo semplice ed efficace
di indagine superficiale utile all’ individuazione di cricche, difetti e
discontinuità in genere, per mezzo dell’esaltazione della loro visibilità
(altrimenti impossibile all’occhio umano per limiti di carattere fisiologico) in
termini di espansione dimensionale e contrasto cromatico o fluorescenza.
La tecnica si basa sulla capacità di un liquido di essere assorbito da una
fessurazione presente sulla superficie del corpo a seguito di fenomeni di
capillarità; lo stesso liquido rimasto intrappolato nella discontinuità è soggetto a
richiamo in superficie da parte di una seconda sostanza (detta “rivelatore” o
“sviluppo”) che ha la duplice funzione di fungere da sfondo per le indicazioni e
da sede di ulteriori interstizi nei quali il penetrante risale e si espande formando
l’indicazione finale che identifica la presenza dell’anomalia e ne esalta la
visibilità.
Sebbene l’introduzione industriale del metodo LPI sia relativamente recente
(anni ’40), le origini storiche di questa tecnica possono essere fatte risalire
all’antichità, considerato che si ha traccia delle osservazioni di fabbri che, in
epoca romana, descrivevano la risalita di liquidi da cricche presenti nei pezzi in
lavorazione.
Più in generale, i metodi di indagine superficiale sembrano essere i primi ad
essere stati impiegati (in modo empirico e inconsapevole, se si vuole)
considerando che anche l’impiego di pezzi di carbone strofinati sulle superfici
delle terrecotte consentivano la visualizzazione di cricche anche molto piccole a
seguito della penetrazione della polvere fine di carbonio sul difetto.
18
Ma il progenitore per antonomasia del metodo LPI è certamente il sistema
cosiddetto “oil and whiting” (letteralmente olio e gesso in polvere) che, sul
finire del 19° secolo, registrò una grande diffusione nel controllo di componenti
dell’armamento ferroviario (in particolare ruote). In queste prime grossolane
sperimentazioni, il liquido impiegato era essenzialmente una diluizione in
cherosene di oli pesanti, nei quali i pezzi venivano completamente immersi.
Dopo la rimozione del liquido in eccesso dalla superficie e l’applicazione di una
finissima polvere di gesso sospesa in alcool (il quale evaporando piuttosto
rapidamente lasciava un deposito sottile ed uniforme di gesso), i pezzi
venivano fatti vibrare con robusti colpi di martello in modo tale che il liquido
intrappolato nelle eventuali cricche risalisse in superficie espandendosi sul
gesso.
Tuttavia, dal punto di vista dell’applicabilità industriale, un impulso decisivo
allo sviluppo del metodo fu dato dalla Magnaflux (www.magnaflux.com), società
americana che negli anni ’40 presentò il sistema di controllo LPI denominato
Zyglo basato sull’impiego di sostanze fluorescenti 1 che, combinate con
opportune sostanze penetranti ed analizzate con luce ultravioletta, fornivano
inequivocabili indicazioni visibili ad occhio nudo sulla presenza di cricche ed
altri difetti superficiali. Il rapido sviluppo di questo tipo di controllo non
distruttivo venne determinato, prevalentemente, dall’utilizzo sempre più
frequente delle leghe leggere, in particolar modo nel settore aeronautico.
Infatti, poiché questo tipo di materiali non erano dotati di caratteristiche
ferromagnetiche apprezzabili, era di fondamentale importanza avere a
disposizione un valido controllo non distruttivo che fosse alternativo a quello
magnetoscopico, all’epoca già consolidato.
1
Una sostanza si definisce fluorescente se produce luce quando è sottoposta ad energia radiante quale ad
esempio quella generata da raggi X o ultravioletti
19
Il metodo dei liquidi penetranti, ebbe così un notevole successo grazie alla sua
capacità di evidenziare, in maniera rapida ed affidabile, discontinuità aperte in
superficie quali cricche, porosità, ripiegature, strappi, cricche da fatica e da
trattamento termico.
Ai giorni nostri questa tecnica, pur mantenendosi concettualmente inalterata
rispetto alle primitive applicazioni citate, si avvale di prodotti e tecnologie
molto sofisticate. Tuttavia occorre non dimenticare che essa si limita a fornire
informazioni su discontinuità che risultano aperte in superficie. In caso
contrario, infatti, il liquido non potrebbe penetrare nel materiale, rendendo
impossibile la rilevazione di qualsivoglia difetto.
Perché l’ispezione LPI migliora la rilevabilità dei difetti?
Rispetto alla semplice ispezione visiva, l’impiego di liquidi penetranti rende più
agevole (o addirittura possibile) la visualizzazione dei difetti da parte
dell’operatore. Ciò è dovuto essenzialmente a due fattori:
1. il
metodo
LPI
produce
un’indicazione che, essendo di
dimensioni
significativamente
maggiori di quelle del difetto, è
molto più visibile sulla superficie
(molte cricche sono così piccole e
strette
che
è
praticamente
impossibile rilevarle ad occhio nudo). Infatti l’occhio umano è
caratterizzato da una soglia di acuità visiva al di sotto della quale gli
oggetti non possono essere risolti (ossia due elementi distinti fisicamente
appaiono all’occhio confusi in un’unica macchia). Sebbene il valore di
tale soglia sia fisiologicamente variabile da persona a persona, in soggetti
20
aventi la massima capacità visiva (ossia un visus di 10/10) la minima
dimensione di difetto rilevabile è di circa 7/100 di mm.
2. per il modo con il quale è strutturato il controllo LPI l’indicazione che si
ottiene possiede un elevato livello di contrasto rispetto alla superficie del
pezzo. Per esempio, nei controlli effettuati in luce ordinaria si impiega
una sostanza penetrante rosso brillante che emerge chiaramente sullo
sfondo della sostanza di “sviluppo” di colore bianco. Se invece si utilizza
un liquido penetrante fluorescente, questo è formulato in modo che, una
volta irradiato con una luce ultravioletta, produca delle indicazioni
luminose aventi una lunghezza d’onda che viene percepita con
particolare facilità dall’occhio umano in condizioni di buio.
Per comprendere meglio quanto appena esposto, è opportuno analizzare in
maniera più dettagliata, alcuni aspetti dell’apparato visivo umano, perché è su
di essi che si basa l’efficacia del controllo con i liquidi penetranti.
Acuità visiva dell’occhio umano
La struttura dell’apparato visivo, descritta nelle figure seguenti, comprende la
presenza di un cristallino, che funge da lente, un robusto rivestimento esterno
detto sclera, una coroide (un tessuto ricco di pigmento nero) e una retina. La
cornea, in materiale trasparente,
ricopre la parte anteriore del globo
oculare e, posteriormente ad essa,
un’estensione della coroide forma
l’iride.
L’iride,
che
è
ricca
di
pigmenti ad azione schermante e di
fibre muscolari, regola la quantità di
21
luce che entra nell’occhio. Lo spazio compreso tra la cornea e l’iride è riempito
da un liquido trasparente detto umor acqueo. Dietro l’iride si trova il cristallino
e infine, l’umor vitreo, una sostanza gelatinosa che riempie il globo oculare.
La luce penetra nell’occhio attraverso la pupilla e attraversa il cristallino il
quale, variando la propria
curvatura, concentra i raggi
luminosi
sulle
cellule
fotorecettrici della retina.
Nella retina esistono due tipi
di fotorecettori, che, per la loro
forma,
sono
denominati
bastoncelli e coni. I bastoncelli
hanno un picco di sensibilità per una lunghezza d’onda di 498 nm (luce bluverde) e vengono utilizzati per la visione in condizioni di luce molto fioca. Essi
forniscono una percezione grossolana dei movimenti attraverso la rilevazione
di cambiamenti di intensità luminosa lungo il campo visivo.
I coni invece sono sensibili alla luce intensa e ad essi si deve la nitida visione
diurna e la percezione dei colori; pigmenti presenti in diversi tipi di coni sono
sensibili, rispettivamente, al rosso, al verde e al blu. In particolare, vengono
detti coni di tipo L quelli dotati di pigmenti rossi; essi presentano un picco di
sensibilità per una lunghezza d’onda di 564 nm. I coni di tipo M, sono dotati di
pigmenti verdi ed hanno un picco di sensibilità in corrispondenza di una
lunghezza d’onda di 533 nm, mentre i coni di tipo S, possiedono dei pigmenti
blu e manifestano il loro picco di sensibilità per una lunghezza d’onda di 437
nm.
I coni si addensano spazialmente in una depressione conica situata quasi al
centro della retina e detta fovea, in corrispondenza della quale il tessuto
nervoso è più sottile. La concentrazione dei coni, che è di circa 180.000 per
22
millimetro quadrato nella regione della fovea, diminuisce rapidamente quando
ci si pone al di fuori di essa fino a valori di circa 5000 per millimetro quadrato e
in corrispondenza del punto cieco, zona nella quale è localizzato il nervo ottico,
non sono più presenti fotorecettori.
L’acuità visiva, ovvero la capacità di distinguere due punti adiacenti nello
spazio, si deve soprattutto ai coni della fovea.
Per quanto riguarda l’altro tipo di recettori (i bastoncelli) essi sono caratterizzati
dalla presenza, nelle loro membrane, di molecole di una sostanza sensibile alla
luce: la rodopsina. L’assorbimento della luce causa la scissione di tale molecola
e, come conseguenza, si ha una variazione della differenza di potenziale fra i
due lati della membrana. Questa variazione, segnala la presenza di luce ai
neuroni vicini, i quali inviano segnali a delle cellule nervose dotate di lunghi
assoni che confluiscono assieme a formare il nervo ottico. Attraverso il nervo
ottico, i segnali raggiungono il talamo e quindi i centri di elaborazione presenti
nel cervello.
L’oftalmologia definisce acuità visiva normale la capacità di risolvere due oggetti
distinti separati da un angolo visivo di 1/60 di grado e tale limite di risoluzione
spaziale dipende dal fatto che la lente proietta ogni grado di una scena
attraverso 288 μm della retina.
In tale regione spaziale sono presenti circa 120 coni, sensibili al colore. Dunque,
se si hanno più di 120 linee bianche e nere alternate, disposte fianco a fianco in
un singolo grado dello spazio visivo, esse appariranno all’occhio umano come
una macchia grigia.
Con una semplice analisi trigonometrica, è possibile calcolare la risoluzione
dell’occhio ad una specifica distanza dal cristallino.
Nel caso di un soggetto avente una normale acuità visiva, l’angolo θ è di 1/60 di
grado. Bisecando l’angolo θ si ottengono due angoli pari a 1/120 di grado e, se si
considera il triangolo ABC, poiché è noto il valore di θ/2 e della distanza d, si
23
può determinare il segmento x/2, ovvero la massima dimensione risolvibile, per
quel valore di d, mediante la relazione:
x
⎛ θ⎞
= d ⎜ tg ⎟
2
⎝ 2⎠
Quando si osserva un oggetto al fine di localizzare la presenza di eventuali
difetti, la distanza d necessaria ad una analisi confortevole è di circa trenta
centimetri. Inserendo tale valore nella formula precedente, si ottiene che la
normale risoluzione dell’occhio umano è di 0.076 millimetri. Pertanto, se in
questo range l’oggetto in esame fosse costituito di linee bianche e nere alternate,
la maggior parte delle persone non riuscirebbe a percepire
altro che una
indistinta macchia grigia.
Sensibilità al contrasto dell’occhio umano
Nell’esecuzione di un controllo con liquidi penetranti la sensibilità dell’occhio
al
contrasto
diventa
di
fondamentale
importanza
per
distinguere
un’indicazione di difettosità dallo sfondo costituito dalla superficie del pezzo.
In generale, per contrasto si intende la differenza tra il colore (o la tonalità)
dell’oggetto che si sta osservando (le indicazioni nel caso del controllo LPI) e il
colore (o la tonalità) dello sfondo. Riducendo la differenza nelle tonalità di
colore, si peggiora il contrasto e, conseguentemente, diminuisce la percettibilità
dell’oggetto osservato quindi, dal punto di vista fisico, la sensibilità al
24
contrasto, può essere pensata come una misura di quanto un’immagine può
essere “sbiadita” prima che diventi indistinguibile rispetto ad un campo
uniforme circostante.
E’ stato determinato sperimentalmente che la minima differenza che l’occhio
umano può distinguere nella scala del grigio, è circa il 2% della luminosità
totale; si è altresì osservato che la sensibilità al contrasto è funzione del formato
e della frequenza spaziale delle caratteristiche dell’immagine.
Tuttavia, il legame con tali caratteristiche, non è diretto, infatti, spesso oggetti
grandi non sono più facilmente visibili di altri piccoli, a causa di un basso
livello del contrasto.
Per chiarire questi concetti, si faccia riferimento alla figura seguente nella quale
la luminosità dei pixel varia sinusoidalmente in direzione orizzontale mentre, la
frequenza spaziale, aumenta con legge esponenziale da sinistra verso destra.
Inoltre, il contrasto diminuisce con
legge logaritmica passando dal 100%
nella parte inferiore a circa lo 0,5%
nella parte superiore.
La luminosità delle linee chiare e
scure rimane costante lungo un dato
percorso orizzontale. Se la percezione
del contrasto dipendesse solo dall’effettivo contrasto dell’immagine, la
successione di barre chiare e scure alternate mostrerebbe la stessa altezza
dappertutto nell’immagine. In realtà le barre appaiono più alte nel centro
dell’immagine, a dimostrazione del fatto che anche la frequenza influenza la
sensibilità al contrasto.
Un
fattore
influenza
importante
la
sensibilità
che
al
25
contrasto è legato alla risposta dell’ occhio umano medio ai vari tipi di luce, che
a sua volta dipende dal tipo di fotorecettore impegnato.
Nella figura, la curva a destra, mostra la risposta dell’occhio nelle normali
condizioni di illuminazione ed è detta risposta fotopica. In tali circostanze, sono
i coni a permettere la visione, in quanto i bastoncelli diventano soprasaturi e
non trasmettono alcun segnale. La soprasaturazione, dipende dal fatto che i
bastoncelli sono molto sensibili poiché permettono la visione in condizioni di
luce fioca. La curva della risposta fotopica, presenta un picco in corrispondenza
di una luce avente lunghezza d’onda di 555 nm, il che significa, che in
condizioni di normale illuminazione, l’occhio è più sensibile ad un colore gialloverdastro. Viceversa, in condizioni di luce fioca, cioè in condizioni di visione
crepuscolare o notturna, la risposta dell’occhio cambia significativamente; a tale
tipo di visione, è associata una curva di risposta detta scotopica, che nella figura
si trova a sinistra.
In tali condizioni, i bastoncelli sono attivi e l’occhio è più sensibile alla luce
anche se, tuttavia, a questo incremento di sensibilità verso la luce, si
accompagna una minore sensibilità alla gamma dei colori. I bastoncelli, infatti,
pur essendo particolarmente sensibili alla luce possiedono un solo tipo di
pigmento, e questo determina una ridotta percezione dei colori.
Per quanto concerne il controllo LPI, numerosi studi hanno messo in evidenza
come la risposta dell’occhio ad un’illuminazione tipica di una cabina di
controllo per liquidi penetranti presenti un picco in corrispondenza di una
lunghezza d’onda di 550 nm il che significa che, in queste condizioni, l’occhio è
più sensibile ad un colore verde-giallastro. Ciò ha condizionato in modo
decisivo lo sviluppo di sostanze penetranti fluorescenti che, essendo in grado di
emettere luce circa a queste lunghezze d’onda fanno si che l’occhio che osserva
sia nelle condizioni di massima sensibilità e quindi aumentano (seppur in modo
indiretto) la probabilità di rilevare i difetti.
26
Schema della procedura di controllo con liquidi penetranti
In linea di principio la procedura di controllo con i liquidi penetranti è
estremamente semplice e consta di 6 passi:
1. Pulizia e preparazione della superficie da ispezionare
2. Applicazione del liquido penetrante e attesa del tempo di penetrazione
3. Rimozione del penetrante in eccesso
4. Applicazione del rivelatore
5. Osservazione della superficie ed esame delle indicazioni
6. Pulizia per riportare la superficie alle condizioni iniziali
Tuttavia ciascuna fase presenta un certo grado di criticità e possono essere
presenti alcune opzioni che devono essere valutate attentamente in ragione del
livello di sensibilità atteso, del tipo di materiale testato, del costo della prova
etc. (vedi diagramma successivo)
27
Sostanze alcaline
1. Pulizia
Vapore
Pulizia meccanica
Sgrassaggio
Sverniciatura
Solventi
Agenti chimici
Ultrasuoni
Asciugare
Applicazione
Penetrante
2. Applicazione Penetrante
Tempo di
Attesa
3. Rimozione Penetrante
in Eccesso
Lavare con acqua
Asciugare
Rivelatore
(acquoso)
4. Applicazione Rivelatore
Rivelatore
(non acquoso)
Rivelatore
(secco)
5. Ispezione
Asciugare
Ispezione
Risciacquo
6. Post-pulizia
Lavaggio meccanico
Asciugare
Sgrassatura
a vapore
Solvente
Bagno
ad ultrasuoni
28
1. Preparazione della superficie
Uno dei passi più critici nel processo di analisi coi liquidi penetranti, è la
preparazione della superficie da testare.Tutti gli elementi estranei al pezzo quali
vernici, sporcizia, residui di fusione, lacche, olii, placcature, grassi, ossidi, cere,
decalcomanie, ruggine, residui di eventuali precedenti controlli con liquidi
penetranti, ecc. devono essere accuratamente rimossi in modo che gli eventuali
difetti presenti abbiano sbocco sulla superficie. Infatti rivestimenti quali la
vernice, per esempio, essendo molto più elastici del metallo non si fratturano
anche se appena sotto di essi vi è un grosso difetto. Inoltre se le parti da
analizzare sono state lavorate di recente alle macchine utensili, è possibile che
sulla superficie siano presenti dei ricalcamenti di metallo che ostruiscono lo
sbocco dei difetti alla superficie. In tal caso lo strato di metallo deve essere
rimosso prima del controllo. Invece altri agenti, come ad esempio i residui di
precedenti controlli con liquidi penetranti precedenti pur avendo un effetto
meno evidente, possono ugualmente pregiudicare l’esame in maniera
determinante. Per questi motivi si rende fondamentale eseguire un’accurata
pulizia della superficie da esaminare. La pulizia può essere effettuata con
metodi meccanici (ad es. spazzolatura, smerigliatura, sabbiatura ecc.) chimici
(solventi o prodotti analoghi) o, più frequentemente, con una combinazione di
entrambi.
Tuttavia è importante selezionare il metodo e le sostanze opportune affinché
esse non abbiano ad interferirei in alcun modo con l’esito del test; ad esempio, è
stato osservato che alcuni prodotti alcalini possono alterare i risultati se
contengono silicati in concentrazioni superiori allo 0,5%. In particolare, il
metasilicato di sodio, il silicato di sodio e i silicati in generale, possono aderire
alla superficie da esaminare formando un rivestimento che impedisce al liquido
penetrante di entrare nei difetti. Anche alcuni saponi domestici e detersivi
29
commerciali possono ostruire i difetti e/o ridurre la bagnabilità del metallo,
riducendo così la sensibilità dell’esame. Quando si devono analizzare materiali
teneri, occorre prestare attenzione anche ai lavaggi con acqua bollente perché
potrebbero dar luogo a deformazioni potenzialmente in grado di ostruire i
difetti.
Al termine della pulizia la superficie deve risultare asciutta e pulita, in modo
tale da fornire un substrato ottimale alla successiva fase di applicazione del
liquido.
2. Applicazione del liquido penetrante
Generalità
Le sostanze che vengono attualmente impiegate nelle ispezioni LPI sono
certamente molto più sofisticate del kerosene e della polvere di gesso impiegate
nel secolo scorso per ispezionare i componenti ferroviari e grande cura si pone
nella realizzazione di formulazioni tali da conseguire il livello di sensibilità
desiderato dall’operatore.
Da un punto di vista assolutamente generale, tutte le sostanze penetranti
devono essere caratterizzate da alcuni requisiti base:
•
Devono essere facilmente spruzzabili sulla superficie per fornire una
copertura totale ed uniforme
•
Devono poter essere drenate dal difetto per azione capillare
•
Devono restare intrappolate all’interno del difetto ma nel contempo
essere facilmente rimovibili dal resto della superficie.
•
Devono restare fluide durante tutta la durata della prove per poter essere
richiamate alla superficie durante la fase di sviluppo
•
Devono essere altamente visibili (o fluorescenti) per poter produrre
indicazioni facilmente rilevabili
30
•
Non devono essere pericolose o nocive per l’operatore che le maneggia
Non tutti i tipi di penetrante svolgono lo stesso tipo di azione (e non sono
nemmeno progettati per farlo) e, nel tempo, le aziende produttrici hanno
sviluppato una varietà di prodotti che si indirizzano alle più diverse
applicazioni industriali. Alcune di queste richiedono la rilevabilità di difetti il
più piccoli possibile, mentre in altre la dimensione limite per l’accettabilità del
difetto può essere più elevata e dunque la composizione del penetrante dovrà
essere adeguata di conseguenza, considerato che se il penetrante è
estremamente “sensibile”, la prova sarà affetta dalla presenza di un
elevatissimo numero di indicazioni irrilevanti.
Le caratteristiche dei materiali penetranti sono definite e classificate in
numerose specifiche industriali e governative: attualmente negli USA la
specifica di riferimento è la AMS 2 2644 tuttavia, storicamente, il primo
documento compiuto sulle sostanze LPI è stato il Military Standard 25135.
Esistono anche normative più settoriali (come ad esempio la norma ASTM 3
1417 o altre) ma queste spesso si rifanno in modo più o meno esteso agli
standard precedentemente citati.
Scelta del tipo di penetrante
La scelta dei materiali da impiegare per l’esecuzione di un controllo coi liquidi
penetranti può avvenire solo dopo la valutazione di una serie di fattori che
riguardano la sensibilità richiesta, il tipo di materiale da testare, il numero dei
componenti da testare, l’estensione della superficie da controllare e la
portabilità poiché, come già accennato, esiste una grande varietà di penetranti e
sviluppatori ciascuno dei quali è maggiormente indicato per specifiche
applicazioni.
2
3
Aerospace Material Specification
American Standard for Testing Materials
31
Usualmente le sostanze penetranti si classificano in due grandi categorie:
•
Tipo 1 – Penetranti fluorescenti
•
Tipo 2 – Penetranti visibili
Nei penetranti visibili, alla sostanza base viene aggiunta una certa quantità di
pigmento rosso in modo tale da garantire una colorazione sufficientemente
intensa anche quando la quantità di penetrante coinvolta nella formazione
dell’indicazione è ridotta (è questo il caso delle discontinuità strette e poco
profonde). Invece i penetranti fluorescenti contengono una o più sostanze che si
illuminano quando sono sottoposte all’azione della luce ultravioletta, fornendo
così chiare e nitide indicazioni luminose su sfondo scuro quando i pigmenti
sono sottoposti all’azione di una radiazione ultravioletta (lampada di Wood).
Dunque, quando il requisito più importante del controllo è la sensibilità, la
prima opzione da valutare è se conviene usare un penetrante fluorescente
oppure uno visibile, tenendo in considerazione la possibilità di ottenere un
risultato estremamente “rumoroso” se la superficie è porosa o molto rugosa.
In generale si può affermare che per indicazioni scure di diametro superiore a
0,076 millimetri avere un contrasto più o meno elevato è, di fatto, ininfluente
ma se l’indicazione è caratterizzata da un diametro inferiore a tale valore essa
non è rilevabile anche se si ha uno sfondo chiaro ed un altro contrasto, mentre
risulterà apprezzabile se l’indicazione è chiara su sfondo scuro.
Appare dunque chiaro che un liquido penetrante fluorescente è superiore ad
uno visibile quando si vogliono individuare difetti di dimensioni ridotte.
Viceversa, quando l’esame è volto all’individuazione di difetti relativamente
grandi e non è necessaria un’elevata sensibilità che darebbe luogo a numerose
indicazioni irrilevanti, oppure quando la rugosità della superficie da analizzare
è elevata o i difetti sono situati in zone particolari quali i giunti saldati, i
penetranti visibili si dimostrano certamente più indicati.
32
Peraltro questi ultimi non necessitano di un ambiente buio in cui effettuare
l’analisi delle indicazioni con luce ultravioletta e, pertanto, sono anche più
semplici da utilizzare.
Un’ulteriore classificazione dei penetranti che si basa sulle loro caratteristiche di
sensibilità è la loro abilità a mettere in evidenza discontinuità piccole e sottili,
che, in generale, possono porre dei problemi per quanto attiene il loro
rilevamento a causa della difficoltà del liquido a penetrare e della modesta
quantità di sostanza che concorre a formare l’indicazione. La capacità di
penetrazione, infatti, diminuisce quanto più la composizione del penetrante si
allontana dalle condizioni “naturali”, rappresentate dalla base derivata dal
petrolio. A tale proposito è importante osservare che l’aggiunta di eccipienti,
quali pigmenti ed agenti emulsificanti, rende il prodotto più “carico”, e quindi
di più difficoltosa introduzione in cricche sottili.
Per tale motivo, i penetranti fluorescenti sono solitamente caratterizzati da
prestazioni superiori a quelli colorati poiché, per assicurare la visibilità, essi
richiedono una minore quantità di sostanza fluorescente rispetto a quella
colorata. In altre parole, il penetrante fluorescente è meno “carico” di quello
colorato e dunque, possiede una mobilità superiore, che gli permette di inserirsi
più facilmente di un penetrante colorato nelle fenditure sottili.
In sostanza, i penetranti rimovibili con solvente e quelli post-emulsificabili sono
avvantaggiati rispetto a quelli autolavanti. In assoluto, i penetranti migliori
sono quelli rimovibili con solvente, infatti i penetranti post-emulsificabili, non
contengono l’emulsificante nella fase di penetrazione, mentre lo possiedono
nella fase di assorbimento che, per questo motivo, può essere meno agevole.
I penetranti rimovibili con solvente, invece, mantengono le loro caratteristiche
invariate sia nella fase di penetrazione che in quella di assorbimento.
33
Riassumendo, la sensibilità nei confronti di discontinuità sottili e poco
profonde, cresce passando dai penetranti colorati a quelli fluorescenti e, in
ciascuna categoria, da quelli autolavanti a quelli rimovibili con solvente.
Per classificare i penetranti in base alla sensibilità, si fa spesso ricorso alla scala
sintetica messa a punto dalla US Air Force Materials Laboratory che definisce 5
livelli di sensibilità
•
Livello 1/2 – Sensibilità ultra-bassa
•
Livello 1 – Sensibilità bassa
•
Livello 2 – Sensibilità media
•
Livello 3 – Sensibilità alta
•
Livello 4 – Sensibilità ultra-alta
La procedura impiegata per definire questa scala fa uso di provini in titanio ed
Inconel caratterizzati dalla presenza di cricche superficiali prodotte a seguito di
azioni di fatica a basso numero di cicli. La luminosità proveniente da ciascun
difetto individuato è stata misurata sperimentalmente con un fotometro.
Procedura operativa per l’applicazione dei penetranti
Dal punto di vista operativo, l’applicazione del penetrante sulla superficie da
testare
può
essere
realizzata
mediante
spruzzatura,
immersione.
spennellatura
La
o
spruzzatura
mediante bombolette spray risulta
essere certamente il sistema più
semplice e portabile e garantisce una
certa facilità di stoccaggio, tuttavia quando la geometria del pezzo è
particolarmente complessa e si potrebbero avere delle difficoltà a raggiungere
col getto alcune regioni di interesse, l’immersione è il solo sistema in grado di
assicurare la massima uniformità di applicazione. In generale, di per sé il
metodo scelto non influenza la sensibilità del controllo tuttavia, risultati
34
lievemente migliori sono stati riscontrati nel caso di applicazioni tramite
spruzzatura elettrostatica. In ogni caso è vitale che il penetrante costituisca uno
strato uniforme esteso a tutta la superficie da esaminare. Nel caso di zone di
ampiezza limitata (come ad es. saldature), l’area ricoperta dal liquido deve
estendersi per circa 25 mm oltre il margine delle zone stesse.
3. Tempo di penetrazione
Una volta che la parte da esaminare è stata ricoperta occorre attendere un certo
lasso di tempo, detto tempo di penetrazione, che è necessario a consentire il
massimo assorbimento possibile per capillarità da parte del difetto.
Esistono, fondamentalmente, due modi di trattare il pezzo nella fase di
penetrazione: il primo, consiste nel mantenere il pezzo immerso nel penetrante
durante tale tempo mentre il secondo non prevede apporto di ulteriore
penetrante. Inizialmente, il primo metodo veniva considerato come più
sensibile, anche se meno economico perché si doveva lavare via più penetrante
in eccesso. Il ragionamento che portava a considerare tale metodo più sensibile
era che il penetrante si mantenesse più fluido e, quindi, più mobile in quanto
non perdeva per evaporazione i componenti volatili e, a motivo di ciò, ci fosse
una maggiore probabilità di riempimento dei difetti. Tuttavia successive
sperimentazioni hanno dimostrato il contrari infatti il penetrante a contatto con
l’atmosfera fa evaporare i componenti volatili, e di conseguenza aumenta la
concentrazione di pigmenti nei difetti che dunque sono potenzialmente più
visibili. Il tempo di penetrazione, che solitamente è suggerito dai produttori
oppure dalle norme adottate, è funzione di parametri quali:
•
Tensione superficiale del liquido penetrante
•
Angolo di contatto del liquido penetrante
•
Viscosità del liquido penetrante
•
Pressione atmosferica all’apertura del difetto
35
•
Pressione capillare
•
Pressione del gas bloccato nel difetto
•
Raggio del difetto o distanza fra le pareti del difetto
•
Densità del liquido penetrante
•
Proprietà microstrutturali del liquido penetrante
Il tempo di penetrazione ideale può essere stabilito anche tramite esperimenti
specifici per l’applicazione che si deve effettuare ma, in generale, è sempre
compreso tra i 5 e i 60 minuti. Anche se di solito non è dannoso prolungare il
tempo di penetrazione oltre quello raccomandato, con alcune sostanze esiste il
rischio che si verifichino principi di essiccamento che potrebbero rendere
difficoltosa la fuoriuscita del penetrante stesso nella fase di assorbimento da
parte del rivelatore.
Nella seguente tabella sono riportati, a titolo di esempio, i requisiti ed il tempo
di penetrazione di differenti penetranti, per provini in acciaio.
Norma di
riferimento
Tipo di pezzo
Discontinuità
Getti
Estrusi/Forgiati
Porosità
Ricalcamenti
MilitaryMancanza di
TechnicalSaldature
fusione
Order-33B-1Porosità
1
Cricche
Tutti
Cricche da fatica
Getti
Porosità
Estrusi/Forgiati
Ricalcamenti
ASME-BoilerMancanza di
and-PressureSaldature
fusione
Vessel-Code
Porosità
Tutti
Cricche
Getti
Porosità
Estrusi/Forgiati
Ricalcamenti
ASTM-EMancanza di
1209/-E-1210
Saldature
fusione
Porosità
Tutti
Cricche
4
Tempo di penetrazione
per penetrante
autolavante
(minuti)
5-10
NR 4
Tempo di penetrazione per
penetrante postemulsificabile
(minuti)
10
10
30
20
30
30
NR
30
60
20
20
30
60
60
30
5
10
5
10
5
5
5
5
5
5
NR: Tempo non suggerito per tale metodo di esame
36
Al termine del tempo di penetrazione, si deve procedere alla rimozione di tutto
il penetrante che non sia quello intrappolato nelle discontinuità.
4. Rimozione del penetrante in eccesso
Questa è l’operazione più delicata e
critica
dell’intero
processo
di
ispezione LPI, poiché l’eccesso di
penetrante
componente
che
è
deve
presente
essere
sul
rimosso
totalmente ma allo stesso tempo
occorre prestare molta attenzione a non eliminare anche porzioni di liquido
intrappolate nei difetti.
Poiché i liquidi penetranti sono prodotti a base di petrolio, essi non possono
essere asportati agendo direttamente con l’acqua e dunque la loro rimozione
dalla superficie del pezzo richiede una delle seguenti condizioni:
•
l’impiego di un solvente capace di sciogliere il penetrante
•
l’emulsificazione del penetrante (tramite l’aggiunta di una sostanza
chiamata agente emulsificante che lo renda asportabile da un lavaggio
con acqua).
Quindi, la normativa classifica i penetranti (per quanto concerne il metodo di
rimozione) in:
•
Metodo A – Lavabile con acqua
•
Metodo B – Post emulsificabile, lipofilo
•
Metodo C – Rimovibile con solvente
•
Metodo D – Post emulsificabile, idrofilo
Se il liquido penetrante non incorpora l’agente emulsificante, come detto, esso
non può essere rimosso con l’acqua e pertanto deve essere sciolto con un
solvente
oppure
mediante
l’aggiunta
di
tale
agente.
L’applicazione
37
dell’emulsificante, può essere compiuta dopo l’applicazione del penetrante
sulla superficie e prima dell’applicazione del rivelatore. Un penetrante che
necessita dell’aggiunta, da parte dell’operatore, dell’emulsificante, è detto postemulsificabile.
Nel caso in cui l’agente emulsificante venga aggiunto al penetrante dal
fabbricante all’atto della produzione, il penetrante si definisce autolavante
(metodo A).
In questo caso il penetrante (indicato anche come “auto-emulsificante”) può
essere rimosso con della semplice acqua corrente. I penetranti appartenenti alla
categoria dei post-emulsificabili (metodi B e D) possono essere lipofili od
idrofili a seconda che la sostanza sia solubile nell’olio o solubile nell’acqua.
I prodotti post-emulsificabili lipofili (sia penetranti che emulsificanti), sono
costituiti da sostanze a base oleosa e vengono forniti pronti all’uso, mentre
quelli idrofili, che utilizzano come emulsionante un detersivo solubile in acqua,
sono commercializzati sotto forma di concentrato da diluire in acqua prima
dell’uso.
Gli emulsionanti lipofili, sono stati introdotti verso la fine degli anni ‘50 ed
esplicano sul penetrante, sia un’azione chimica che un’azione meccanica; infatti,
dopo che l’emulsificante ha ricoperto il penetrante, tramite l’azione meccanica
di un getto d’acqua è possibile rimuovere il penetrante in eccesso perché
durante il tempo di emulsificazione l’emulsionante diffonde nel penetrante
trasformandolo in un penetrante del tipo autolavante. Anche gli emulsionanti
idrofili, rimuovono il penetrante in eccesso con una duplice azione meccanica e
chimica, solo che l’azione chimica è differente, infatti, in tal caso non si hanno
fenomeni di diffusione.
38
Gli emulsionanti idrofili, di base, sono dei detersivi che contengono solventi e
agenti tensioattivi. Essi frammentano lo strato di penetrante in minuscole
goccioline e impediscono che queste si ricongiungano fra loro o si riattacchino
alla superficie. Successivamente, tali goccioline vengono rimosse dall’azione di
un getto d’acqua.
Gli emulsificanti idrofili, introdotti a metà degli anni 70, si sono dimostrati
subito più efficaci di quelli lipofili, tanto da renderli obsoleti; il loro principale
vantaggio è una ridotta sensibilità alle variazioni del tempo di rimozione e
contatto.
Tuttavia, è sempre importante controllare il tempo di emulsificazione, ovvero il
tempo per cui si lascia agire l’emulsificante poichè questo si dispone sul
penetrante e si muove verso la superficie del pezzo, andando ad emulsificare lo
strato di penetrante sottostante. Controllando il tempo di emulsificazione, si fa
in modo da emulsificare solo il penetrante che sta in superficie e non quello che
si trova nei difetti che, per questo motivo, non sarà lavabile con l’acqua e
rimarrà nelle fessure in cui si era precedentemente disposto. Riassumendo,
tempi di emulsificazione troppo brevi non permettono la rimozione di una
adeguata quantità di penetrante in eccesso, mentre al contrario tempi troppo
lunghi possono portare all’emulsificazione anche del penetrante contentuto nei
39
difetti ed al loro conseguente svuotamento. Quando si ritiene che il tempo
trascorso sia tale da aver garantito la corretta emulsificazione del penetrante
superficiale, la rimozione può essere effettuata con un getto d’acqua.
Applicazione emulsificante
Difetto pieno
Penetrante in eccesso
Emulsificante
Difetto
Diffusione dell’ emulsificante
Soluzione di penetrante
ed emulsificante
Penetrante non
emulsificato
Rimozione penetrante in
eccesso
Getto d’acqua
Penetrante non
emulsificato
Nel metodo D, invece, la rimozione richiede l’utilizzo di un solvente. La fase di
rimozione del penetrante in eccesso è piuttosto critica poiché lavaggi incompleti
sono causa della formazione di indicazioni non rilevanti che si formano nelle
zone poco pulite. Da ciò può derivare la difficoltà a percepire le indicazioni
provenienti da discontinuità molto piccole e, in generale, una ridotta efficacia
dell’esame.
Proprietà che influenzano l’efficacia di un penetrante
Dopo aver analizzato e discusso le caratteristiche principali che rendono un
liquido penetrante efficace, è importante esaminare da quali parametri esse
dipendono e tra queste citiamo:
•
La capillarità
•
La tensione superficiale e la capacità di bagnare la superficie
•
La densità
•
La viscosità
40
•
La soglia dimensionale di fluorescenza
•
La stabilità ultravioletta e termica
•
L’amovibilità
Capillarità, bagnabilità e tensione superficiale
Il principio fondamentale sul quale si basa il metodo LPI, è la penetrazione di
una sostanza liquida, per azione capillare, all’interno dei difetti che sfociano in
superficie.
La capillarità può essere immaginata come una sorta di forza aggiuntiva che
spinge il liquido attraverso le fessure strette, agevolandone la penetrazione
all’interno. Tale fenomeno può essere facilmente messo in evidenza attraverso
l’esperienza riportata in figura:
D1
D2
D3
Tre tubi, di diametro diverso, sono immersi in un recipiente contenente un
liquido: nel tubo di diametro maggiore il liquido si porta alla stessa altezza del
suo pelo libero nel recipiente; nel tubo di diametro medio sale un po’ oltre il
livello
del
pelo
libero
mentre,
nel
tubo di piccolo diametro, sale
apprezzabilmente oltre. Questo comportamento, che si manifesta solo nei tubi
di piccolo diametro ed in modo tanto più evidente quanto più piccolo è il
diametro, ha origine dalla mutua interazione delle molecole del fluido tra loro e
41
con il recipiente nel quale vengono immesse. In particolare si definisce forza di
coesione la risultante delle forze di interazione molecolare su una molecola se
questa si sviluppa fra molecole identiche) o forza di adesione se si sviluppa fra
molecole diverse
forze di coesione
forze di adesione
⇒
⇒
tengono insieme le sostanze
fanno attrarre sostanze diverse (acqua su vetro
La condizione di equilibrio di un
fluido in presenza di più sostanze è
determinata
dalla
reciproca
intensità delle forze di adesione e
coesione. Si prenda in esame, ad
esempio, il caso di un fluido a
contatto con la parete solida del contenitore (acqua in un bicchiere a contatto
con l’aria). Le molecole di un liquido in vicinanza della parete sentono la forza
di coesione del fluido Fc diretta verso l’interno del fluido, la forza di adesione
liquido-gas Fa,a , diretta verso l’interno del gas, la forza d adesione liquidosolido Fa,s , diretta verso l’ interno del solido. La Fa,a è così debole da poter essere
trascurata. Le restanti due forze, vista la loro direzione e verso, non possono
avere risultante nulla, quindi all’equilibrio la superficie libera del fluido deve
essere ortogonale alla risultante delle forze agenti.In definitiva si possono avere
due casi:
42
Fa > Fc
Fa < Fc
in questo caso si ha innalzamento del
liquido lungo la parete e si dice che il
liquido “bagna la superficie”
in questo caso si ha allontanamento del
liquido dalla parete e si dice che il liquido
“non bagna la superficie”
Nel primo caso l’angolo Φ formato tra la tangente al menisco nel punto di
contatto e la direzione della parete è minore di 90°, mentre nel secondo caso è
maggiore.
Alcuni esempi di angoli risultanti tra diversi accoppiamenti solido-liquido sono
riportati di seguito:
Acqua-vetro (A)
Φ = 0°
Benzina-vetro
Φ = 26°
Acqua-paraffina
Φ = 107°
Acqua-teflon (B)
Φ = 127°
Mercurio-acqua
Φ = 140°
43
In sintesi, nel momento in cui il liquido penetrante viene depositato sulla
superficie da testare, se all’interfaccia solido-liquido la forza con cui le molecole
del liquido sono attratte da quelle della superficie solida (“bagnatura”), è
superiore alla forza con cui le molecole si attraggono tra di loro (“tensione
superficiale”) cioè le forze adesive sono più forti di quelle coesive, il liquido
bagnerà la superficie. Al contrario, se la forza con cui le molecole si attraggono
tra di loro è superiore alla forza con cui la superficie attrae le molecole, il
liquido rimarrà sotto forma di gocce e non bagnerà la superficie stessa.
Pertanto, tensione superficiale e bagnatura agiscono in senso opposto, ma nei
liquidi penetranti è necessario che prevalga la bagnatura. Affinché un liquido
penetrante sia efficace dovrebbe avere un angolo di contatto il più piccolo
possibile. Infatti, nella realtà, tale angolo, per la maggior parte dei penetranti, è
molto vicino al valore di zero gradi. Appare intuitivo che un buon liquido
penetrante debba possedere ottime caratteristiche di bagnabilità, in modo tale
da ricoprire liberamente la superficie dell’oggetto in esame, e non presentarsi
sotto forma di goccioline.
Si ricorda, per completezza, che la tensione superficiale (γ) è definita come l’energia
richiesta per aumentare l’area della superficie del liquido di una unità (si misura
pertanto in J/m2 oppure in N/m)
44
Il liquido penetrante, come già accennato in precedenza, è guidato all’interno
della fessura dall’azione della forza capillare F; essa è funzione della tensione
superficiale all’interfaccia liquido-gas, dell’angolo di contatto e di parametri
geometrici relativi alla fessurazione. In particolare, per un difetto a geometria
cilindrica, si ha:
F = 2πrσ LG cosθ
dove
r
σLG
θ
raggio dell’apertura
tensione superficiale all’interfaccia liquido – gas
angolo di contatto
è possibile definire anche una “pressione capillare” (pc), ottenuta dal rapporto
tra la forza capillare e l’area su cui essa agisce. Nel caso particolare di un tubo a
sezione circolare si ha:
pc =
2πrσ LG cosθ 2σ LG cosθ
=
r
πr 2
Sebbene le suddette equazioni, siano state espresse nel caso semplice di un
difetto a geometria cilindrica, è bene sottolineare che le relazioni tra le variabili
permangono anche in casi più generali. Tuttavia si deve tener presente che
l’espressione della pressione capillare è valida solo quando esiste un contatto
simultaneo del penetrante su tutta la lunghezza dell’apertura, e la superficie del
liquido risulti essere equidistante dalla superficie del pezzo. Occorre, peraltro,
ricordare che talvolta, la superficie del liquido penetrante può presentarsi
irregolare a causa della particolare conformazione delle pareti del difetto e, in
questo caso la pressione capillare è espressa dalla seguente relazione
pc =
2(σ SG − σ SL ) 2∑
=
r
r
45
nella quale
σSG
σSL
Tensione superficiale all’interfaccia solido–gas
Tensione superficiale all’interfaccia solido–liquido
r
Raggio dell’apertura
Σ (=σSG -σSL ) Tensione di adesione
Quindi in alcuni casi è la tensione di adesione (ossia la forza che si manifesta
sulla linea di contatto liquido-solido in direzione del solido) ad essere la
principale responsabile del movimento del liquido penetrante nel difetto e non
la tensione superficiale all’interfaccia liquido-gas. È importante sottolineare che
la bagnabilità del liquido penetrante, decade considerevolmente quando la
tensione di adesione è la forza di azionamento primaria.
Osservando le equazioni, si può anche notare come le caratteristiche di
bagnabilità del liquido penetrante, siano fondamentali per il riempimento del
difetto; infatti il liquido penetrante, continua a riempire il difetto finché non si
manifesta una forza che contrasta la forza capillare. Questa forza, solitamente, è
data dalla pressione del gas che rimane intrappolato nel difetto a causa del fatto
che esso comunica con l’esterno solo da una parte. Infatti, il gas che è presente
in esso viene intrappolato dal penetrante, attraverso il quale non può passare, e
compresso contro il lato chiuso del difetto.
Poiché l’angolo di contatto dei liquidi penetranti è molto prossimo allo zero,
sono stati formulati vari metodi per valutare le loro caratteristiche di
bagnabilità, il più semplice dei quali consiste nel misurare l’altezza che un
liquido raggiunge in un tubo capillare. Tuttavia, l’interfaccia solida in tale
metodo è, in genere, di vetro e pertanto, non riproduce adeguatamente la
superficie su cui il penetrante dovrà agire nella pratica.
Un altro metodo consiste nel misurare, dopo un certo tempo, il raggio, il
diametro oppure la superficie, della macchia che si forma dopo aver versato
46
una goccia di liquido sulla superficie di prova. Utilizzando tali metodi,
influiscono sull’esito della prova anche altri parametri, quali la densità, la
viscosità e la volatilità che non compaiono nelle equazioni di capillarità, ma
sono ugualmente importanti.
Densità
La densità ρ (o peso specifico), rappresenta la massa per unità di volume di un
materiale e si misura in [Kg⋅m-3].
È stato osservato che la densità ha un effetto trascurabile sulle prestazioni dei
liquidi penetranti, tuttavia è importante sottolineare che la forza gravitazionale,
può agire a favore o contro la forza capillare secondo l’orientamento che
possiede il difetto nella fase di penetrazione.
In entrambi i casi, il modulo della forza peso (Fp) del liquido penetrante, si
calcola con la seguente formula:
F p = πr 2 hρg
nella quale:
r
h
ρ
g
raggio dell’apertura
altezza della colonna di liquido penetrante
densità del liquido penetrante
accelerazione di gravità
La forza così ottenuta deve essere sommata alla forza capillare, quando è
concorde con essa, perché in tal caso favorisce la penetrazione del liquido,
mentre andrà sottratto se è discorde, perché, al contrario di prima, ostacola la
penetrazione.
Viscosità
La viscosità dinamica μ [Pa⋅s] rappresenta il coefficiente di proporzionalità tra
gli sforzi tangenziali τ esistenti in un fluido in moto e la variazione di velocità in
47
direzione normale a quella del moto. La relazione che descrive tale fenomeno è
la legge di Newton espressa come segue:
τ =μ
Δv
Δy
Dove:
τ
μ
Δv
Δy
sforzo di taglio presente nel fluido
viscosità dinamica
variazione di velocità nella direzione y (normale a quella del moto)
Esiste anche un altro tipo di viscosità, detta cinematica e così definita:
ν=
μ
ρ
con:
μ
ρ
viscosità dinamica
densità
La viscosità, ha un effetto trascurabile sulla capacità di un liquido penetrante di
insinuarsi nei difetti mentre, influisce sulla velocità di riempimento degli stessi.
A questo riguardo è possibile osservare che il tempo di penetrazione T per un
vuoto cilindrico e per uno ellittico, può essere ricavato utilizzando le seguenti
formule:
48
r
l
a
l
b
Vuoto cilindrico:
T=
2l 2 μ
r cosθσ LG
Vuoto ellittico:
⎛ 2l 2 μ
T = ⎜⎜
⎝ σ LG cosθ
⎞ ⎡ a2 + b2 ⎤
⎟⎟ ⋅ ⎢
⎥
⎠ ⎣ (a + b ) ⋅ ab ⎦
Dove:
l
μ
r
σLG
θ
a
b
profondità del difetto
viscosità dinamica
raggio della fessura
tensione superficiale all’interfaccia liquido-gas
angolo di contatto
larghezza del difetto
larghezza del difetto
Osservando tali equazioni, si può osservare come il tempo di penetrazione sia
direttamente proporzionale alla viscosità μ; inoltre in nessuna delle due
espressioni si tiene conto del gas intrappolato nei difetti chiusi ad una estremità.
49
Soglia dimensionale della fluorescenza
La soglia dimensionale della fluorescenza rappresenta lo spessore minimo che
lo strato di penetrante deve avere per formare un’indicazione visibile.
Sebbene tale parametro non sia attualmente regolato in alcun modo dagli
standard tecnici, esso sembra essere molto importante nei confronti della
sensibilità di un liquido penetrante fluorescente, ed esiste un esperimento, che
permette di comprendere tale aspetto.
Due lastre piane di vetro, sulle quali in precedenza è stata disposta una goccia
di penetrante fluorescente vengono premute fortemente una contro l’altra. Il
liquido, in seguito alla pressione, si espande sulla superficie delle lastre ma, una
volta esposto alla luce nera, non manifesta alcuna fluorescenza. Tale fenomeno,
apparentemente paradossale, non è stato compreso completamente fino al 1960,
quando venne introdotto il concetto della transizione delle pellicole sottili per la
risposta della fluorescenza.
Le tipiche dimensioni dei difetti, corrispondono alle soglie dimensionali della
risposta di fluorescenza, che sono caratteristiche di ciascun liquido penetrante.
Il grado della risposta di fluorescenza dipende dall’assorbimento delle
radiazioni ultraviolette e questo, a sua volta, dipende dalla concentrazione dei
pigmenti fluorescenti e dallo spessore della pellicola di liquido. Di
conseguenza,
la
capacità
di
un
liquido
penetrante
di
visualizzare
un’indicazione, dipende soprattutto dalla sua capacità di essere fluorescente
nelle condizioni di pellicola sottile.
Le prestazioni dei liquidi penetranti, possono essere previste facendo
riferimento alla seguente equazione che, tuttavia, non tiene conto del fatto che il
liquido opera nelle condizioni di pellicola sottile.
I = I 0 xe − λCt
50
Dove:
I
I0
λ
C
t
Qundi
intensità della luce emessa
intensità della luce incidente
coefficiente di assorbimento per unità di concentrazione
concentrazione dei pigmenti fluorescenti
spessore dello strato assorbente
l’intensità
dell’energia
trasmessa
risulta
essere
direttamente
proporzionale all’intensità della luce incidente e variabile esponenzialmente
con lo spessore dello strato di penetrante e la concentrazione di pigmenti. Di
conseguenza, aumentando la concentrazione dei pigmenti, la luminosità di un
sottile strato di penetrante aumenta. Tuttavia, la concentrazione di pigmenti
non può essere aumentata oltre una certa soglia, perché valori troppo elevati
potrebbero penalizzare la luminosità stessa.
Stabilità ultravioletta e termica delle indicazioni
L’esposizione a luce ultravioletta intensa ed a temperature elevate può avere un
effetto negativo sulle indicazioni ottenute con liquidi penetranti fluorescenti,
infatti le sostanze fluorescenti possono perdere la loro luminosità dopo un
periodo di esposizione a luce ultravioletta ad alta intensità.
Ciò può essere dimostrato con un esperimento che consiste nel misurare
l’intensità delle indicazioni fluorescenti di un campione che è stato sottoposto a
cicli multipli di esposizione ai raggi ultravioletti. Ogni ciclo consiste in 15
minuti di esposizione ad una luce ultravioletta di 800 microwatt/cm2 e di 2,5
minuti ad una di 1500 microwatt/cm2. I risultati mostreranno che le indicazioni
esaminate sono sbiadite in seguito all’eccessiva esposizione.
Anche la temperatura elevata può avere degli effetti negativi sui liquidi
penetranti, infatti, il calore eccessivo può:
51
•
far volatilizzare i componenti volatili, aumentare la viscosità ed avere
effetti negativi sul grado di penetrazione
•
alterare le caratteristiche dell’emulsionante
•
far evaporare dei prodotti chimici che impediscono la separazione e la
gelificazione dei penetranti solubili in acqua
•
neutralizzare la fluorescenza dei pigmenti del penetrante
Quest’ultimo meccanismo di degradazione, coinvolge direttamente le molecole
dei materiali penetranti. Ricordiamo che il fenomeno della fluorescenza
coinvolge gli elettroni delocalizzati in una molecola che non sono implicati in
un dato legame fra due atomi. Quando la molecola riceve una quantità di
energia sufficiente, questi elettroni passano ad un livello energetico più elevato.
Pochi istanti dopo l’eccitazione, gli elettroni tornano al livello energetico di
partenza emettendo un’energia più bassa di quella che avevano ricevuto. Tale
perdita di energia, può riguardare sia un processo “radioattivo” come la
fluorescenza, sia un processo “non-radioattivo”. I processi non-radioattivi,
includono un’attenuazione delle collisioni fra molecole, il rilassamento termico
e reazioni chimiche. Il calore, fa aumentare il numero degli scontri molecolari
con conseguente attenuazione dell’entità degli stessi e, come risultato, si ha una
minore fluorescenza.
Tale spiegazione è valida solo quando sia il componente in esame che il liquido
penetrante sono ad alta temperatura. Al ripristinarsi della temperatura entro
valori normali, la fluorescenza si ripresenta invariata.
In generale, i danni termici si manifestano quando i liquidi penetranti
fluorescenti sono riscaldati sopra 71 °C. Se si ha un riscaldamento ma la
temperatura si mantiene sotto tale valore, la sensibilità del controllo può invece
addirittura migliorare.
Alcuni liquidi penetranti attualmente in uso, sono formulati con componenti ad
elevato punto di ebollizione, cosicché presentano una migliore resistenza ai
52
danni dovuti al calore. Nonostante ciò, è ancora possibile rilevare una perdita di
luminosità se il liquido penetrante è esposto alle alte temperature per un lungo
periodo.
Durante l’esame di liquidi penetranti termoresistenti, si è rilevata una riduzione
di luminosità del 20% dopo che il materiale è rimasto per 273 ore ad una
temperatura di 163°C. I liquidi penetranti fluorescenti comunemente utilizzati,
cominciano la decomposizione a 71°C e in prossimità di 94°C si ha
un’attenuazione quasi totale della fluorescenza in seguito alla sublimazione dei
pigmenti fluorescenti.
Amovibilità
La rimozione del liquido penetrante in eccesso dalla superficie in esame (ma
non dai difetti) è una delle fasi più critiche del controllo coi liquidi penetranti.
Il liquido penetrante, infatti, deve essere rimosso completamente dalla
superficie del componente in esame poiché potrebbe dar luogo a false
indicazioni o limitare la visibilità di eventuali piccoli difetti. Perché questo sia
possibile, le forze adesive (cioè le forze che si instaurano tra superficie del pezzo
e il liquido) non devono essere così forti da non permettere la rimozione coi
metodi comunemente utilizzati. Tuttavia, perché il liquido abbia una buona
bagnabilità, le forze adesive devono vincere le forze coesive (cioè le forze
intermolecolari che tengono assieme il liquido), pertanto occorre una
formulazione adeguata che garantisca un giusto rapporto fra le due grandezze.
5. Applicazione del rivelatore (sviluppo)
Come accennato in precedenza, il ruolo del rivelatore (o sviluppo) è quello di
attirare in superficie il penetrante rimasto intrappolato nelle cricche e di
espanderlo in modo tale da renderlo facilmente visibile all’operatore.
53
Nel caso dei penetranti fluorescenti, le particelle fini dello sviluppatore,
riflettono e rifrangono la luce ultravioletta usata per l’ispezione, permettendole
di interagire meglio coi pigmenti del penetrante cosicché si ha una fluorescenza
migliore. Lo sviluppatore permette, inoltre, che venga emessa più luce
sfruttando lo stesso meccanismo. Questo spiega perché, quando vengono
esposte alla luce ultravioletta, le indicazioni sono più luminose del solo
penetrante.
Nel caso invece dei penetranti colorati, lo sviluppatore deve costituire uno
sfondo di un colore che sia in contrasto con quello del penetrante, in modo che
le indicazioni siano facilmente visibili.
Gli sviluppatori, in genere, sono costituiti da talco, gesso o silice amorfa
finemente suddivisi, per cui si presentano sotto forma di una polvere molto
soffice. Il loro funzionamento si basa, ancora una volta, sulla capillarità, infatti
nello strato di sviluppatore si crea un numero molto elevato di sottilissimi
condotti che richiamano in superfici il penetrante intrappolato nei difetti
sottostanti.
Le norme AMS 2644 e MIL-I-25135 classificano i rivelatori in 6 categorie:
1. Polvere secca
2. Solubile in acqua
3. Sospensione acquosa
4. Nonacquoso Tipo 1 Fluorescente (base solvente)
5. Nonacquoso Tipo 2 Visibile (base solvente)
6. Applicazioni speciali
La classificazione è basata sulla modalità con la quale il rivelatore è applicato
(in polvere oppure disciolto o sospeso in un mezzo liquido). Naturalmente
54
ciascuna di queste possibilità presenta vantaggi ed inconvenienti che possono
essere riassunti come segue:
Polveri secche
Gli sviluppatori basati sull’impiego di polveri secche, sono certamente i meno
sensibili, ma anche i più economici e semplici da usare. Si presentano come
delle polveri bianche e lanuginose che possono essere applicate ad una
superficie asciutta in vari modi. L’applicazione, che deve essere fatta dopo
l’asportazione
eccesso
e
superficie
del
penetrante
l’asciugatura
trattata,
può
in
della
avvenire
immergendo il pezzo in esame in un
contenitore
riempito
con
lo
sviluppatore, tramite dei soffiatori
che caricano elettrostaticamente le
polveri e le sparano sulla superficie
in esame oppure tramite dei contenitori (tipo borotalco). Eventuali eccessi di
polvere devono essere eliminati con un leggero soffio d’aria. L’uso delle polveri
è indicato per l’esame di superfici molto ruvide e per difetti profondi da cui cioè
fuoriesce molto liquido, questo perché il rilevatore assorbe di meno e da una
definizione migliore su tali difetti. Per contro è meno adatto alla rilevazione di
difetti sottili, da cui fuoriesce poco liquido. Un difetto delle polveri secche è che
spesso lo sfondo bianco non è uniforme, e questo può limitare fortemente la
visibilità dei difetti. Utilizzando tale tipo di sviluppatore, spesso le indicazioni
si presentano chiare e poco espanse. In ogni caso, questo tipo di sviluppatore,
viene usato in combinazione con penetranti fluorescenti.
Solubili in acqua
55
Come suggerisce il nome, gli sviluppatori solubili in acqua, consistono in una
serie di sostanze chimiche disciolte in acqua che lasciano sulla superficie in
esame uno strato di sviluppatore una volta che l’acqua è evaporata. Si
applicano dopo la rimozione del penetrante e senza asciugare la superficie da
esaminare. Il modo migliore per applicare questo tipo di sviluppatori è
spruzzarli direttamente sulla parte in esame che può essere umida o asciutta.
Sono praticabili, ma meno indicati, anche altri metodi di applicazione, quali
spennellatura o immersione. La superficie bagnata va poi asciugata utilizzando
un getto di aria calda con temperatura compresa fra i 35 e 40 °C. L’asciugatura
deve avvenire in modo uniforme su tutta la superficie in esame poiché le parti
umide danno luogo a indicazioni sfuocate e indistinte. Quando lo sviluppatore
è asciugato correttamente, la superficie presenta un rivestimento bianco
uniforme e pallido e le indicazioni si manifestano nitidamente.
Sospensioni in acqua
I rivelatori prodotti sotto forma di sospensione acquosa consistono in particelle
di una sostanza insolubile sospesa in acqua. Questa tipologia di rivelatore
richiede un continuo movimento di miscelazione in modo tale da evitare la
separazione tra le due fasi. Le modalità di applicazione sono le stesse dei
rivelatori solubili e i componenti trattati con questa forma di sviluppo
presentano una sorta di rivestimento di colore bianco traslucido.
Non acquosi
Gli sviluppatori non acquosi, siano essi del tipo visibile o del tipo fluorescente,
sono costituiti da un solvente volatile in
cui
sono
rivelatore.
sospese
le
particelle
di
L’applicazione, che avviene
dopo la rimozione del penetrante e in
56
eccesso e l’asciugatura della superficie, si effettua con una pistola a spruzzo
tuttavia, molto spesso questo tipo di sviluppatori sono distribuiti in bombolette
spray in modo da garantire una migliore trasportabilità. Poiché il solvente è
altamente volatile, non è necessaria l’asciugatura con aria calda come nel caso
precedente. La presenza del solvente, oltre a evitare l’asciugatura, si rivela
benefica anche nei confronti del penetrante. Infatti, il solvente dello
sviluppatore esercita una leggera diluizione del penetrante presente nelle
discontinuità sottostanti rimovendo così gli eventuali principi di essiccamento e
ripristinando le iniziali condizioni di mobilità. Per questo motivo, il loro uso
avviene solo in combinazione con penetranti rimovibili con solvente. Prima
dell’applicazione dello sviluppatore, il pezzo deve essere accuratamente
asciugato, cosicché al termine dell’applicazione esso presenterà sulla sua
superficie un rivestimento bianco traslucido.
Applicazioni speciali
In casi particolari è possibile utilizzare rivelatori sotto forma di plastica o lacche.
In
tal
modo
l’indicazione
proveniente
dalla
prova
è
conservata
permanentemente.
Gli sviluppatori non acquosi, sono universalmente riconosciuti come i più
sensibili mentre vi è meno accordo per quanto riguarda le prestazioni degli
sviluppatori in polvere secca e acquosi anche se questi ultimi, sono considerati
più sensibili in quanto formano uno strato di particelle più sottile che stabilisce
un contatto migliore con la superficie da testare.
Tuttavia, se lo spessore dello strato è troppo elevato si corre il rischio che i
difetti vengano mascherati. Gli sviluppatori acquosi, inoltre, possono causare
57
l’offuscamento delle indicazioni se usati in combinazione con penetranti
rimovibili con acqua.
Nelle tabelle seguenti sono riportati alcuni dati riassuntivi relativi alla
sensibilità degli sviluppatori (con relative tecniche di applicazione) e alcuni
vantaggi e svantaggi principali nell’impiego dei vari tipi di sviluppatore.
Categoria
Forma dello sviluppatore
Metodo di applicazione
1
Non acquoso (base solvente)
Spruzzo
2
Film di materiale plastico
Spruzzo
3
Solubile in acqua
Spruzzo
4
Sospensione acquosa
Spruzzo
5
Solubile in acqua
Immersione
6
Sospensione acquosa
Immersione
7
Polvere secca
Spruzzatura elettrostatica
8
Polvere secca
A letto fluidizzato
9
Polvere secca
Spruzzo
10
Polvere secca
Immersione
58
Sviluppatore
Vantaggi
Polvere secca
Le indicazioni tendono a rimanere
col tempo più luminose e più
distinte
Applicazione semplice
Facilità a ricoprire la superficie in
esame
Solubile in acqua
Il rivestimento bianco che si
produce, determina un buon
contrasto per cui è utilizzabile sia
con sistemi visibili che
fluorescenti
Svantaggi
Non crea un buon contrasto per
cui non può essere usato con i
sistemi visibili
Difficile assicurare una copertura
omogenea dell'intera superficie
Se il rivestimento è traslucido
fornisce uno scarso contrasto
(non suggerito per i sistemi
visivi)
Le indicazioni per i sistemi
lavabili in acqua sono fioche e
vaghe
Facilità a ricoprire la superficie in
esame
Sospensione
acquosa
Le indicazioni sono luminose e
marcate
Il rivestimento bianco che si
produce, determina un buon
contrasto per cui è utilizzabile sia
con sistemi visibili che
fluorescenti
Le indicazioni si indeboliscono
dopo poco tempo e sono diffuse
Molto portatile
Facile da applicare alle superfici
Non acquoso
Il rivestimento bianco che si
produce, determina un buon
contrasto per cui è utilizzabile sia
con sistemi visibili che
fluorescenti
Difficile da applicare a tutte le
superfici
Più difficile pulire la superficie
testata dopo il controllo
Le indicazioni si manifestano
velocemente e bene sono definite
Fornisce la più alta sensibilità
59
6. Esame delle indicazioni
In questa fase viene condotta l’ispezione visiva vera e propria dei segnali
prodotti dal trattamento, impiegando un opportuno tipo di illuminazione. È
importante sottolineare che l’esame deve essere effettuato dopo che sia
trascorso un certo tempo (detto “tempo di rilevamento”) compreso tra 7 e 30
minuti dall’applicazione del rivelatore. Tempi lunghi, infatti, sono necessari per
richiamare in superficie il liquido contenuto nelle discontinuità sottili e
profonde.Qualora si esegua l’esame con lampada ultravioletta (penetranti
fluorescenti) l’operatore deve avere l’accortezza di abituare la vista al buio per
almeno 5 minuti prima dell’ispezione. Lo sguardo dell’operatore, inoltre, non
dovrebbe mai cadere direttamente sulla lampada per evitare principi di
abbagliamento indotti dalla presenza di sostanze fluorescenti all’interno dei
tessuti dell’occhio umano.
Come già esposto in precedenza scopo finale dell’esame coi liquidi penetranti, è
segnalare la presenza di discontinuità sfocianti sulla superficie del pezzo in
esame e permettere di valutare se il pezzo è affidabile, ossia se può essere
impiegato senza temere inconvenienti durante il suo uso. Tuttavia è opportuno
sottolineare che non sempre ad un segnale corrisponde una effettiva anomalia.
Infatti, condizioni esecutive non corrette dell’esame possono dar luogo alla
formazione di indicazioni senza che vi siano discontinuità oppure, alla
formazione di indicazioni che corrispondono a condizioni caratteristiche del
pezzo e non a reali anomalie.
Quindi, sulla base dei segnali disponibili, l’operatore deve individuare
dapprima le indicazioni false e non rilevanti, successivamente interpretare le
indicazioni rilevanti e, infine, valutare le discontinuità. Le indicazioni false e
non rilevanti, naturalmente, non vengono prese in considerazione.
L’interpretazione delle indicazioni rilevanti consiste, invece, nell’individuare il
tipo di discontinuità cui essi si riferiscono. La presenza di una discontinuità,
60
tuttavia, non implica, automaticamente, l’inaffidabilità del pezzo. Alcune
discontinuità, infatti, pur rappresentando una effettiva anomalia del pezzo, se
contenute entro certi limiti, possono essere tollerate in quanto non danno luogo
ad inconvenienti.
Quando invece una discontinuità non può essere tollerata, viene considerata
difetto. In tal caso si può rimuovere la discontinuità oppure scartare il pezzo,
quindi in sostanza, valutare le discontinuità, significa stabilire se una
discontinuità può essere tollerata oppure deve essere considerata difetto.
La fase di valutazione non può essere affidata al solo giudizio dell’operatore o
di un ispettore. Se così fosse, si avrebbero certamente pareri discordi a seconda
delle opinioni e dell’esperienza di chi esegue la valutazione.
Pertanto, chi esegue la valutazione, fa riferimento a dei documenti che per
ciascuna discontinuità indicano i limiti di tollerabilità a seconda dei vari casi
pratici.
Il grado di tolleranza di una discontinuità, viene stabilito da questi documenti
in base ai seguenti elementi:
•
Condizioni di funzionamento previste per il pezzo (entità e tipo di sollecitazione,
aggressività dell’ambiente operativo, etc.)
•
Tipo di discontinuità (cricca, porosità, inclusione, etc.)
•
Forma, dimensioni ed orientamento della discontinuità
•
Materiale del pezzo
I documenti di riferimento cui si è accennato prima, possono essere divisi in tre
categorie in base al tipo di costruzioni cui sono applicabili ed al fatto che il loro
impiego sia obbligatorio oppure facoltativo.
61
Norme o standards
Questi documenti vengono redatti da organizzazioni quali UNI, ASTM, etc.
Esse hanno carattere facoltativo e possono essere adottate come termine di
accordo tra il committente ed il costruttore. Generalmente si riferiscono a
categorie di costruzioni più o meno estese.
Regolamenti o codici
Tali documenti, si riferiscono a specifici settori di costruzioni e vengono redatti
da enti cui spetta, per legge, l’approvazione di tali costruzioni. L’impiego di tali
documenti è, pertanto, obbligatorio.
Specifiche
Questi documenti, generalmente, vengono elaborati dal committente che fissa i
limiti di accettabilità per le discontinuità e altri parametri in quel dato
componente.
Essi si riferiscono ad una ben precisa costruzione ed hanno carattere
obbligatorio solo per quella costruzione e per quel committente.
Sensibilità del controllo
Il concetto di sensibilità del controllo LPI fa riferimento alla capacità del metodo
di rilevare difetti più piccoli possibile con un alto grado di affidabilità, e
dunque, la natura del difetto ha un notevole effetto sull’efficacia della tecnica.
62
Tipicamente, per definire il formato del difetto si rapporta la sua lunghezza a
quella della superficie del pezzo in esame e, se si prende in esame la curva della
probabilità di rilevazione per un controllo coi liquidi penetranti,
si può
osservare come le dimensioni del difetto siano influenti sulla sensibilità.
Tuttavia, la lunghezza di un difetto, non determina a priori il suo grado di
visibilità, infatti, il suo volume deve essere tale da contenere una quantità di
penetrante sufficiente a produrre un’indicazione chiaramente visibile.
La sperimentazione ha mostrato come alcune tipologie di difetti siano più
facilmente individuabili di altre e in particolare:
•
I difetti piccoli e rotondi rispetto a quelli piccoli ma lineari.
Ci sono diverse ragioni che spiegano questo risultato: anzitutto i difetti rotondi
possono intrappolare una maggiore quantità di penetrante, inoltre essi si
riempiono più velocemente. Analisi sperimentali hanno mostrato che un difetto
ellittico con un rapporto tra lunghezza e larghezza pari a 100, impiega, per
riempirsi, fino a 10 volte di più di un difetto cilindrico dello stesso volume.
•
I difetti più profondi rispetto a quelli poco profondi.
63
La causa di questo è da attribuirsi al fatto che i difetti più profondi intrappolano
una maggiore quantità di penetrante e sono meno soggetti fenomeni di
svuotamento durante la fase di lavaggio dell’eccesso di penetrante.
•
I difetti con un’apertura stretta rispetto a quelli molto aperti.
Anche in questo caso i difetti con un’apertura stretta sono meno soggetti a
svuotamenti durante la fase di lavaggio.
•
I difetti su superfici regolari rispetto a quelli su superfici rugose.
La rugosità della superficie in esame è importante nei confronti della stabilità
del penetrante. Le superfici rugose, trattengono più penetrante nelle loro
asperità superficiali e questo residuo, per esempio, può dar luogo a
fluorescenza che ostacola l’osservazione in quanto riduce il contrasto.
•
I difetti su pezzi scarichi o sottoposti a trazione rispetto ai difetti su pezzi
sottoposti a compressione.
Per valori elevati del carico di compressione, il difetto può risultare addirittura
completamente chiuso, impedendo così al penetrante il riempimento. Questo
problema non si presenta su pezzi scarichi dove il difetto non muta le proprie
condizioni, o nel caso in cui la sollecitazione sia di trazione (in questo caso al
più, il difetto si apre ulteriormente)
Vantaggi e svantaggi
Come tutti i metodi appartenenti alla famiglia dei controlli non distruttivi,
anche l’ispezione LPI è caratterizzata da vantaggi e svantaggi che sono
sintetizzati qui di seguito:
Vantaggi:
1. Il metodo è altamente sensibile alla presenza di piccole discontinuità
superficiali
64
2. Esistono poche limitazioni pratiche al suo impiego. Possono essere testati
materiali metallici e non metallici, magnetici e amagnetici, conduttivi e
non conduttivi
3. Possono essere ispezionate grandi aree e grandi volumi rapidamente e a
basso costo
4. Geometrie anche complesse sono testate comunemente
5. Le indicazioni relative ai difetti sono prodotte direttamente sulla
superficie e costituiscono una traccia visibile dell’entità del difetto
6. La disponibilità dei liquidi penetranti in formato spray rende il metodo
facilmente portabile
7. I consumabili (penetranti e rivelatori) e tutto l’equipaggiamento
associato hanno basso costo
Svantaggi:
1. Possono essere visualizzati solo difetti superficiali
2. Il metodo funziona solo su superfici di materiali relativamente non
porosi
3. La pulizia pre-trattamento è essenziale (i contaminanti possono
nascondere la presenza di difetti)
4. Tutti i residui delle lavorazioni meccaniche devono essere rimossi prima
di iniziare l’ispezione
5. L’operatore deve avere accesso diretto alla superficie da testare
6. La
finitura
superficiale
e
la
rugosità
possono
influenzare
significativamente la sensibilità del test
7. Devono essere eseguite e controllate numerose operazioni (in genere
almeno 5)
8. È necessario ripulire la superficie al termine della prova
65
9. Il metodo richiede lo stoccaggio e il trattamento opportuno delle
sostanze chimiche impiegate
Sicurezza nell’esecuzione del controllo coi liquidi penetranti
Quando la procedura di controllo coi liquidi penetranti viene eseguita
rispettando tutte le norme di sicurezza e salubrità, non vi sono pericoli per gli
operatori. A seconda del contesto in cui si opera si farà riferimento a delle
norme specifiche, tuttavia è possibile individuare dei caratteri di sicurezza,
comuni per tutti i tipi di test con liquidi penetranti, che sono la sicurezza
chimica e della luce ultravioletta.
Infatti, ogni volta che si utilizzano dei prodotti chimici è necessario prendere
delle opportune precauzioni (specificate in apposite norme) per preservare la
sicurezza e la salute sia degli operatori sia di chi opera in prossimità di essi.
Molti materiali penetranti sono infiammabili e pertanto dovrebbero essere usati
e stoccati in piccole quantità. Si dovrebbe poi lavorare in ambienti ben arieggiati
ed evitare il contatto con scintille o altre possibili fonti d’incendio.
Gli operatori dovrebbero, inoltre, portare sempre appositi occhiali protettivi
onde evitare il contatto dei prodotti in uso con gli occhi, e guanti, oltre ad
apposito vestiario che riduca al minimo le possibilità di contatto coi vari
prodotti. Un altro fattore da tenere sotto controllo è la luce ultravioletta. Essa è
caratterizzata da lunghezze d’onda comprese fra i 180 e i 400 nm, pertanto, è
collocata nella parte invisibile dello spettro elettromagnetico, fra la luce visibile
ed i raggi X. L’uomo subisce l’irradiazione di raggi ultravioletti da parte del
sole, ma la quantità che viene assorbita è molto piccola e, in tale misura, utile
per determinati processi chimici. Esposizioni eccessive presentano invece gravi
rischi tra cui il cancro alla pelle. Per gli occhi, invece, i danni vanno dalle
semplici infiammazioni alle cataratte fino a danni più gravi a carico della retina.
66
Le lampade usate per l’osservazione, emettono con una intensità molto
superiore rispetto a quella delle radiazioni ultraviolette che ci giungono dal
sole, per cui eventuali danni si manifestano molto più velocemente. Il problema
fondamentale è che i raggi ultravioletti sono invisibili, quindi ci si accorge di
eventuali lesioni solo quando sono già state provocate anche perché il dolore si
manifesta solo parecchie ore dopo l’esposizione.
Le lesioni a carico della pelle e dell’apparato visivo sono provocate da
lunghezze d’onda che vanno dai 320 nm in giù, cioè ben al di sotto dei 365 nm
che sono necessari perché il penetrante manifesti la sua fluorescenza.
Per questo motivo, le lampade utilizzate nell’esame dei liquidi penetranti, sono
schermate in modo da rimuovere le lunghezze d’onda nocive. A tale proposito,
è importante controllare che il filtro sia sempre in buone condizioni e, in caso
contrario, sostituirlo.
67
Magnetoscopia
MAGNETOSCOPIA
Introduzione
Il controllo con Particelle Magnetiche (chiamato anche “Magnetoscopia” ed
indicato con l’acronimo MPI o MT) è una tecnica di indagine non distruttiva
molto semplice che sfrutta le proprietà ferromagnetiche dei materiali per
produrre un’indicazione visiva ben distinta laddove il componente testato
presenti una qualche discontinuità non soltanto strutturale ma anche di
carattere fisico-chimico.
Il principio del metodo è estremamente semplice: se si prende in esame un
comune magnete, è noto che su di esso è possibile individuare due poli (Nord e
Sud) nei quali rispettivamente hanno origine e termine le linee di forza del
campo magnetico associato. Se il magnete viene diviso in due parti, le porzioni
così originate sono a loro volta due nuovi magneti ciascuno dei quali possiede
una propria coppia di poli N e S. Tuttavia, se la continuità di una simile
struttura viene alterata anche solo parzialmente (per esempio a causa della
presenza di una cricca), il nuovo dipolo verrà a formarsi solo in corrispondenza
della regione nella quale il materiale è assente, mentre nella restante parte del
magnete le linee di forza conserveranno la loro precedente configurazione; ciò
provoca,
complessivamente,
un
significativo
indebolimento
del
flusso
magnetico.
Se si provvede a cospargere di particelle di ferro (o altro materiale
ferromagnetico) la zona nella quale è presente la discontinuità, esse tenderanno
ad agglomerarsi in corrispondenza dei sui bordi, producendo un’indicazione
visibile (sotto opportune condizioni) ad occhio nudo. Così come accade anche
nel caso dell’ispezione con liquidi penetranti, l’indicazione ottenuta è
nettamente superiore, in termini dimensionali, rispetto alla discontinuità alla
69
quale fa riferimento, e questo rende la procedura particolarmente indicata per
la localizzazione e caratterizzazione di difetti anche estremamente ridotti.
L’unico requisito essenziale per poter eseguire questo tipo di controllo è che il
componente da testare sia composto da materiale ferromagnetico (sono tali ad
es. il ferro, il nichel, il cobalto e alcune delle loro leghe). Come si vedrà meglio
successivamente, i materiali ferromagnetici possiedono la caratteristica di poter
essere magnetizzati (con l’ausilio di un’opportuna strumentazione) fino ad un
livello tale da rendere la tecnica applicabile ed efficace. Il controllo MPI è molto
diffuso nell’industria automobilistica, petrolchimica, aerospaziale e in generale
nei processi produttivi di componenti strutturali e la versatilità del metodo è
tale che esso rappresenta una delle soluzioni privilegiate per il test di strutture
sottomarine (pipelines o strutture petrolifere off-shore) situazione nella quale
molte altre metodiche non possono essere applicate
Breve storia del metodo
Come accennato in precedenza, il metodo MPI si basa essenzialmente sul
magnetismo, ossia sulla proprietà che possiede la materia (sotto alcune
condizioni particolari) di attrarre a sé altra materia. La scoperta del magnetismo
è attribuita agli antichi Greci, mentre in tempi successivi fisici come Bergmann,
Beqeuerel e Faraday accertarono che tutte le sostanze (incluse quelle liquide e
gassose) sono caratterizzate da un certo livello di magnetismo, ma solo alcune
esprimono questa proprietà a livelli significativi.
Il primo uso documentato del magnetismo quale tecnica ispettiva NDT, risale
solo alla fine dell’800, quando si ha notizia dell’impiego di sistemi
magnetoscopici per verificare la presenza di difetti nei cannoni (se ne
magnetizzava il fusto per poi movimentare su di esso un compasso magnetico
lungo alcune direzioni preferenziali). In realtà questa è stata la prima forma
70
conosciuta di controlli non distruttivi, anche se il termine non verrà coniato
prima della fine della prima guerra mondiale.
Nei primi anni ’20, William Hoke si rese conto che particelle magnetizzate
(trucioli metallici colorati) potevano essere validamente impiegati quale
indicatore della presenza di difetti se introdotti su un campo magnetico. Hoke
osservò che un difetto superficiale o subsuperficiale causava una perturbazione
del campo magnetico applicato al componente anche ben oltre la zona
interessata, e questo era particolarmente evidente qualora il corpo fosse
ricoperto di fine polvere magnetizzata. Negli anni ’30 l’ispezione MPI venne
rapidamente rimpiazzata dall’allora innovativo sistema dei liquidi penetranti
quale metodo d’elezione in ferrovia, ma nel corso del tempo ci si è resi conto
della validità del metodo tanto che ancora oggi esso è estensivamente impiegato
in particolar modo per l’ispezione di barre o altri prodotti semilavorati da
avviare alla lavorazione e quale metodo complementare da affiancare ad altre
tecniche NDT.
Principi del metodo
Proprietà magnetiche dei materiali
Quando un materiale viene inserito all’interno di un campo magnetico, le forze
magnetiche a cui sono sottoposti gli elettroni degli atomi che lo compongono,
ne risultano alterate e questo effetto è noto come legge di Farady dell’induzione
magnetica. Tuttavia, diversi materiali possono reagire in modo estremamente
differente l’uno dall’altro all’influenza di un campo magnetico esterno, e tali
differenze dipendono da fattori quali la struttura atomica e molecolare, e il
campo magnetico esistente associato agli atomi (che a sua volta è legato al moto
degli elettroni orbitali e al loro spin )
71
Nella maggior parte degli atomi, gli elettroni sono disposti a coppie e ciascuno
di essi ruota in direzione opposta rispetto all’altro, in modo tale che i rispettivi
campi magnetici si annullino a vicenda. Tuttavia esistono sostanze nelle quali
alcuni elettroni risultano spaiati e dunque suscettibili di reagire all’azione di un
campo magnetico esterno. Da tali considerazioni discende la classificazione in
ferromagnetici, diamagnetici e paramagnetici.
Le sostanze ferromagnetiche, che possiedono alcuni elettroni spaiati tali da
conferire un certo momento magnetico ai loro atomi,
mostrano una
significativa suscettibilità ai campi magnetici esterni; esse, infatti ne sono
fortemente attratte e sono in grado, inoltre, di mantenere le proprietà
magnetiche anche dopo che il campo è stato rimosso. Tra le sostanze
ferromagnetiche si ricordano il ferro, il nichel e il cobalto.
Tuttavia è importante sottolineare che le proprietà ferromagnetiche sussistono
anche grazie al fatto che il materiale è composto da numerose piccole regioni
chiamate “domini magnetici” nei quali tutti i dipoli magnetici esistenti a livello
atomico sono accoppiati in una direzione preferenziale. Tale allineamento si
sviluppa di pari passo con la struttura cristallina del materiale durante il
passaggio di stato da liquido a solido.
A causa di questa peculiare struttura, i materiali ferromagnetici sono
caratterizzati dalla cosiddetta “magnetizzazione spontanea”, poiché i singoli
domini sono orientati in una direzione preferenziale, ma nel complesso,
considerato che tutti i domini presentano allineamenti differenti, non si ha un
effetto di magnetismo macroscopico esteso all’intero corpo.
La
magnetizzazione
avviene
un
campo
magnetico
esterno
produce
l’allineamento dei domini nella stessa direzione (quella del campo appunto);
maggior è il numero di domini allineati, maggior è l’effetto di magnetizzazione
e quando tutti i domini sono allineati, si parla di “saturazione magnetica”;
72
questo significa che anche se l’intensità del campo esterno viene ulteriormente
incrementata, l’entità dell’effetto di magnetizzazione non aumenta.
Materiale non magnetizzato
Materiale magnetizzato
Le sostanze paramagnetiche invece (esempi sono il magnesio, il molibdeno e il
litio) possiedono una minore sensibilità ai campi esterni (da cui sono
debolmente attratte) e non conservano alcuna traccia di magnetismo residuo
dopo che il campo esterno è stato rimosso.
Infine le sostanze diamagnetiche sono caratterizzate da una negativa suscettibilità
ai campi esterni, dai quali risultano debolmente respinti. Come è facile intuire,
la maggior parte degli elementi conosciuti presenta questo comportamento, che
è causato dalla totale assenza di elettroni spaiati.
La tecnica: concetti base
La magnetoscopia si serve essenzialmente di un campo magnetico e di
minuscole particelle di metallo magnetizzato (come ad esempio la limatura di
ferro) per individuare la presenza di difetti nei componenti testati. Il principio
di base è relativamente semplice: è noto che quando una barretta magnetica
viene spezzata lungo la linea mediana, si originano due nuovi magneti completi
aventi poli su ciascuna estremità. Se il magnete non venisse completamente
tagliato, ma solo interrotto parzialmente, due nuovi poli si creerebbero sui due
73
lati opposti della cricca (come nel caso di rottura completa). Se piccole particelle
metalliche vengono ora introdotte su al di sopra del sistema, le particelle
risulteranno essere attratte non solo dai
due estremi della barra originaria, ma
anche da quelli della cricca.
Il primo passo per eseguire un’ispezione
MPI
componente
da
testare.
La
presenza
è
quello
di
difetti
di
magnetizzare
sulla
superficie
il
(o
immediatamente sotto), darà luogo ad una perdita di campo magnetico. Dopo
la fase di magnetizzazione, il pezzo viene
cosparso di finissime particelle magnetiche
(sia in forma secca o in sospensione liquida)
che vengono attratte e si raggruppano nella
zona delle perdite di campo, in modo tale da
formare un’indicazione ben visibile della presenza di cricche od altre
imperfezioni.
Schema della procedura di controllo con il metodo MPI
A. Preparazione della superficie
In questa fase occorre verificare che la superficie del pezzo da testare sia
sufficientemente esente dalla presenza di grasso e polvere in modo tale da
permettere alle particelle magnetiche di muoversi liberamente e concentrarsi
nelle regioni nelle quali è presente la perdita di flusso magnetico. Nei casi per i
quali è richiesto il passaggio di corrente sul componente, è inoltre necessario
che alcune porzioni della superficie si prestino in modo ottimale a fungere da
terminali elettrici.
74
B. Magnetizzazione della superficie
Per ispezionare in modo ottimale un componente al fine di identificare la
presenza di cricche o altri difetti, è importante valutare l’orientamento relativo
tra la direzione delle linee di forza del campo magnetico e quella dei possibili
difetti. In generale si possono impiegare due tipologie distinte di campi
magnetici:
•
campi magnetici longitudinali, aventi linee di forza che si sviluppano
parallelamente tra loro e hanno origine e termine nei poli del magnete (o
elettromagnete) impiegato per l’ispezione.
•
campi magnetici circolari, nei quali le linee di forza corrono in direzione
circonferenziale intorno al perimetro del componente testato. Un tale
campo magnetico può essere generato, per esempio, facendo attraversare
da corrente il componente.
Linee di forza rettilinee
Linee di forza circonferenziali
Il tipo di campo magnetico risultante è determinato dal metodo impiegato per
l’ispezione: è molto importante essere in grado di magnetizzare il pezzo su due
direzioni perché la miglior rilevabilità dei difetti si ottiene per angoli elevati
(90° coincide con la condizione ottimale) rispetto alla dimensione prevalente.
Tale orientamento crea, infatti, la maggior dispersione (rottura) delle linee di
forza del campo e inoltre, qualora il campo magnetico fosse parallelo alla
75
direzione del difetto, non si potrebbe avere una dispersione sufficiente a
produrre indicazioni distinguibili.
In sintesi, un angolo compreso tra 45 e 90° tra direzione delle linee del campo e
direzione del difetto è essenziale affinché si formi un’indicazione e, poiché i
difetti possono presentarsi con orientazioni assolutamente casuali, ogni parte è
di regola magnetizzata in due direzioni tra loro ortogonali.
Visibilità dei difetti nel caso di linee di forza rettilinee
Visibilità dei difetti nel caso di linee di forza circonferenziali
La magnetizzazione del pezzo può essere eseguita con sistemi elettrici (che
prevedono un passaggio diretto di corrente sul pezzo da testare) o magnetici
(che viceversa sfruttano l’azione di un campo magnetico generato in un
secondo conduttore disposto nelle sue vicinanze). Nel secondo caso, molto
frequente nella pratica industriale, si impiegano solenoidi (o bobine) che
vengono movimentati sul pezzo da testare.
L’equipaggiamento standard più
largamente impiegato fa uso di un
“giogo” che è essenzialmente un
magnete permanente foggiato ad
“U”
dotato
di
avvolgimento
elettrico con un grande numero di
spire disposte sull’area da trattare (vedi figura). Questo tipo di magnete genera
76
un campo magnetico molto intenso nella zona compresa tra i due puntali (a
volte così forte che è possibile sollevare pesi di oltre 20 Kg).
Occorre ricordare che la direzione di magnetizzazione deve essere maggiore di
45° rispetto alla direzione di ogni possibile difetto. Per ciò che riguarda il tipo di
corrente applicata al pezzo, è possibile impiegare sia corrente continua che
alternata, sebbene per la ricerca di difetti subsuperficiali quella continua sia più
adatta.
Anche
il
livello
di
magnetizzazione deve essere scelto
accuratamente, infatti se esso è
troppo
basso
alcuni
difetti
potrebbero non essere individuati
mentre,
viceversa, in caso di
magnetizzazione troppo elevata le linee di flusso di sfondo possono
mascherarne la presenza. Sfortunatamente non esistono regole quantitative a
tale riguardo, e dunque il livello ideale di magnetizzazione deve essere
determinato empiricamente caso per caso in funzione del tipo di applicazione e
della strumentazione scelta.
Per quanto riguarda la tipologia di corrente da impiegare per la generazione del
campo magnetico, è importante sottolineare che essa può influenzare le
prestazioni dell’intero esame.
In generale negli esami MPI si possono
impiegare tre tipologie di corrente:
Corrente continua (CC)
La CC, di solito generata da una batteria, fluisce con continuità in una certa
direzione con voltaggio costante: il suo impiego è desiderabile quando si
vogliano localizzare con maggior precisione e dettaglio difetti subsuperficiali
perché il campo magnetico che essa genera penetra in profondità nel materiale.
77
Corrente alternata (CA)
Nella CA l’ampiezza del campo elettrico varia periodicamente (in genere con
frequenza compresa tra 50 e 60 Hz) e il suo impiego negli esami MPI è legato al
fatto che essa può essere facilmente prelevata dalla rete elettrica civile. Tuttavia,
quando la CA viene usata per produrre un campo magnetico in materiali
ferromagnetici, l’estensione del campo risultante è limitata a piccole regioni
superficiali del componente testato. Tale fenomeno, detto “effetto pelle” (skin
effect) rende conto, quindi, della tendenza di una corrente elettrica alternata a
distribuirsi dentro un conduttore in modo non uniforme: la sua densità è
maggiore sulla superficie ed inferiore all'interno. Questo comporta un aumento
della resistenza elettrica del conduttore particolarmente alle alte frequenze. In
altre parole una parte del conduttore non viene utilizzata: è come se non
esistesse. Peraltro la rapida inversione della polarità del campo non
consentirebbe ai domini magnetici di rimanere allineati nel tempo, dunque
l’impiego della CA è raccomandato quando i difetti che si vogliono localizzare
sono presumibilmente superficiali.
Nel grafico che segue sono riportate sinteticamente le prestazioni ottenibili in
esami MPI eseguiti con diversi tipi di corrente in funzione della profondità
massima di difetto rilevabile e dell’intensità di corrente.
78
C. Applicazione della polvere magnetica
Come è facile intuire, le polveri magnetiche da impiegare nelle ispezioni
magnetoscopiche costituiscono un ingrediente chiave per la buona riuscita
dell’esame, poiché sono esse a disporsi in modo tale da rendere visibile la
presenza della discontinuità all’operatore. Il materiale base per le polveri è
solitamente limatura di ferro (od ossido di ferro) che può essere all’occorrenza
variamente pigmentato per aumentare il contrasto su alcuni tipi di superficie.
Il metallo ottimale per realizzare polveri magnetiche possiede elevata
permeabilità magnetica (che dà alle particelle la possibilità di essere attratte con
facilità dalle zone di rottura del campo) e bassi valori di ritenzione magnetica in
modo tale che al cessare dell’azione del campo esterno esse non restino
agglomerate tra loro o attaccate troppo saldamente al componente testato. Le
proprietà fondamentali che caratterizzano una polvere magnetica possono
essere riassunte sinteticamente come segue:
1. Comportamento magnetico
2. Geometria delle particelle (fattore che influenza la fluidità di movimento e
la possibilità di scorrimento sul pezzo)
3. Visibilità degli agglomerati formati in corrispondenza di un difetto
4. Granulometria (è necessario impiegare un mix di particelle di differenti
dimensioni per poter rilevare difetti grandi e piccoli)
Dal punto di vista operativo, solitamente si distinguono due grandi classi di
modalità di applicazione delle polveri: asciutte e umide.
Le polveri magnetiche asciutte si trovano in commercio con colorazione rossa,
blu, grigia e gialla, in modo tale che sia garantito il massimo livello di contrasto
tra la polvere stessa e lo sfondo. La dimensione dei granuli rappresenta un
fattore estremamente critico per la scelta della polvere ottimale: se è vero che
polveri sottili (dell’ordine dei 50 μm) garantiscono un’elevata sensibilità anche
79
nei confronti di limitate rotture del campo magnetico (corrispondenti a difetti
estremamente piccoli), è altrettanto vero che esse possono influenzare
negativamente l’esame in particolare nei casi di avverse condizioni
atmosferiche (es. vento) o qualora la superficie sia significativamente rugosa o
contaminata (in questo caso si possono ottenere numerose false indicazioni).
Occorre sottolineare che la presenza di granulometrie superiori (anche fino a
150 μm) assicura una buona visibilità dei difetti grossolani e garantisce una
sorta di azione “legante” anche nei confronti delle particelle più fini. Le polveri
secche soffrono anche di problemi di “riciclo” perché tipicamente si riesce a
recuperare, dopo un’ispezione, solo la parte più grossolana del mix, incorrendo
inevitabilmente in perdite di sensibilità per le successive ispezioni.
Anche la forma delle particelle riveste una notevole importanza: esse possono
presentarsi sferiche, allungate (aghi) o a bastoncelli. Polveri con grani lunghi e
snelli tendono a comportarsi come piccoli magneti N-S formando in tal modo
chiare e distinte indicazioni anche in presenza di campi magnetici deboli, ma la
sperimentazione ha mostrato che se le polveri fossero esclusivamente composte
in questo modo, la loro applicazione (che tipicamente avviene per mezzo di
dispenser) risulterebbe problematica per i notevoli fenomeni di agglutinamento
che impedirebbero l’ottimale distribuzione sul componente da testare. Le
particelle di forma sferica si comportano meglio nei confronti del movimento e
della fluidità di disposizione sulla superficie (peraltro quando si ha a che fare
con sospensioni acquose le considerazioni di carattere geometrico passano in
secondo piano). Per tali ragioni si preferisce sempre unire una certa percentuale
di particelle globulari che garantiscono al mix buone caratteristiche di
sensibilità e facilità di applicazione. In generale la maggior parte delle polveri
secche possiede particelle con rapporti L/D compresi tra uno e due.
80
Le polveri magnetiche umide, invece, sono sospese in un veicolo liquido a base
acquosa o oleosa (tipicamente un idrocarburo); le sospensioni acquose
producono rapide indicazioni, sono più economiche, non comportano rischi di
incendi e sono facili da rimuovere una volta eseguito l’esame. In genere si
introduce nella sospensione anche un agente anticorrosione, anche se le
sospensioni in kerosene sono certamente superiori nell’evitare i rischi derivanti
da corrosione o da infragilimento superficiale.
Le polveri umide offrono un migliore grado di sensibilità complessiva poiché il
veicolo liquido consente una maggiore scorrevolezza e, inoltre, è possibile
impiegare granulometrie anche molto sottili poiché non si corre il rischio di
disperdere la frazione più sottile a causa dell’azione dell’aria e anche i fenomeni
di adesione indesiderata sono praticamente inesistenti. Il metodo umido
consente anche facilità di applicazione su aree relativamente estese e inoltre
esiste la possibilità di rivestire i granuli di pigmenti fluorescenti
Esistono, poi, altri tipi di agenti magnetici meno frequentemente impiegati tra i
quali si possono citare i rivestimenti applicati con tecniche speciali (vernici
magnetiche, plastica magnetica, gomma magnetica).
La magnetizzazione deve essere prolungata durante tutto il tempo di
applicazione della polvere finché il pezzo non raggiunge un alto livello di
ritenzione magnetica
D. Illuminazione della superficie
Per analizzare il risultato della prova MPI è necessario disporre di un buon
livello di illuminazione (almeno 1000 lux) che può essere raggiunto impiegando
lampade fluorescenti (80W) o incandescenti (150W) ad una distanza di 1 metro.
Per le prove eseguite con polveri fluorescenti si rende indispensabile l’uso di
una lampada cosiddetta “a luce nera” ossia un dispositivo che emette luce
81
ultravioletta mediante una lampada ad arco a vapori di mercurio nella banda di
lunghezza d’onda 320-400 nm. Quando si utilizza questo tipo di sorgente
luminosa occorre tenere presente che
•
L’arco è affetto dalla presenza del campo magnetico (bisogna tenere
distante la lampada dall’apparecchiatura magnetizzatrice)
•
L’arco è scoccato solo entro un ben determinato range di voltaggio
•
Devono essere evitate frequenti manovre di accensione/spegnimento
consecutivo, fatto che accorcia significativamente la vita della lampada.
E. Ispezione della superficie
Il risultato dell’ispezione dipende, inevitabilmente, dal visus dell’operatore
dalla sua acutezza visiva e dall’esperienza. Laddove l’indicazione del difetto
abbia una forma non regolare, l’operatore è tenuto a ripetere il test in quella
zona per verificare la riproducibilità del segnale. Di seguito sono riportate
alcune considerazioni di carattere generale:
1. I
difetti
tendono
superficiali
a
fornire
indicazioni nitide, strette
e ben delimitate, con
particelle
ben
legate
assieme tra loro. È ben
visibile
una
sorta
di
accumulo di particelle che è tanto più grande quanto più profondo è il
difetto
2. I difetti subsuperficiali forniscono indicazioni più larghe e sfocate con
particelle meno aderenti l’una sull’altra.
82
Le false indicazioni eventualmente riscontrabili a seguito di una prova MPI
non sono causate da forze di tipo magnetico, infatti alcuni assembramenti di
particelle sono formati a seguito della presenza della rugosità superficiale
oppure originati da azioni di tipo meccanico. Nella maggior parte dei casi
questo tipo di segnale scompare se si ripete il trattamento. Alcuni indicatori
ingannevoli possono anche essere originati dalla presenza di residui di stoffa
(panni usati per la pulizia della superficie), capelli, impronte digitali ecc.
Le indicazioni non rilevanti sono la diretta conseguenze di distorsioni del
campo magnetico che non sono in alcun modo collegate con la presenza di
difetti e possono essere causate da diversi fattori:
•
L’accumulazione
di
particelle
magnetiche
può
verificarsi
in
corrispondenza degli spigoli o nei punti di variazione delle sezioni del
pezzo.
•
Punti di unione di differenti materiali rappresentano una discontinuità
nel valore della permeabilità magnetica del materiale e dunque possono
fornire un’indicazione non rilevante più o meno netta.
•
Contorni dei cordoni di saldatura (Heat-Affected Zones, HAZ) possono
fornire indicazioni non rilevanti a causa della presenza di decarburazioni
o per l’esistenza di stress residui non rilassati con opportuni trattamenti
termici.
•
Lavorazioni meccaniche possono anch’esse essere causa di variazioni
nella permeabilità magnetica e forniscono indicazioni sfocate
•
Negli accoppiamenti forzati possono essere presenti finissimi gap d’aria
che originano indicazioni piuttosto nette. Al crescere della pressione di
contatto l’indicazione tende a rimpicciolirsi. Nel caso di accoppiamenti
tra differenti materiali l’indicazione può comunque restare presente
anche se il serraggio è molto forte.
83
F. Demagnetizzazione del pezzo
Molto spesso è necessario procedere alla smagnetizzazione del pezzo una volta
eseguito il test MPI. Ciò può essere fatto applicando un campo magnetico di
polarità opposta rispetto al precedente e di intensità gradualmente decrescente
Materiali testabili e limiti del metodo
Come accennato in precedenza, il metodo MPI può essere applicato per testare
alcuni (anche se non tutti) materiali ferromagnetici. Un test semplice per
stabilire l’idoneità della tecnica a valutare un determinato materiale è quello di
verificare quanto un magnete permanente è attratto dalla sua superficie. Per gli
acciai è possibile generalizzare questo concetto come segue:
•
In un acciaio ferritico, l’induzione magnetica B deve essere superiore a
10.000 Gauss per un campo magnetico H di 2500 A/m, e dunque la
corrispondente permeabilità magnetica relativa vale 300.
•
Acciai inossidabili con contenuto di ferrite superiore al 70% sono di regola
adatti al test, mentre gli acciai austenitici con elevati contenuti di nichel e
cromo non sono testabili.
Le principali limitazioni del metodo sono relative al rapporto fra le dimensioni
dei difetti rilevabili, infatti una cricca o una generica discontinuità lineare, deve
avere lunghezza almeno tre volte maggiore della sua larghezza; inoltre il difetto
deve essere localizzato sulla superficie o poco sotto. A questo proposito, la
sensibilità del metodo può consentire di localizzare cricche disposte:
•
A circa 6 mm dalla superficie se si utilizzano polveri secche
•
A circa 0.25 mm dalla superficie se si usano polveri in sospensione
acquosa e magnetizzazione in corrente alternata
84
•
A circa 1.3 mm dalla superficie se si usano polveri in sospensione
acquosa e magnetizzazione in corrente continua
Indicatori standard di difetto
La valutazione della sensibilità e delle prestazioni dell’equipaggiamento
impiegato per un test MPI (strumentazione elettrica + polveri) viene usualmente
realizzata impiegando i cosiddetti “indicatori di campo”, ossia strumenti che
misurano l’intensità relativa dei campi magnetici dispersi e che fungono da
calibratori del sistema. Esistono diversi tipi di indicatori (Anello di Ketos,
Piastrine ottagonali, Indicatori artificiali di difettosità AFI, ecc.) dei quali è
possibile trovare descrizioni dettagliate in letteratura o negli standards tecnici.
La piastrina ottagonale (che rappresenta sostanzialmente un indicatore della
direzione del campo magnetico) è costituita da un disco di materiale
ferromagnetico ad alta permeabilità che è separato in sei o otto triangoli e i cui
vertici sono uniti da piccoli gap contenenti materiale non ferromagnetico. I
triangoli sono brasati insieme in modo da formare un esagono, e ricoperti su un
lato maggiore da una lamina di rame di 0.25 mm di spessore. La sonda viene
appoggiata sul pezzo, si procede alla magnetizzazione e si cosparge al sonda
con le particelle magnetiche; la comparsa più o meno nitida dei giunti brasati
indica in quali direzioni il campo può riscontrare efficacemente la presenza di
difetti.
85
Le piastrine ottagonali sono facili da usare e possono essere riutilizzate
indefinitamente senza alcun tipo di deterioramento, tuttavia nel tempo esse
possono conservare un certo magnetismo residuo. Il loro uso è consigliato su
superfici relativamente piatte.
Gli indicatori quantitativi di qualità (QQI, o AFI, indicatori artificiali di
difetto)
rappresentano
il
metodo
preferenziale
per
valutare
contemporaneamente la direzione e l’intensità del campo magnetico qualora si
utilizzi il metodo umido. Dal punto di vista costruttivo, si presentano sotto
forma di piastrine nelle quali è fotoinciso uno specifico pattern (circoli
concentrici, un segno + ecc.). Il QQI deve essere posto in contatto intimo
(impiegando colla o nastro) con la parte da testare
e successivamente si
procede alla magnetizzazione con relativa applicazione delle polveri
magnetiche. La visibilità di uno o più segni della piastrina fornisce informazioni
sia sulla direzione del campo e sia sulla sua intensità.
Prima della magnetizzazione
Dopo la magnetizzazione
I vantaggi dell’impiego dei QQI comprendono la possibilità di ottenere
informazioni quantitative, il loro virtuale adattamento a qualunque tipo di
configurazione di campo e il loro reimpiego. Per contro essi sono piuttosto
86
delicati, possono essere soggetti a fenomeni di corrosione e il loro utilizzo
prevede una procedura piuttosto lunga.
L’anello di Ketos si impiega per verificare l’efficacia dei campi magnetici
generati da un conduttore disposto in configurazione centrale rispetto ad un
componente cilindrico forato. Esso
consiste in un anello contenente una
serie di fori di diametro 1.75 mm
eseguiti
a
differente
profondità
come mostrato in figura. La corrente
magnetizzante passa attraverso il
centro dell’anello per mezzo di un conduttore e le particelle magnetiche sono
sparse sulla superficie superiore. Il numero di fori che risulta visibile è indice
della sensibilità e risoluzione del sistema. Nella tabella seguente sono riportati
alcuni dati relativi al valore della corrente di magnetizzazione necessaria per
visualizzare il numero minimo di fori indicato.
87
Ultrasuoni
IL METODO ULTRASONICO
Introduzione
È noto che il suono si propaga nei corpi mediante la vibrazione elastica degli
atomi e delle molecole che lo compongono, ad una velocità legata
essenzialmente alle caratteristiche fisico-meccaniche del materiale attraversato.
Tuttavia, la presenza di imperfezioni o disomogeneità che si possono presentare
lungo il percorso delle onde sonore, è causa dell’insorgere di fenomeni
dispersivi (scattering) che si manifestano con la presenza di eco spurie, riverberi
e, in generale, attenuazione energetica. Dunque, la comparsa di tali fenomeni,
qualora essi non siano in qualche modo riconducibili a caratteristiche
intrinseche del materiale, è indizio della presenza di discontinuità che possono
poi rivelarsi veri e propri difetti in gradi di compromettere la funzionalità del
componente. È su questi principi che si basano i controlli non distruttivi con il
metodo ultrasonico (UT).
Come anche la terminologia lascia intuire, nel metodo ultrasonico in linea di
principio dovrebbero essere impiegate onde di frequenza superiore ai 20 KHz
(limite convenzionalmente fissato per definire il campo dell’udibile); tuttavia
usualmente i CND ultrasonici nel campo dell’ingegneria industriale fanno uso
Applicazioni
alta potenza
Appicazioni
convenzionali
Microscopia
Ultrasonica
di
onde
di
frequenza
variabile tra 1 e 20 MHz,
Range
subsonico
Range
udibile
mentre
Range ultrasonico
nel
campo
dell’ingegneria civile o nel
settore
0
10
100
1K
10K
100K
1M
10M
100M
1G
del
restauro
monumentale si utilizzano
onde a più bassa frequenza
(nell’ordine delle centinaia di KHz) che si dimostrano più adatte alla
89
penetrazione in materiali incoerenti (quali ad es. il calcestruzzo) o lapidei La
velocità di propagazione delle onde ultrasoniche dipende, come accennato in
precedenza, dal tipo di mezzo testato e varia, per i materiali di interesse
ingegneristico, dai 300 m/s (aria) ai 6000 m/s (acciaio).
Principi fisici
Quando un corpo viene perturbato mediante una vibrazione elastica, la
perturbazione si propaga in esso in un certo tempo (finito) sotto forma di onda
sonora
Lunghezza d’onda
originata
vibrazione delle molecole e
c = velocità (m/s)
degli
Ampiezza
dalla
atomi
che
compongono il materiale.
Tempo o distanza
Come per tutti i fenomeni
ondulatori,
Periodo
è
possibile
definire, anche per le onde
sonore, una lunghezza d’onda λ, un periodo T e una frequenza f, grandezze che
sono legate fra loro dalle relazioni qui riportate, nelle quali c rappresenta la
velocità del suono nel mezzo considerato.
f =
1
T
λ=
c
f
λ = cT
Tuttavia, a differenza della luce, le onde
acustiche
necessitano
per
la
loro
propagazione, di un mezzo elastico nel quale viaggiare. Ciò spiega perché nel
vuoto non si propaga alcun suono.
La lunghezza d’onda della vibrazione sonora può variare da parecchie migliaia
di metri (come ad esempio quella legata al suono emesso da una nave che si
muova nel mare) a valori fino a 10-5 m come nel caso di alcune applicazioni
mediche o industriali. Come già accennato, quando la frequenza è compresa nel
90
range 20-20000 Hz si parla di suoni udibili, mentre laddove il valore di 20 KHz
sia oltrepassato si parla di ultrasuoni.
La propagazione delle onde acustiche (siano esse udibili o ultrasoniche) può
avvenire nei materiali secondo differenti modalità: in particolare si parla di
onde longitudinali quando l’oscillazione delle particelle elementari di cui si
compone il materiale avviene parallelamente alla direzione di propagazione
dell’onda stessa, mentre si definiscono onde trasversali quelle per le quali il
fronte d’onda si muove ortogonalmente rispetto alla direzione del movimento
delle particelle eccitate. Un altro tipo di propagazione avviene per mezzo delle
cosiddette onde di superficie (o di Rayleigh) nelle quali le particelle hanno un
moto ellittico e si spostano sulla superficie del materiale penetrando al suo
interno per una distanza non superiore ad una lunghezza d’onda
Direzione di propagazione delle onde
Direzione
del moto delle
particelle
ONDE LONGITUDINALI
Direzione di propagazione delle onde
ONDE di TAGLIO
Direzione
del moto delle
particelle
Approfondimenti teorici
Le onde sonore (indipendentemente dalla loro frequenza) si propagano nei
materiali sotto l’influenza di una pressione locale P definita “pressione sonora”
91
che rappresenta, in sostanza, la sovrapressione a cui sono sottoposti gli atomi e
molecole rispetto alla pressione standard atmosferica. Poiché questi sono legati
tra loro in modo elastico, tale sovrapressione si propaga lungo tutto il corpo e,
se si indica con Q la velocità di spostamento delle particelle, si può definire
un’importante grandezza caratteristica del materiale, detta Impedenza Acustica
del mezzo (Z) mediante la seguente relazione:
Z=
Pressione acustica
P
=
Q Velocità di spostamento
Si può dimostrare che quando la propagazione avviene senza sfasamento tra
pressione e velocità di oscillazione, l’impedenza acustica può essere espressa in
funzione delle proprietà fisiche del materiale mediante l’espressione
Z = ρc
nella quale ρ rappresenta la densità del materiale e c la velocità di propagazione
del suono. A titolo di esempio nella seguente tabella sono riportati alcuni valori
tipici di impedenza acustica per alcuni materiali di interesse ingegneristico;
dall’analisi dei dati si rileva la differenza esistente tra i valori di impedenza dei
mezzi aeriformi rispetto a quella, notevolmente più elevata, dei mezzi solidi.
MEZZO
Acciaio dolce
Acciaio inox
Acqua
Allumina
Alluminio
Araldite
Aria
Carbone
Mercurio
Olio
Oro
Ottone 70/30
Plexiglas
Rame
Resine epossidiche
Silice
VELOCITA’
DI PROPAGAZIONE
(m/s)
MASSA VOLUMICA
(Kg/m3)
IMPEDENZA
ACUSTICA SPECIFICA
DELLE ONDE
LONGITUDINALI
(MRayls)
5960
5740
1480
10750
6400
2060
332
3100
1451
1440
3240
4372
2670
4759
2600
5969
7850
7800
1000
3800
2700
1200
1.205
1613
13550
900
19300
8450
1180
8930
1211
2203
46.7
44.8
1.5
40.8
17.3
2.5
0.0004
5
19.6
1.3
63
37
3.1
42.5
3.48
13.1
92
Titanio
Tungsteno
Vetro
5990
5174
5260
4500
19300
3600
27
100
18.9
Tipologia di onde ultrasoniche (modi)
È stato già accennato in precedenza che le onde ultrasoniche possono
propagarsi a seguito di oscillazioni delle particelle perpendicolari alla direzione
di movimento del fronte d’onda (onde trasversali) o parallele ad esso (onde
longitudinali). Tuttavia, quando un fascio ultrasonico incide su una superficie o
su una disomogeneità, possono verificarsi complessi cambiamenti che
modificano il moto delle particelle. In base ad alcune caratteristiche quali
appunto tipo di vibrazione delle particelle, mezzo di propagazione ecc, le onde
ultrasoniche possono essere classificate come riportato nella seguente tabella. In
genere, nei controlli non distruttivi vengono impiegate onde longitudinali o
trasversali, mentre è più limitato l’impiego di onde di Rayleigh, di Lamb ecc.
93
Riflessione e trasmissione delle onde ultrasoniche
È stato già accennato come il controllo non distruttivo mediante ultrasuoni si
basi essenzialmente sull’analisi delle variazioni delle caratteristiche delle onde
riflesse e trasmesse (in particolar modo per ciò che concerne l’impedenza
acustica) allorchè il fascio incontra una discontinuità lungo il suo percorso. A tal
fine giova introdurre la relazione fondamentale che governa la riflessione di
un’onda ultrasonica incidente sulla superficie di separazione tra due mezzi di
impedenza acustica Z1 e Z2 che è stata formulata nel 19° secolo da Poisson e
matematicamente si esprime nella forma:
⎛ Z − Z1 ⎞
⎟⎟
R = ⎜⎜ 2
⎝ Z 2 + Z1 ⎠
analoga relazione può essere scritta per ciò che riguarda il coefficiente di
trasmissione T
T=
4Z 2
(Z 2 + Z 1 )2
È interessante osservare che l’impedenza acustica è molto bassa nei gas (circa
quattro ordini di grandezza minore rispetto a quella dei solidi) e ciò comporta
valori del coefficiente di riflessione molto elevati alla superficie di separazione
solido-gas (per esempio acciaio-aria,
caso frequente nella pratica). In sintesi
ciò si traduce nell’impossibilità di far
propagare le onde ultrasoniche nell’aria
dopo che queste hanno attraversato un
materiale solido e questo spiega anche
la necessità di interporre un opportuno
strato di una sostanza solida, liquida o viscosa tra la sorgente di ultrasuoni ed il
pezzo da testare per poter eseguire il controllo in modo efficace.
94
In figura è illustrata, in modo semplificato, la riflessione di un’onda ultrasonica
incidente sulla superficie di separazione tra due mezzi aventi differente
impedenza acustica: l’onda incidente e quella riflessa sono inclinate dello stesso
angolo α1, che è in generale diverso dall’angolo α2 secondo il quale si propaga
l’onda trasmessa. Gli angoli α1 e α2 sono espressi dalla legge di Snell mediante la
relazione:
senα 1 c 1
=
senα 2 c 2
nella quale c1 e c2 sono le velocità di propagazione del suono nei mezzi a
contatto. Ciò sotto l’ipotesi che la lunghezza d’onda λ della radiazione sonora
sia molto più piccola della dimensione della lunghezza del contorno che separa
le due superfici.
Cambiamento del modo d’onda alla superficie di separazione tra due mezzi.
Quando
un’onda
ultrasonica
longitudinale incide sulla superficie di
separazione tra due mezzi a differente
impedenza acustica, essa è parzialmente
riflessa
e
parzialmente
secondo
le
modalità
trasmessa
accennate
in
precedenza. Tuttavia, questo non è
l’unico fenomeno che si verifica, infatti una componente dell’onda longitudinale
è convertita in un’onda trasversale riflessa nella regione del mezzo 1 ed in
un’onda trasversale trasmessa nel mezzo 2. Gli angoli β1 e β2 secondo i quali tali
componenti si propagano sono ancora una volta governati dalla legge di Snell a
patto che le velocità presenti nella relazione siano non più quelle relative alle
onde longitudinali ma quelle proprie delle onde trasversali. Poiché le onde
longitudinali viaggiano più velocemente delle trasversali (il rapporto è circa
95
2:1), gli angoli di riflessione e trasmissione β sono in generale minori di quelli α,
come mostrato in figura.
Esiste poi, come per la luce, un angolo di
incidenza cosiddetto “critico” per il quale
l’onda longitudinale incidente è oggetto
di riflessione totale, e dunque in questo
caso non si ha alcun passaggio di energia
ultrasonica al mezzo 2. Questo fenomeno
è frequentemente sfruttato nel campo del
controllo non distruttivo con ultrasuoni per fare in modo che il componente sia
ispezionato con onde pure di taglio. In particolare, ad esempio, quando si
desidera testare un pezzo con sole onde trasversali, si dispone davanti al
trasduttore un prisma di perspex, materiale per il quale l’accoppiamento con
l’acciaio da’ luogo ad un angolo critico di 27.5°.
Attenuazione delle onde ultrasoniche
La propagazione degli ultrasuoni in un corpo, al di là delle turbative create da
eventuali discontinuità, risente dell’interazione tra le onde elastiche e le
particelle
della
materia
che
agiscono
nella
direzione
di
ridurre
progressivamente il contenuto energetico del fascio.
Una prima causa di tale perdita energetica è intrinseca alla maniera in cui le
onde sono generate dal trasduttore, infatti, come sarà meglio descritto in
seguito, il fascio ultrasonico generato da una sonda, come si vedrà meglio in
seguito, è divergente e ciò comporta una progressiva riduzione della pressione
acustica all’aumentare della distanza dalla sorgente, (che si accompagna ad un
contemporaneo aumento delle dimensioni della zona illuminata).
96
Inoltre, durante l’attraversamento del materiale, le onde ultrasoniche sono
soggette a fenomeni di attenuazione provocati essenzialmente da assorbimento
e scattering che agiscono in maniera dissipativa. Lo scattering, che si verifica
ogniqualvolta il fascio si trova ad impattare con particelle di dimensione
comparabile con la sua lunghezza d’onda, ha come risultato complessivo la
deviazione di parte delle onde incidenti dal percorso originario.
In generale, la riduzione di intensità energetica per un percorso x in un dato
materiale può essere espressa mediante la relazione:
I x = I 0 e − μx
nella quale Ix rappresenta l’intensità finale (<I0) dopo l’attraversamento dello
spessore x di materiale, I0 è l’intensità iniziale e μ il coefficiente di assorbimento.
A sua volta, il coefficiente di assorbimento può essere idealmente scomposto
nella somma di due contributi:
μ = μτ + μ s
dove μτ rappresenta l’assorbimento “reale”, legato alla frequenza dell’onda
incidente e frutto dalla dissipazione energetica che si genera in forza dell’attrito
molecolare, mentre μs deriva dallo scattering, ed è funzione essenzialmente
della dimensione delle particelle di cui si compone il mezzo attraversato.
Poiché il calcolo dell’attenuazione non è immediato, essendo necessario
conoscere la frequenza dell’onda incidente e il tipo di materiale testato, a titolo
di esempio è bene ricordare che materiali come gli acciai lavorati, le leghe di
alluminio, magnesio, titanio e nickel presentano valori di attenuazione molto
bassi e dunque gli spessori massimi testabili nella pratica sono nell’ordine di
1000-10000 mm, mentre la gran parte dei materiali non metallici (materiali
compositi, gomme, plastiche, resine in genere) e leghe quali ottone, bronzo e le
leghe di zinco e piombo presentano valori di attenuazione nettamente più
97
elevati e quindi gli spessori massimi che è possibile ispezionare si riducono
usualmente a meno di 10 mm.
I trasduttori ultrasonici
Generalità
Fino ad ora la propagazione delle onde ultrasoniche è stata trattata trascurando
volutamente le modalità con le quali esse vengono prodotte, ma è abbastanza
intuitivo che deve esistere un qualche dispositivo deputato a questo compito.
Assolvono tale funzione i trasduttori ultrasonici (comunemente indicati anche
con il termine “sonde”) che, fondamentalmente, altro non fanno che convertire
l’energia ottenuta dall’applicazione di una differenza di potenziale in un’onda
ultrasonica (che è, come detto, essenzialmente una vibrazione meccanica). Nella
maggior parte dei casi ciò avviene grazie all’effetto piezoelettrico (scoperto nel
1880 dai fratelli Curie) che è, come è noto, la proprietà che possiedono alcuni
materiali, come il quarzo ad esempio, di produrre cariche elettriche sulla loro
superficie quando sono soggetti a deformazioni meccaniche. Il fenomeno
inverso secondo il quale un materiale piezoelettrico posizionato tra due
elettrodi cambia forma quando viene sottoposto ad una differenza di
potenziale, fu accertato nel 1881 e prende il nome di effetto piezoelettrico inverso.
Nel settore dei controlli non distruttivi con ultrasuoni, il primo fenomeno viene
sfruttato per la misurazione vera e propria, mentre il secondo è impiegato per la
produzione di vibrazioni meccaniche, deformazioni e oscillazioni mediante
applicazione di singoli impulsi elettrici di breve durata (con transitorio di
ascesa < 10 ns).
98
Dal punto di vista costruttivo, l’elemento attivo piezoelettrico è incorporato
nella struttura del trasduttore secondo differenti tipologie costruttive: tra le
sonde più comunemente utilizzate possono essere citate le cosiddette “sonde
verticali” le quali producono onde ultrasoniche longitudinali che si propagano
in direzione ortogonale rispetto a quella della superficie di ingresso del fascio
(angolo di incidenza del fascio 0°). La struttura generale di un trasduttore di
questo tipo (schematizzata nella figura seguente) consta di un disco oscillatore
(l’elemento sensibile) di uno strato protettivo e di un blocco di smorzamento,
oltre che di un involucro rigido metallico e di tutte le connessioni elettriche
necessarie per il collegamento della sonda con i sistemi di acquisizione e
controllo.
Come accennato, il cuore del
Connettore
Connettore
trasduttore
Collegamenti
Elettrici
è
rappresentato
dall’elemento radiante, che si
Blocco
Smorzatore
presenta in forma di piastra
Contenitore
sottile
Elemento attivo
Strato Protettivo
di
spessore
è
determinato dalla frequenza
delle onde che si desidera
Elettrodi
generare. I materiali con il
quale si realizzano attualmente i trasduttori ultrasonici sono, in generale
appartenenti alla famiglia dei piezo-ceramici polarizzati e la scelta di una
sostanza piuttosto che di un’altra viene fatta in base a considerazioni che
coinvolgono l’analisi di parametri quali densità, velocità del suono, impedenza
acustica, costante di deformazione piezo-elettrica, qualità meccanica, costante
dielettrica ecc. In generale i materiali più impiegati sono il Titanato-Zirconato di
Piombo, il Titanato di Bario, il Metaniobato di Piombo e il Solfato di Litio. I
cristalli di quarzo (primo elemento sul quale è stata accertata l’esistenza
99
dell’effetto piezoelettrico) sono attualmente in disuso poiché le ceramiche citate
presentano caratteristiche di gran lunga migliori dal punto di vista delle
prestazioni fornite ai fini ultrasonori.
Un fattore estremamente importante ai fini della scelta del trasduttore è
rappresentato dallo smorzamento dell’oscillatore una volta che l’impulso di
onde meccaniche è stato prodotto. Nel quarzo, ad esempio, lo smorzamento
intrinseco è scarso, e ciò da’ luogo ad impulsi abbastanza lunghi che impiegano
molto tempo ad estinguersi. Questo fatto rappresenta un serio limite alle
prestazioni del sistema, poiché il cristallo non può ricevere onde di ritorno
finché l’impulso emesso non si è annullato. Per contro materiali più moderni
come il PZT5 (Soluzione solida di Titanato e Zirconato di Piombo) possiedono
ottime caratteristiche di smorzamento. Tuttavia occorre sottolineare che un
grosso contributo alle caratteristiche di smorzamento dell’intera sonda è fornito
dal blocco che viene posizionato immediatamente a contatto dell’elemento
attivo (backing) e del quale si tratterà più in dettaglio in seguito.
Le superfici dell’oscillatore sono ricoperte con un sottile strato metallico in
modo tale che sia garantito il comportamento da elettrodo; occorre, tuttavia,
prestare particolare attenzione alla realizzazione di tale copertura in modo tale
da evitare che sia troppo spessa e che, dunque, possa alterare in qualche misura
le oscillazioni.
Il blocco smorzatore, che assorbe gran parte dell’energia emessa dalla piastra
oscillante, è costituito da materiale ad alta densità e ad impedenza acustica
molto simile (se non identica) a quella dell’elemento attivo per evitare
indesiderate riflessioni alla superficie di separazione. I migliori risultati si
ottengono con misture di resine e materiali metallici polverizzati, come ad
esempio il tungsteno, in varie proporzioni; spesso la composizione di tale
componente è tenuta segreta dalle ditte costruttrici, poiché in molti casi sono
100
proprio le caratteristiche di smorzamento a fare la differenza tra un buon
trasduttore ed uno scadente.
L’elemento radiante è protetto dal mondo esterno mediante rivestimento con
uno strato cosiddetto “di usura” (a volte indicato con il nome di “zeppa” o
“scarpa”) che provvede ad evitare il danneggiamento accidentale, o causato
dall’uso, nonché la contaminazione con agenti solidi o liquidi che potrebbero
alterare le proprietà del cristallo. Nelle sonde non soggette ad impieghi
particolarmente gravosi, uno strato di ossido di allumino o titanio può fornire
una protezione sufficiente allo scopo, mentre se si ha a che fare con ambienti
particolarmente aggressivi, si può provvedere alla sovrapposizione di una
piastrina di materiale plastico (perspex o lucite) che può essere facilmente
sostituita quando eccessivamente deteriorata. Nelle sonde ad immersione (che
non vengono poste a diretto contatto col pezzo da testare) l’elemento attivo è
semplicemente rivestito da uno strato di resina epossidica.
Campo acustico di una sonda ultrasonica: trasduttori piani (“flat”) e focalizzati
L’intensità delle onde ultrasoniche all’interno del fascio generato dal
trasduttore non è costante, ma varia a causa delle dimensioni finite della
sorgente
che
danno
luogo
a
fenomeni
di
diffrazione.
Sebbene
la
rappresentazione del fascio ultrasonico emesso sia complessa e non facilmente
rappresentabile, la schematizzazione più comunemente accettata è quella
riportata nella figura sotto ripotata.
Se si ipotizza che il trasduttore sia cilindrico con diametro Δ, il fascio
ultrasonico appare caratterizzato da una prima zona (detta campo prossimo) nella
quale l’intensità è fluttuante tra un valore minimo ed uno massimo. All’interno
del campo prossimo, la distanza corrispondente al tempo di durata
dell’impulso si definisce “zona morta” poiché, come accennato in precedenza,
101
in questo spazio non è possibile ottenere alcuna informazione a causa della
sovrapposizione tra impulso emesso e riflesso.
La lunghezza del campo prossimo N è funzione, oltre che del diametro del
trasduttore, della lunghezza d’onda secondo la relazione:
N=
Δ2
4λ
quindi essa è inversamente proporzionale alla lunghezza d’onda. Ciò significa
che, a parità di materiale testato, sonde ad alta frequenza possiedono una
lunghezza di campo prossimo più grande.
Il fascio ultrasonico, superata la zona del campo prossimo tende a presentare
caratteristiche di maggiore stabilità e, dal punto di vista geometrico, si fa
evidente la tendenza a divergere secondo un angolo α definito dall’equazione:
senα =
1.22λ
Δ
Questa regione è definita campo lontano e in essa l’energia ultrasonica decresce
gradualmente fino ad annullarsi
Tuttavia esiste una particolare classe di trasduttori, detti focalizzati nei quali le
onde ultrasoniche vengono direzionate impiegando opportuni sistemi di “lenti
acustiche” oppure (come capita più di frequente) modellando opportunamente
la superficie dell’elemento radiante in modo tale che l’emissione sia concentrata
virtualmente su una linea (focalizzazione cilindrica) o su un punto
102
(focalizzazione
sferica).
I
trasduttori
focalizzati
essenzialmente
vengono
nelle
impiegati
ispezioni
in
immersione e consentono di ottenere
elevati livelli di risoluzione che sono
richiesti in modo particolare quando si
eseguono scansioni automatizzate di
provini anche a geometria complessa.
Focalizzazione cilindrica
Focalizzazione sferica
Dal punto di vista delle proprietà del
campo acustico, i trasduttori focalizzati sono caratterizzati dai seguenti
parametri:
•
Il diametro focale BD a -6dB (riduzione dell’ampiezza del segnale del
50%) che è espresso dalla relazione
BD ( −6dB ) =
1.02F c
fΔ
Dove F indica la lunghezza focale del trasduttore, c la velocità del suono nel
mezzo, f la frequenza dell’onda e Δ il diametro del trasduttore.
•
La lunghezza della zona focale FZ, che esprime in sostanza la
dimensione della regione spaziale nella quale il fascio si mantiene a
sezione costante e pari al diametro BD
2
⎤
FZ = N ⋅ S F ⋅ ⎡ 2
⎢⎣ (1 + 0.5S F )⎥⎦
espressione nella quale N è la
lunghezza del campo prossimo e SF la
cosiddetta
normalizzata
lunghezza
che
si
ottiene
focale
dal
rapporto tra lunghezza focale e lunghezza del campo prossimo.
103
I mezzi accoppiatori
Per garantire una efficace trasmissione delle onde ultrasoniche dall’elemento
radiante al componente da testare, è necessario interporre tra questo e la
superficie del pezzo, uno strato costituito da una sostanza (liquida o gelatinosa)
che viene detta “mezzo accoppiatore” (in inglese “couplant”). Il mezzo
accoppiatore provvede a fornire un opportuno passaggio per l’onda ultrasonica
dalla superficie radiante del trasduttore fino al materiale ed evita che l’onda
ultrasonica possa essere completamente riflessa a causa della presenza di aria
che possa trovarsi immediatamente a contatto con il trasduttore. Questo poiché
il basso valore di impedenza acustica dell’aria fa si che un’interfaccia solido-aria
si trasformi in un perfetto specchio riflettente per le onde sonore impedendone,
di fatto, la penetrazione nel materiale.
Le qualità che dovrebbe possedere un buon mezzo accoppiatore sono:
•
inumidire opportunamente le superfici del trasduttore e del pezzo da
testare
•
escludere qualunque bolla d’aria dal percorso del raggio sonoro
•
riempire tutte le irregolarità presenti nella superficie del pezzo per creare
una regione di ingresso regolare
•
consentire il libero movimento della sonda
•
essere facile da applicare e da rimuovere e non essere tossico
Il mezzo accoppiatore per eccellenza è l’acqua, in quanto questa sostanza
riassume in sé tutte le caratteristiche sopra descritte ed in più ha costo quasi
nullo. In molte situazioni, tuttavia, l’acqua può non essere la soluzione ottimale
di accoppiamento sia per la sua scarsa viscosità (che ne impedisce, per esempio,
l’impiego su superfici verticali) e sia per la possibilità che insorgano fenomeni
di corrosione o danneggiamento del componente testato. In tali situazioni, si
104
preferisce utilizzare sostanze più viscose come ad esempio la glicerina o (sia in
forma pura e sia in forma di gel misti con acqua) oppure il silicone, l’olio, grassi
di varia natura o la colla per carta da parati.
Occorre tenere presente che lo strato di accoppiatore tende ad attenuare (in
diversa misura in funzione della sostanza impiegata) l’energia dell’onda
incidente e quindi il suo spessore non dovrebbe essere mai troppo elevato.
Considerazioni sulla scelta del trasduttore
La selezione del trasduttore ottimale per un certo tipo di controllo, dipende in
larga misura dalle caratteristiche del materiale da testare e, in particolare, dalle
sue capacità di attenuazione dell’energia ultrasonica. In generale le onde
Basse frequenze
Alte frequenze
ultrasoniche ad alta frequenza
presentano
caratteristiche
migliori
per
ciò
che
riguarda la risoluzione, ossia la
capacità di fornire indicazioni
Elevato livello di penetrazione
Scarsa risoluzione spaziale
Basso livello di penetrazione
Elevata risoluzione spaziale
distinte per riflettori localizzati
spazialmente
ad
una
certa
distanza l’uno dall’altro, mentre
le onde di bassa frequenza sono
maggiormente in grado di penetrare elevati spessori di materiale o (ciò che è lo
stesso) di consentire l’esecuzione di indagini su materiali fortemente assorbenti
come gomme, plastiche ecc. Nella figura è rappresentato il segnale ultrasonico
così come monitorato dall’oscilloscopio nei due casi limite citati. Quando si
impiegano frequenze basse, il segnale è ricco di picchi corrispondenti alle
riflessioni multiple del fascio ultrasonico sulle pareti del provino, mentre nel
caso di frequenze elevate il passaggio continuo all’interno del materiale
105
impoverisce rapidamente l’onda del suo contenuto energetico. Per contro, la
presenza di più difetti (tre nel caso in esame) viene percepita sotto forma di una
unica e indistinta eco nel caso delle frequenza basse, mentre l’elevata
risoluzione spaziale che caratterizza le onde ad altra frequenza consente di
localizzare in modo inequivocabile tutti i difetti presenti nel pezzo.
Le tecniche “pulse-echo” e “through-transmission”
Le onde ultrasoniche possono propagarsi attraverso spessori di materiale anche
di alcuni metri (come ad. es. accade per l’acciaio a grana fine) o molto limitati
(materiali molto assorbenti quali gomme, plastica ecc.) dunque è importante
scegliere la giusta tecnica di controllo in funzione della tipologia del
componente, del
materiale di cui è composto, della sua geometria e
dell’accessibilità delle sue estremità. In generale, i CND eseguiti con il metodo
ultrasonico si suddividono in due grandi famiglie:
1. Tecniche “pulse-echo” (o “eco-impulso”)
2. Tecniche “through-transmission” (“ in trasmissione”)
La differenza sostanziale tra questi due metodi risiede nel fatto che nel primo
caso le onde ultrasoniche investono il pezzo da testate, penetrano in esso e
vengono riflesse e rifratte dalle superfici che delimitano il componente stesso.
Sono proprio le riflessioni interne (eco) che vengono esaminate e forniscono
informazioni sulla presenza di eventuali difetti nel pezzo. Nelle tecniche in
trasmissione, invece, si esamina esclusivamente l’onda che ha attraversato il
corpo senza tenere in considerazione le eco riflesse.
Dal punto di vista pratico, l’impiego di un metodo piuttosto che di un altro
dipende dalle considerazioni generali di cui si è accennato in precedenza. Per
esempio, è chiaro che laddove sia accessibile una sola superficie del pezzo,
risulterà impossibile eseguire un’analisi in trasmissione, mentre il controllo di
106
un pezzo altamente assorbente
potrà
essere
realizzato
vantaggiosamente
con
più
una
tecnica in trasmissione poiché
l’uso di quella a riflessione
comporterebbe
un
maggior
percorso dell’onda ultrasonica
all’interno
del
conseguente
importanti
attenuazione
materiale
con
insorgere
di
fenomeni
che
di
possono
ridurre sensibilmente il rapporto segnale/rumore.
Nella figura sono proposti alcuni schemi di controllo con le due tecniche. Con T
è indicato il trasduttore che funge da trasmettitore (emissione) mentre con R si
indica il trasduttore che ha il compito di raccogliere le onde che hanno
attraversato il pezzo. Nello schema a) è proposto un controllo in riflessione che
impiega un solo trasduttore (che incorpora in sé le funzioni T ed R). L’onda
ultrasonica viene emessa dal trasduttore, attraversa il materiale e viene riflessa
sia dalla superficie opposta del pezzo (“Echo Rear Wall”) che dal difetto. Il
segnale ultrasonico, che è monitorabile su un comune oscilloscopio, mostra
dunque tre tracce distinte e facilmente identificabili. La
posizione del difetto può essere determinata semplicemente
a partire dalla conoscenza della velocità del suono nel
S=
c ⋅ TOF
2
mezzo c (che è nota se si conosce il tipo di materiale testato) e dal tempo
impiegato all’onda per essere riflessa dalla discontinuità (che è rilevabile sul
display dell’oscilloscopio). Quest’ultima grandezza è spesso definita tempo di
volo (“Time of Flight” TOF). La relazione qui a lato esprime la distanza del
107
difetto dalla superficie di ingresso del pezzo in funzione delle grandezze
sopracitate. Il termine ½ rende conto del fatto che l’onda percorre la stessa
distanza due volte (in andata e ritorno).
Lo schema di controllo b) rappresenta la classica situazione di impiego della
tecnica in trasmissione, che prevede l’impiego di due trasduttori uno dei quali
emette il fascio di onde ultrasoniche (T) mentre l’altro, posto sulla superficie
opposta a quella di ingresso delle onde, raccoglie le onde stesse dopo che esse
hanno attraversato il pezzo e sono state riflesse dalle eventuali discontinuità
incontrate lungo il percorso. In questo caso, il segnale trasmesso presenta
un’ampiezza il cui valore è diminuito (rispetto a quello di ingresso) di una
quantità che è proporzionale alla geometria del difetto presente. In questo caso
è assolutamente indispensabile avere accesso ad entrambi i lati del componente.
Lo schema c) rappresenta, invece, un controllo in riflessione che fa uso di due
trasduttori (tecnica cosiddetta del “pitch-catch”) nel quale le due sonde sono
poste sullo stesso lato del pezzo ma agiscono una da trasmettitore ed una da
ricevitore. Questa disposizione consente di eseguire controlli con sonde a fascio
angolato e si dimostra particolarmente vantaggiosa nel caso di difetti orientati
verticalmente, che risultano difficilmente rilevabili da un fascio ultrasonico
orientato nella stessa direzione della discontinuità.
Il metodo pulse-echo è probabilmente quello più largamente impiegato sia nel
settore industriale sia nelle applicazioni di laboratorio. Un setup tipico per
controlli di questo tipo è rappresentato nella figura a lato. Un trasduttore viene
posto a contatto con la superficie del pezzo da testare per il tramite di uno
strato di mezzo accoppiatore. Come illustrato in precedenza, questo non è altro
che una sostanza liquida o gelatinosa (acqua, gel ecografici a base di glicerina,
olio, etc.) che ha la funzione di realizzare assoluta continuità tra il trasduttore e
il pezzo (condizione necessaria affinché il segnale ultrasonico in ingresso sia
108
Ampiezza
quello ottimale). In alternativa il
Oscilloscopio
componente
Amplificatore
può
essere
completamente immerso in un
Tempo
liquido (acqua ad esempio) e in
Generatore
di Impulsi
Trigger
Passo
temporale
tal caso il trasduttore (che sarà
immerso anch’esso) non deve
essere posto a contatto della
Mezzo
accoppiatore
Sonda T/R
Oggetto
da esaminare
superficie
del
trasduttore
genera
ultrasoniche
sotto
corpo.
le
Il
onde
forma
di
impulsi che vengono riflessi
dalla superficie opposta del
pezzo o da eventuali discontinuità presenti al suo interno e raccolti dallo stesso
trasduttore (che dunque in questo caso agisce da ricevitore). Il tempo necessario
all’impulso per percorrere la distanza tra le due superfici opposte dell’oggetto è
mostrato sul display dell’oscilloscopio e, per garantire una più facile leggibilità
del segnale, gli impulsi sono inviati ad intervalli di tempo regolari.
La presenza di un difetto da’ origine ad un segnale che si colloca
temporalmente in anticipo rispetto alla eco legata alla riflessione del fascio
ultrasonico sulla superficie del pezzo opposta a quella di ingresso
Interpretazione del segnale
La comparsa di una eco inattesa sul display dell’oscilloscopio non è di per sé
informazione sufficiente per attestare che il pezzo è caratterizzato da difettosità.
Occorre, piuttosto, procedere ad una fase di interpretazione da parte del tecnico
che esegue il controllo, che tenga conto delle caratteristiche intrinseche del
campione esaminato e delle condizioni sotto le quali il test si svolge.
109
Prima di affrontare l’analisi di alcuni casi semplici di difettosità che si
presentano comunemente nella pratica, occorre tenere presente alcune regole
generali elencate di seguito:
•
L’oscilloscopio fornisce una rappresentazione grafica del segnale
ultrasonico nella quale in ordinate è riportata l’ampiezza del segnale e in
ascisse il tempo.
•
I trasduttori sono indicati con le lettere T (trasmettitore) ed R (ricevitore).
Le sonde che incorporano le due funzioni in un unico trasduttore sono
indicate con T/R
•
I fasci ultrasonici ad incidenza normale (0°) sono composti da onde
longitudinali (di compressione)
•
I fasci ultrasonici angolati sono generalmente composti da onde
trasversali (“shear waves”) mediante un fascio longitudinale rifratto.
•
L’impulso ultrasonico iniziale (emissione) è registrato sull’oscilloscopio
al tempo t=0
•
Il fascio ultrasonico si propaga con un angolo di divergenza noto
Nelle figure che seguono sono mostrate alcune indicazioni ottenute per
differenti tipi di discontinuità: nel caso di difetti isolati singoli occorre osservare
che solo le discontinuità che sono orientate perpendicolarmente al fascio
producono una eco chiaramente visibile sull’oscilloscopio, mentre quelle
disposte secondo la direzione di propagazione risultano essere praticamente
invisibili al controllo. Inoltre, l’ampiezza della eco generata dalla riflessione sul
difetto risulterà di ampiezza più o meno elevata in funzione del fatto che le
superfici che lo delimitano siano rugose o lisce. I difetti disposti secondo
orientazioni casuali nei confronti della superficie di ingresso possono essere
individuati impiegando trasduttori angolati che generano fasci ultrasonici
inclinati secondo angoli variabili a piacere.
110
Difetti isolati
Nel caso in cui nel pezzo siano presenti più discontinuità, l’oscilloscopio mostra
tracce distinte delle due eco riflesse solo nel caso in cui la posizione dei difetti
sia tale che uno non oscuri l’altro (come visibile nel riquadro destro della
figura). Anche in questo caso, l’ampiezza del segnale è legata alle caratteristiche
geometriche del difetto nonché alla sua tipologia.
Difetti multipli
Il controllo ultrasonico “in immersione”
La tecnica ultrasonica di controllo in immersione consiste, come la terminologia
stessa suggerisce, nell’immergere completamente il pezzo da testare in acqua (o
111
altro idoneo mezzo accoppiatore) prima dell’esecuzione dell’analisi. Tale
procedura consente di ottenere alcuni indubbi vantaggi che possono essere
sintetizzati come segue:
•
L’accoppiamento tra sonda e pezzo è assolutamente costante e uniforme
(e ciò garantisce una altrettanto uniforme sensibilità e stabilità del
segnale)
•
Possono essere testati pezzi aventi anche geometria complessa
•
Possono essere impiegati sistemi di ispezione automatizzati
•
La possibilità di impiegare sonde focalizzate aumenta la risoluzione e la
sensibilità del sistema
Una variante del metodo, che può essere facilmente realizzata anche senza
dover immergere completamente il pezzo in acqua, consiste nell’impiegare
particolari sistemi (detti squirter o bubbler) che sostanzialmente non sono altro
che dei piccoli tubi che vengono collegati solidalmente alla sonda e ad una linea
di alimentazione idrica, e provvedono a fornire un getto continuo e costante di
acqua che va a bagnare solo la regione ispezionata in quel dato momento dalla
sonda.
Aria
Quando
Acqua
controlli
Trasduttore
con
si
eseguono
in
immersione
sonde
focalizzate,
occorre
tenere
presente
che il fascio ultrasonico si
propaga in due mezzi a
diversa
Punto focale
in acqua
Punto focale
nel provino
acustica
materiale
impedenza
(l’acqua
di
cui
e
il
e’
112
composto il pezzo) e ciò modifica sensibilmente la lunghezza focale.
Nella figura è illustrato il comportamento sopra accennato: il trasduttore ha una
lunghezza focale f (in acqua, dato fornito dal costruttore); che ,quando il fascio
incide sul materiale da testare, (di impedenza acustica Z2) si riduce di una
quantità che può essere ricavato note le velocità di propagazione nell’acqua e
nel materiale VA e VM . In particolare è vera l’uguaglianza
Wp+(VM/VA)Md=f
Da questa relazione è possibile ricavare la posizione del punto focale nel
materiale o, eventualmente, stabilire quale percorso devono realizzare le onde
ultrasoniche in acqua al fine di focalizzare il fascio su un particolare punto del
provino. A titolo di esempio giova ricordare che per un provino in acciaio
immerso in acqua, il termine (VM/VA) vale circa 4.
Interpretazione del segnale oscilloscopico nelle prove in immersione
Nella figura seguente è rappresentata schematicamente l’esecuzione di una
prova ultrasonora in immersione. Il provino, nel quale è presente un difetto,
viene immerso in un contenitore pieno di acqua e sottoposto a scansione con
una sonda longitudinale ad incidenza normale. L’oscilloscopio mostra un primo
picco che è legato all’impulso di emissione del trasduttore (tratteggiato in
figura) e un picco di ampiezza minore che rappresenta la prima riflessione sulla
superficie di ingresso del fascio; la diminuzione di ampiezza che si registra è
dovuta all’assorbimento da parte dell’acqua. Il fascio, che è stato parzialmente
riflesso dalla superficie di ingresso e ha prodotto la traccia di ritorno
visualizzata nel primo picco, è in parte trasmesso all’interno del componente e
prosegue la sua corsa fino ad incontrare la discontinuità che, in quanto
elemento a diversa impedenza acustica, genera anch’esso una parziale
riflessione e trasmissione. La riflessione evidenzia un secondo picco
113
(tratteggiato) che, come si può intuire, compare solo nel momento in cui almeno
una porzione del fascio ultrasonico va ad incidere sul difetto, mentre nelle
restanti regioni del pezzo si evidenzia una terza eco causata dalla riflessione del
fascio sulla superficie inferiore del materiale. Poiché la successione delle
riflessioni è caratterizzata quantitativamente dal tempo al quale esse si
presentano (facilmente deducibile dalla scala delle ascisse dell’oscilloscopio) e
sono note le velocità di propagazione del suono nell’acqua e nel materiale, è
Ampiezza
immediato risalire alla localizzazione spaziale del difetto.
Aria
Tempo
Sonda
longitudinale
Acqua
Difetto
Impulso Riflessione
Iniziale Acqua-materiale
Difetto
Superficie
Inferiore
114
Radiografia
IL METODO RADIOGRAFICO
Introduzione
La radiografia è la tecnica che consente di ottenere informazioni sul contenuto
di un solido mediante impressione di un elemento sensibile (tipicamente una
pellicola) da parte di radiazioni ionizzanti quali raggi X o raggi γ. L’immagine
ottenuta è una proiezione bidimensionale del volume e dunque, come tale, non
offre alcuna informazione sulla posizione (in termini di profondità) delle
discontinuità incontrate dal fascio incidente durante il suo percorso. Il
meccanismo di formazione dell’immagine è legato al differente assorbimento
delle radiazioni nel pezzo in funzione della variazione di spessore, dei diversi
costituenti chimici, di disuniformità nella densità, della presenza di difetti o di
eventuali fenomeni di scattering.
La radiografia rappresenta uno dei più importanti e versatili metodi di
controllo non distruttivo attualmente adottati nell’industria; impiegando
radiazioni che non alterano la struttura chimico-fisica del pezzo o le sue
proprietà meccaniche, fornisce una registrazione permanente dell’esame che
contiene informazioni essenziali per la valutazione dell’integrità strutturale.
Milioni di radiografie, nel corso delle ultime decadi, hanno consentito alle
industrie di assicurare l’affidabilità dei loro prodotti e, in applicazioni
particolarmente critiche, di salvare o proteggere vite umane.
Tuttavia, poiché sono anche ragioni di tipo economico che giustificano
l’impiego di un metodo NDT piuttosto che di un altro, il valore aggiunto della
radiografia risiede, in qualche modo, nelle sue capacità di incrementare il livello
di profitto dell’azienda che utilizza questa tecnica. Da questo punto di vista, la
possibilità di impiegare i raggi X in qualunque fase del processo produttivo, si
riflette, in termini di benefici economici, sull’intero ciclo produttivo, dalla
116
progettazione, alle lavorazioni, assicurando un costante ed elevato livello
qualitativo dei prodotti e, in definitiva, la massima soddisfazione per i
committenti.
La radiografia industriale è tremendamente versatile: gli oggetti radiografabili
possono essere di dimensioni ridottissime (come componenti elettronici
miniaturizzati) o elevatissime (missili, parti di aeromobili ed altri componenti
dell’industria aerospaziale, petrolchimica o nucleare) ed essere costituiti di
qualunque tipo di materiale (solido, liquido, organico o inorganico). Per venire
incontro alle crescenti esigenze dell’industria, inoltre, la ricerca nel settore della
tecnologia applicata al metodo RT è in continua evoluzione: sorgenti sempre
più potenti e leggere si affacciano sul mercato, e i processi di trattamento degli
esiti delle indagini RT diventano sempre più raffinati, rapidi e meno costosi.
Negli ultimi anni, con l’avvento dell’era digitale, anche la radiografia ha visto
mutare significativamente le sue caratteristiche e, al giorno d’oggi, non è
infrequente constatare che molte industrie hanno abbandonato il tradizionale
film ed il laboratorio chimico per passare a schermi sensibili capaci di trasferire
in tempo reale le immagini su PC per archiviarle permanentemente in formato
digitale.
Natura dei raggi X
I raggi X sono una forma di radiazione elettromagnetica così come lo è la luce,
ma da essa si differenziano per la loro ridottissima lunghezza d’onda, che è
all’incirca 10000 volte inferiore rispetto alla luce visibile. Proprio questa
caratteristica è responsabile della loro capacità di penetrare sostanze che
usualmente riflettono o assorbono la luce. I raggi γ (che vengono anch’essi
impiegati per il controllo non distruttivo industriale) presentano caratteristiche
molto simili ai raggi X, ma sono estremamente diversi per il modo in cui
117
vengono generati. Infatti essi sono il prodotto della disintegrazione dei nuclei
di isotopi radioattivi e la loro qualità (in termini di lunghezza d’onda e potere
penetrante) e intensità non possono essere controllate dall’operatore.
Raggi X e i raggi γ godono delle seguenti proprietà:
•
possono penetrare nella materia;
•
sono assorbiti in maniera differenziale;
•
si propagano in linea retta;
•
producono degli effetti fotochimici sulle emulsioni fotografiche;
•
ionizzano il gas attraversato;
•
non sono deviati da campi elettrici e magnetici;
•
la loro velocità di propagazione è uguale a quella della luce;
•
possono liberare elettroni per effetto fotoelettrico;
•
provocano la fluorescenza di alcune sostanze
Dal punto di vista operativo, sia che si impieghi una radiazione X o una γ
questa, dopo essere stata generata da una sorgente, deve investire l’oggetto e la
lastra (che è posta dietro il pezzo) e dunque è assolutamente necessario avere
libero accesso ad entrambi i lati; ciò, a volte, può rappresentare una seria
118
limitazione all’applicazione della tecnica. Altra differenza è che la distribuzione
spettrale (contenuto energetico delle diverse frequenze monocromatiche che
compongono la radiazione) è molto diverso nei due casi e ciò porta ad alcune
differenze in particolare per ciò che concerne le prestazioni ottenibili dai due
tipi di esame, come meglio verrà illustrato in seguito. Prima di introdurre alcuni
brevi cenni storici sul metodo radiografico e le procedure di indagine, giova
richiamare alcune terminologie standard definite nelle norme ASTM. In
particolare si definisce:
•
Radiologia, la scienza e l’applicazione di raggi X, raggi γ o altre radiazioni
penetranti
•
Ispezione radiografica o Esame Radiologico, l’uso di raggi X o γ al fine di
determinare la presenza di discontinuità in un materiale
Nella pratica si definisce come ispezione radiografica anche la procedura di
registrazione dell’immagine generata dal passaggio di radiazioni penetranti su lastra
sensibile.
Breve storia della radiografia industriale
Prima di analizzare in dettaglio la struttura degli apparecchi radiografici,
possiamo riferirci al seguente esempio di natura sperimentale per meglio
chiarire la genesi e la natura dei raggi X. Supponiamo di avere un filo di
materiale conduttore e di renderlo incandescente (per effetto Joule) mediante il
passaggio di una opportuna corrente. Gli elettroni eccitati dall’ apporto di
energia riescono a staccarsi dall’atomo e a fuoriuscire dal conduttore. Se
poniamo ad una certa distanza dal filo una piastrina di metallo caricata
positivamente gli elettroni fuoriusciti dal conduttore verranno attratti e
cadranno sulla piastrina con una velocità, e quindi con un energia, direttamente
proporzionale alla differenza di potenziale esistente tra conduttore e piastrina.
119
In altre parole maggiore è la differenza di potenziale più alta è l’energia degli
elettroni. Quando un elettrone arriva sulla piastrina può urtare contro un
elettrone di un atomo del materiale oppure non urta altri elettroni, ma viene
deviato passando nelle vicinanze di un atomo. In entrambi i casi, la maggior
parte dell’energia liberata viene emessa sotto forma di radiazione nell’intervallo
dell’infrarosso come calore, mentre una piccola parte sotto forma di onde
elettromagnetiche a lunghezza d’onda ridotta e frequenza elevata chiamate
appunto raggi X. La prova dell’esistenza dei raggi X si deve a W.C. Roentgen
che nel 1895, a seguito dell’osservazione di fenomeni di la fluorescenza in
alcuni cristalli disposti in prossimità di un tubo catodico, riuscì a caratterizzare
sistematicamente la tipologia e le proprietà delle radiazioni penetranti. Agli
inizi del ‘900 comparvero i primi apparecchi (tubi) in grado di generare raggi X,
che tuttavia erano molto inaffidabili, difficili da controllare e producevano
radiazioni di intensità molto bassa. Il primo vero salto tecnologico nella storia
della radiografia si conseguì con l’invenzione dei tubi sottovuoto (Coolidge,
1913) che consentivano di raggiungere energie dell’ordine dei 100 kV. L’ASME
nel 1931 accettò il metodo radiografico quale strumento di controllo delle
radiografie nei recipienti in pressione. Nel 1931 la General Electric produsse il
primo apparecchio ad alto voltaggio (1000 kV), mentre il salto verso il milione
di Volt si ebbe negli anni ’40. Attualmente esistono apparecchi da 6 MV e oltre
che possono essere impiegati per usi industriali (per esempio per l’analisi di
getti o forgiati di dimensioni ragguardevoli)
I principi fisici
Raggi X
Come accennato in precedenza, un modo semplice e molto diffuso di produrre
raggi X consiste nel far collidere un fascio di elettroni su un bersaglio solido;
120
questo è il principio del tubo di Coolidge (il primo sistema di produzione di
raggi X) il cui schema è riportato sinteticamente in figura.
Il tubo altro non è che un’ampolla di vetro nella quale è praticato il vuoto spinto
(la pressione interna è dell’ordine dei 10-2 MPa) contenente due elettrodi: il
catodo, o elettrodo negativo, che costituisce la sorgente di elettroni, è costituito
da un filamento di tungsteno avvolto a spirale e da una cupola di
concentrazione (schermo focalizzante). All’estremità opposta si trova una
placchetta di tungsteno che costituisce l’anodo o elettrodo positivo. Il filamento
Anodo di Tungsteno
Fascio di elettroni
Catodo
Braccio catodico
Braccio anodico
Raggi X
di tungsteno, riscaldato fino all’incandescenza da una corrente di debole
intensità alimentata da un piccolo trasformatore, emette un fascio di elettroni
che si dirige verso l’anodo (caricato positivamente). Questo tipo di emissione di
elettroni, che avviene a partire da un filamento riscaldato, è chiamata “effetto
termoionico”; l’esperienza e la teoria mostrano che l’emissione termoionica è
funzione della temperatura del filamento. Gli elettroni liberati dal filamento
sono successivamente attratti verso il bersaglio con velocità dipendente dalla
differenza di potenziale fornita ai due capi del sistema. L’emissione dei raggi X
è dovuta all’interazione tra gli elettroni (che prendono anche il nome di “raggi
catodici”) con gli atomi del bersaglio anodico e il passaggio di essi verso
l’esterno del tubo è assicurato da “finestre” metalliche realizzate con sottili fogli
di berillio od alluminio (metalli che possiedono un basso coefficiente di
assorbimento verso i raggi X). Presso il bersaglio deve essere anche disposto un
121
efficiente circuito di raffreddamento poiché il 99% dell’energia è convertita in
calore.
I vantaggi chiave del sistema di Coolidge, rispetto ai primi e rudimentali
metodi di generazione dei raggi X, consistono nella sua stabilità e nel fatto che
l’intensità e l’energia dei raggi X possono essere controllati in modo
indipendente. Infatti un aumento dell’intensità di corrente che attraversa il
filamento si riflette in un aumento di temperatura e in un corrispondente
aumento del numero di elettroni prodotti (fatto che aumenta l’intensità dei
raggi non alterandone la distribuzione spettrale). In modo analogo, l’aumento
della differenza di potenziale tra anodo e catodo incrementa la velocità degli
elettroni che colpiscono l’anodo e ciò provoca un incremento dell’energia dei
raggi X emessi.
L’energia della radiazione prodotta è espressa in “elettronvolt” (eV). Un
elettronvolt è l’energia cinetica acquistata da un elettrone quando è accelerato
da un campo elettrico prodotto da una differenza di potenziale di un volt:
−19
. 1eV =1,602⋅10 J
Come accennato, la velocità con la quale gli elettroni colpiscono l’anodo è
funzione dalla tensione di alimentazione del tubo, e a sua volta l’energia dei
raggi X prodotti è direttamente proporzionale al quadrato della velocità degli
elettroni stessi; inoltre più piccola è la lunghezza d’onda della radiazione
prodotta, più elevata è la sua energia e maggiore è la capacità della radiazione
stessa di penetrare la materia.
Caratteristiche dei raggi X
In generale, con il termine generico di radiazione si intende l’insieme delle
particelle subatomiche e delle onde che si propaga dalla sorgente sotto forma di
122
fascio. Considerando che l’intensità della radiazione è la quantità di energia
ceduta
nell’unità
di
tempo
ad
una
superficie
unitaria
disposta
perpendicolarmente alla direzione del fascio, è possibile costruire un
diagramma riportante in ascisse la lunghezza d’onda e in ordinata l’intensità di
una radiazione elettromagnetica, ottenendo in tal modo il cosiddetto spettro di
emissione della radiazione.
I raggi X presentano uno spettro misto costituito da due parti:
a) uno spettro continuo, determinato dalla variazione continua di energia,
dovuta alla diminuzione di velocità che gli elettroni subiscono
nell’attraversare il bersaglio metallico;
b) uno spettro a bande (discontinuo), o spettro caratteristico, determinato
dal rilascio di energia da parte degli elettroni urtati del bersaglio che
ritornano sull’orbita originaria. Ad ogni riga corrisponde un preciso
livello di energia associato al salto dell’ orbita.
E’ stato dimostrato che l’intensità dello spettro continuo aumenta con il
quadrato della tensione secondo la relazione:
I = K ⋅V
2
nella quale K è una costante che, a parità d’altri fattori, dipende dal materiale da
cui è costituito l’anticatodo.
123
Lo spettro caratteristico dipende dal materiale del bersaglio ed è importante
sottolineare che la sua energia è piccola se confrontata con quella dello spettro
continuo. In figura è riportato lo spettro nel caso di anticatodo in tungsteno.
Come accennato in precedenza, lo spettro continuo dei raggi X può essere
modificato attraverso due parametri fondamentali:
1) la corrente con la quale viene prodotto il fascio elettronico per effetto
termoionico
2) la tensione di alimentazione imposta tra catodo e anodo che determina
l’accelerazione degli elettroni.
Aumentare la corrente del filamento provoca un aumento della emissione di
elettroni dal filamento stesso e quindi un aumento di intensità della radiazione
prodotta che non ha influenza sull’energia della stessa.
Aumentare la tensione del tubo significa aumentare la differenza di potenziale
esistente tra catodo e anodo, e quindi agire sul campo elettrico che spinge gli
elettroni sull’anodo. Ciò si traduce in un aumento dell’energia della radiazione
X prodotta. La figura seguente mostra la curva di intensità per quanto riguarda
lo spettro continuo dei raggi X. La curva (a) è stata ottenuta con bassa corrente
mentre la (b) è ottenuta con una corrente
più elevata mantenendo costante la tensione
di alimentazione. Il punto di intersezione di
ciascuna curva con l’asse delle lunghezze
d’onda è chiamato “limite inferiore di
lunghezza d’onda” (λmin), questo valore è
completamente determinato dalla tensione
di alimentazione del tubo. Come si può
124
notare aumentando la corrente del tubo radiogeno si ha l’effetto di aumentare
l’intensità massima dei raggi X ma non la loro energia, la quale è inversamente
proporzionale alla lunghezza d’onda.
L’intensità massima si ha infatti per lo stesso valore della lunghezza d’onda
λmax, e il limite inferiore di lunghezza d’onda è rimasto invariato.
Quindi, per aumentare l’energia dei raggi X, e quindi la loro capacità di
penetrare la materia, è necessario aumentare la tensione di alimentazione tra
catodo e anodo, cioè la tensione del tubo. In
figura è mostrato come varia l’emissione in
funzione della tensione di alimentazione.
All’aumentare
della
tensione
di
alimentazione da 50 a 200 kV si riduce il
limite inferiore di lunghezza d’onda ed anche
il valore di λ per cui si ha la massima
intensità di radiazioni.
I raggi X di lunghezza d’onda minima sono
prodotti
dagli
massima
o
elettroni
massima
aventi
energia.
velocità
Il
limite
inferiore di lunghezza d’onda può essere
calcolato con l’aiuto della seguente relazione:
λ=
12,336
V
dove:
•
λ è la lunghezza d’onda espressa in Angstrom,
•
V è la tensione di alimentazione del tubo radiogeno espressa in Volt.
Quando la tensione di alimentazione aumenta, come si osserva dalla relazione,
la lunghezza d’onda minima diminuisce e, inoltre, l’intensità massima della
125
radiazione
elettromagnetica
aumenta
all’aumentare
della
tensione
di
alimentazione.
Raggi γ
I raggi γ sono radiazioni elettromagnetiche emesse dalla disintegrazione di un
isotopo radioattivo, caratterizzate da un contenuto energetico variabile da 100
keV a 1 MeV, con lunghezze d’onda corrispondenti di 0.01 e 0.001 Angstrom.
Dal punto di vista dell’impiego radiologico industriale, le sorgenti γ più
impiegate sono il Cobalto (Co-60), l’Iridio (Ir-192), il Cesio (Cs-173), l’itterbio , il
tulio e il tantalio. A seconda della sostanza impiegata, si possono testare
spessori di materiale estremamente variabili; per esempio le radiazioni
originate dal cobalto possono penetrare una lastra di acciaio di spessore oltre
200 mm. Per contro, occorre tenere presente che isotopi altamente radioattivi
richiedono l’adozione di complesse procedure di sicurezza onde evitare
contaminazione e lesioni del personale addetto al controllo e alla popolazione
circostante.
Tutte le sorgenti radioattive impiegate nella γ-grafia sono caratterizzate dal
cosiddetto “tempo di dimezzamento” (o semivita), che rappresenta il tempo che
impiega una certa quantità di un elemento radioattivo a diminuire della metà la
sua massa. Tale parametro è di particolare importanza per la definizione del
rischio di contaminazione ambientale, poiché elementi ad elevata semivita
possono permanere attivi e pericolosi nell’ambiente per molte migliaia di anni.
A titolo di esempio, il Co-60 ha una semivita di 5,3 anni, mentre il Ce-137 arriva
a 30 anni.
L’unità
di
misura
dell’attività
dell’isotopo
radioattivo
nel
Sistema
Internazionale (SI) è il Becquerel (Bq) che corrisponde ad una disintegrazione al
secondo. Sono in uso anche altre unità di misura quali il Curie (Ci) che è pari a
126
3,7 1010 disintegrazioni al secondo, ed il Rutherford (rd) che è uguale a 106
disintegrazioni al secondo.
Da quanto detto risulta:
1 Ci=3,7 1010 Bq
1 Rd=106 Bq.
I principali vantaggi dell’impiego di sorgenti a raggi γ sono:
•
ridotte dimensioni della sorgente, che è compatta e facile da trasportare
•
elevata penetrazione delle radiazioni se comparata con le sorgenti a raggi
X di uso industriale,
•
prezzo relativamente basso rispetto ad alcune apparecchiature a raggi X,
•
non è necessaria alcuna sorgente di elettricità,
•
monocromatica
•
il contrasto abbastanza tenue dell’immagine permette ad un grande
dominio di spessori di materiale di essere radiografati in una sola
esposizione e sulla stessa pellicola.
Occorre rilevare, tuttavia, che quest’ultima caratteristica non risulta vantaggiosa
quando si testano pezzi con spessore relativamente costante; il basso contrasto,
infatti, non offre le condizioni ottimali per rilevare i difetti in pezzi con queste
caratteristiche.
Le sorgenti di raggi gamma hanno il principale inconveniente di essere di bassa
intensità: questo costringe ad impiegare tempi di esposizione più lunghi, inoltre
alcuni elementi radioattivi hanno un tempo di dimezzamento relativamente
breve, e ciò può comportare la loro frequente sostituzione.
In sintesi, per la scelta degli isotopi devono essere considerati tre fattori
principali:
1. il periodo di radioattività,
2. l’energia dei raggi gamma,
127
3. il materiale da radiografare.
La procedura di controllo mediante radiografia
Come accennato, una radiografia è essenzialmente una registrazione fotografica
prodotta dal passaggio di raggi X o gamma attraverso un oggetto su una
pellicola.
I raggi X si propagano secondo linee rette e, in condizioni normali, non possono
essere focalizzati. Ciò caratterizza uno dei punti essenziali della procedura
radiografica, ossia l’impiego di sorgenti puntiformi o prossime ad essere tali,
poiché
la
dell’immagine
strettamente
dimensione
definizione
radiografica
legata
della
è
alla
sorgente.
Valori di 1.5-5 mm sono comuni
nei tubi a raggi X di medie
caratteristiche,
possibile
mentre
scendere
è
fino
a
dimensioni di 5-50 μm per
particolari tipologie di sorgenti
cosiddette “microfocalizzate”.
Dalla sorgente, di qualunque tipo essa sia, ha origine un fascio di radiazione
divergente che attraversa il provino, ne viene differentemente assorbito (in
funzione delle sue caratteristiche fisico-chimiche) e finisce per impressionare
una pellicola sensibile, uno schermo fluorescente, un convertitore fotonico
(scintillatore). L’immagine che si ottiene (in scala di grigi) deve essere
successivamente interpretata per valutare la presenza di discontinuità che,
128
come visibile nella figura seguente producono livelli diversi di densità
dell’immagine in funzione delle loro caratteristiche.
Proprio la relazione esistente tra la direzione
del fascio incidente e le caratteristiche
geometriche
delle
rappresentano
critico
ai
un
fini
discontinuità
fattore
della
estremamente
caratterizzazione
radiografica di un componente
Per esempio, si osserva in figura come
difettosità
apparentemente
simili
nella
tipologia (cricche di uguale dimensione ma
orientate perpendicolarmente tra loro) sono
rappresentate da immagini estremamente diverse tra loro; infatti la
discontinuità orientate parallelamente alla direzione di propagazione del fascio
appaiono
nettamente
più
distinguibili
rispetto
a
quelle
orientate
perpendicolarmente. Di tali fattori occorre tenere conto quando si progetta un
controllo radiografico.
Il fenomeno grazie al quale i raggi X producono un’immagine variamente
contrastata è quello dell’attenuazione, che avviene a seguito di fenomeni di
scattering e di assorbimento originati dall’interazione delle radiazioni con gli
atomi della materia attraversata. Appare dunque evidente che deve essere
posta grande cura nella selezione dell’energia dei raggi X in modo tale che essa
sia
quella
ottimale
in
di
funzione
del
livello
contrasto
che
si
intende
ottenere nell’immagine. Un
esempio
di
quanto
sia
129
delicato questo aspetto è riportato in figura. La radiografia riporta l’esame di
una lastra d’acciaio nella quale è presente una cricca: mentre l’immagine di
sinistra è stata impressionata utilizzando una sorgente X da 150 kV, quella di
destra è stata realizzata impiegando una sorgente γ di Ir-192. Appare evidente
come in quest’ultimo caso, il contrasto ottenuto sulla lastra sia insufficiente a
visualizzare correttamente il difetto.
Più in generale, per ottenere una radiografia di buona qualità occorre valutare
alcuni importanti aspetti sintetizzabili come segue:
1. Esame visivo preliminare dell’oggetto. È importante analizzare ad occhio
nudo l’oggetto da testare per decidere l’orientamento della direzione di
indagine sia sulla base della possibile collocazione dei difetti all’interno
del componente, e sia in relazione agli spessori che devono essere
attraversati dal fascio.
2. Energia dei raggi X. L’energia (lunghezza d’onda) dei raggi X deve essere
selezionata considerando la composizione dell’oggetto, la lunghezza del
percorso che il fascio deve attraversare e le eventuali problematiche
legate alla dispersione dei raggi.
3. Registrazione dell’immagine. L’immagine può essere osservata su uno
schermo controllato in remoto o su pellicola in unione con opportuni
schermi luminosi. Griglie o schermi devono essere usati laddove
necessario per ridurre effetti indesiderati di scattering che possono
peggiorare la qualità finale dell’immagine. Per ciò che riguarda il tempo
di esposizione necessario a garantire un livello di contrasto ottimale,
questo deve essere determinato sulla base di test di calibrazione che sono
eseguiti radiografando provini particolari. Inoltre, la distanza tra la
sorgente, l’oggetto ed il piano pellicola deve essere tale da assicurare un
sufficiente rapporto di ingrandimento, buona nitidezza ed alto contrasto,
130
con tempi di esposizione che devono essere ridotti al minimo possibile. Il
miglioramento della definizione dell’immagine può anche essere
ottenuto impiegando film a grana fine, ma in generale questo tipo di
pellicole richiede un tempo di esposizione più lungo rispetto a quelle
standard.
4. Interpretazione delle radiografie. Il risultato finale di una radiografia è una
proiezione che non offre alcuna informazione relativamente alla
profondità dei difetti nel pezzo. Al fine di agevolare il lavoro del tecnico
che deve formulare il giudizio di accettabilità sul pezzo, occorre
considerare i seguenti fattori:
•
La scelta preliminare dell’energia dei raggi X e degli altri fattori che
possono influenzare la nitidezza ed il contrasto dell’immagine
•
L’impiego di radiazioni aventi la massima differenza possibile per ciò
che concerne l’assorbimento in funzione delle differenti composizioni del
pezzo
•
L’orientazione dell’oggetto, che deve essere tale da permettere che le
discontinuità presenti nell’immagine finale siano ben contrastate rispetto
al fondo
•
La radiografia deve essere esaminata con uno schermo ad alta
luminosità, in condizioni ambientali ottimali (buio)
•
Occorre
conoscere
in
anticipo
la
possibile
casistica
dei
difetti/discontinuità eventualmente presenti nel pezzo. Radiografie di
riferimento con difettosità note possono essere di grande aiuto nei casi
dubbi.
•
Consapevolezza della possibilità che nell’immagine possano essere
presenti informazioni non rilevanti dovute, ad esempio, a fenomeni di
scattering
131
La generazione dei raggi X
Sono passati molti anni dall’invenzione di Coolidge, e il processo di
generazione dei raggi X per impiego industriale, può attualmente fare
affidamento
su
tecnologicamente
dispositivi
avanzati
e
ad
alte
prestazioni. In figura seguente è proposta
una rappresentazione schematica di come
appare oggi un moderno generatore di
raggi
X.
In
esso
si
distinguono,
comunque, le parti essenziali (anodo,
catodo, finestre di uscita dei raggi X) già
presenti anche nei primi tubi radiogeni.
Tuttavia, pur con tutti i progressi e i
miglioramenti
nell’ultimo secolo,
tecnologici
conseguiti
i sistemi che provvedono alla generazione dei raggi X
rimangono estremamente inefficienti dal punto di vista energetico, se si pensa
che solo una percentuale variabile tra l’1% (basse energie) e il 25% (alte energie)
dell’energia iniziale è convertita in radiazione utile. La parte restante si
trasforma in calore che deve essere smaltito mediante un opportuno sistema di
raffreddamento disposto nella zona del bersaglio.
I valori tipici del potenziale di eccitazione del tubo sono compresi nel range 20
kV-25 MV (anche se in campo industriale raramente si ha necessità di salire
oltre i 500 kV); i maggiori valori di energia sono richiesti, come è facile intuire,
per penetrare grandi spessori di materiale, mentre basse energie assicurano
ottimi livelli di contrasto. I bersagli dei tubi a raggi X commerciali sono quasi
sempre di tungsteno, poiché questo elemento possiede elevato punto di fusione
(caratteristica importante considerato l’enorme calore sviluppato), buona
conduttività termica (necessaria per assicurare un rapido smaltimento del
132
calore), ed elevato numero atomico. A questo proposito occorre sottolineare
come il numero atomico Z0 sia un parametro rilevante per l’intero sistema
perché compare sia nell’espressione dell’intensità di energia che è possibile
ottenere con un tubo di determinate caratteristiche di corrente i e voltaggio V
I = K’i Z0 V2
e sia in quella dell’efficienza χ della produzione di raggi X (rapporto tra energia
dei raggi X prodotta e energia impiegata per la produzione ed accelerazione
degli elettroni)
χ = 1.4 10-9 Z0 V
Assorbimento e Scattering dei Raggi X nella materia
La conoscenza delle caratteristiche di assorbimento dei raggi X nei materiali è di
fondamentale importanza al fine di ottenere radiografie ben contrastate, poiché
è proprio in forza dell’assorbimento differenziale che si generano le immagini
radiografiche. Nei solidi l’attenuazione è causata da diversi meccanismi che
agiscono indipendentemente tra loro, alcuni causati dall’assorbimento ed alcuni
da fenomeni di scattering.
I fenomeni di cessione di parte dell’energia posseduta dalla radiazione agli
atomi della materia vengono usualmente classificati in letteratura come segue:
•
effetto Fotoelettrico (assorbimento)
•
effetto Compton (scattering incoerente)
•
produzione di doppietti
Effetto fotoelettrico
L’assorbimento fotoelettrico avviene quando un fotone dei raggi X di bassa
energia (≈ 0,5 MeV) collidendo con un atomo trasferisce tutta la sua energia ad
un elettrone e, se tale energia raggiunge un certo livello di soglia, l’elettrone è
133
espulso e liberato dalla forza di
attrazione
del
nucleo.
Questo
fenomeno avviene per basse energie
del
fotone
(il
quale
viene
completamente assorbito) e per elevati
livelli di numero atomico dell’atomo.
Effetto Compton
L’effetto Compton, noto anche come “scattering incoerente”, avviene quando
un fotone con energia superiore alla soglia necessaria alla liberazione di un
elettrone, collide con un atomo; della
sua energia, parte viene usata per
espellere un elettrone dell’orbitale più
esterno, e parte prosegue sotto forma di
fotone avente però energia inferiore e
direzione
di
propagazione
diversa
rispetto al fotone incidente.
Produzione di coppie
La produzione di coppie si verifica
quando un fotone ad elevata energia
(superiore a 1,2 MeV) collidendo con un
atomo viene completamente assorbito e
al suo posto si formano un elettrone ed
un positrone. Il positrone ha una vita
134
brevissima; esso svanisce con la formazione di due fotoni aventi energia pari a
0,5 MeV ciascuno.
Una volta spiegati i meccanismi di assorbimento e scattering, appare opportuno
definire delle grandezze parametriche che definiscano le caratteristiche del
materiale nei confronti della radiazione X. A tale proposito si definiscono i
coefficienti Half Value Layer (HVL) e Tenth Value Layer (TVL) come gli spessori
che rispettivamente dimezzano e decimano l’intensità della radiazione
incidente. Ciò per un dato materiale e per una certa intensità delle radiazioni
Per uno stesso materiale i valori di HVL e TVL decrescono all’aumentare
dell’intensità dell’energia raggiante, e quindi per radiazioni più penetranti.
Supponendo di costruire il setup sperimentale rappresentato in figura per il
quale
•
I0 è l’intensità della radiazione incidente,
•
I è l’intensità della radiazione trasmessa (che giunge al rivelatore)
•
dx è lo spessore del pezzo attraversato.
si può dimostrare che un fascio omogeneo di raggi X di intensità I0,
nell’attraversare un spessore di materiale ∆x, subisce un’attenuazione di
intensità ∆I, che è proporzionale all’intensità del fascio incidente e allo spessore
del materiale; il fenomeno può essere descritto dalla seguente espressione
matematica:
ΔI = − μ ∗ I ∗ Δx
135
dove μ è una costante di proporzionalità di segno negativo per indicare la
diminuzione di intensità.
Supponendo di avere a che fare con quantità infinitesime, si può scrivere
dI = −I ∗ μ ∗dx
e, integrando si ottiene infine:
I = I 0 ∗ e (− μ∗x)
Questa relazione esprime la legge fondamentale sull’assorbimento di un fascio
omogeneo di raggi X o raggi gamma. La costante di proporzionalità μ è definita
coefficiente di assorbimento lineare e si esprime in cm-1. Questo parametro esprime,
in sostanza, la frazione di energia assorbita per cm di materiale attraversato, ed
il suo valore numerico dipende dalla lunghezza d’onda della radiazione
incidente e dal tipo di materiale attraversato.
Nella pratica, però, può risultare più conveniente riferire il coefficiente di
assorbimento alle caratteristiche di densità del materiale ρ come segue:
μm =
μ
ρ
Il coefficiente di assorbimento per unità di massa dipende, infatti, sia dal
materiale sia dal suo stato fisico e questo spiega perché, ad esempio, l’intensità
dei raggi X non diminuisce allo stesso modo quando questi attraversano uno
spessore unitario di vapore acqueo o di acqua allo stato liquido.
Tuttavia, quando si prende in considerazione la densità dei due materiali allora
l’assorbimento per unità di massa risulta essere lo stesso e dunque la frazione di
raggi X assorbita per una data quantità d’acqua è la stessa, sia che essa si trovi
sotto forma di acqua, di ghiaccio o di vapore.
136
Il coefficiente di assorbimento massico di un composto chimico o di una miscela
è dato dalla media dei coefficienti dei singoli componenti proporzionalmente
alla percentuale in peso di ciascuno di essi.
Lo scattering
Lo scattering (dispersione) è il fenomeno in seguito al quale una parte raggi
emergenti dal corpo assorbente (dopo averlo attraversato) seguono delle
direzioni diverse rispetto al fascio incidente. Questa radiazione è definita anche
“radiazione diffusa”.
Poiché il rivelatore (sia esso un film od un convertitore fotonico) riceve
contemporaneamente sia la radiazione diffusa sia la radiazione del fascio
principale e non è in grado di discriminare tra le due, il coefficiente di
assorbimento che è misurato dal rivelatore risulta essere composto da due parti:
un termine legato all’assorbimento vero e proprio e un termine causato dalla
dispersione.
L’assorbimento vero e proprio è caratterizzato dalla scomparsa di un quanto di
energia e dal trasferimento di essa agli elettroni del materiale attraversato
(questo il caso descritto come effetto fotoelettrico, ma in parte ciò accade anche
nell’effetto Compton e nella produzione di doppietti). La radiazione dispersa è,
invece, caratterizzata da una variazione di direzione rispetto al fascio incidente,
e da un’energia minore; (è questo il caso dell’effetto Compton e della
produzione di doppietti).
Effetti dell’assorbimento e della dispersione
Durante l’esposizione ai raggi X o γ, la pellicola radiografica è colpita dalla
frazione di radiazioni che hanno attraversato il pezzo in esame (che non sono
state assorbite) e dalla radiazione di scattering. A seconda dello spessore del
materiale, dei difetti presenti o della presenza di eventuali inclusioni di
materiale a diverso coefficiente di assorbimento, le radiazioni subiscono un
137
differente livello di attenuazione e, quando infine vanno ad incidere sulla
pellicola, la impressionano in maniera differenziata con diverse densità di
annerimento. L’osservazione visiva della pellicola sviluppata e un accurato
esame delle regioni di essa che presentano zone a differente densità e contrasto,
consente di localizzare e caratterizzare eventuali difetti presenti nel pezzo in
esame.
Registrazione delle immagini con i Raggi X
Come accennato in precedenza, i raggi X e quelli γ possono essere rilevati
impiegando una varietà di mezzi quali pellicola fotografica, camere a
ionizzazione, scintillatori, contatori geiger, etc. In realtà, nella pratica
industriale, la pellicola radiografica è di gran lunga il sistema più impiegato.
In generale, una comune pellicola radiografica è composta da sette strati:
● due strati esterni di gelatina indurita per proteggere l’emulsione;
● due strati di emulsione sensibile (cristalli di bromuro di argento);
● due strati sottilissimi per assicurare l’aderenza dell’emulsione al supporto
trasparente;
● uno strato di supporto trasparente (in acetato di cellulosa o poliestere).
La formazione dell’immagine è legata al modo in cui la radiazione X modifica le
caratteristiche dell’emulsione fotografica analogamente a quanto accade con la
luce nelle lunghezze d’onda del visibile (rendendo in tal modo possibile la
realizzazione di fotografie)
La base di materiale trasparente (acetato di cellulosa) è uniformemente rivestita
sui due lati con un’emulsione gelatinosa di bromuro d’argento. Il bromuro
d’argento si trova sotto forma di piccoli cristalli ed è disposto uniformemente
all’interno della gelatina. Lo spessore di ciascuno strato è circa 0,025 mm.
Quando i raggi X o γ incidono sull’emulsione, ha luogo una reazione chimica
nei cristalli del bromuro d’argento con una energia che è proporzionale
138
all’intensità della radiazione incidente e al tempo di esposizione. Il risultato di
tali modificazioni chimiche è latente sulla pellicola e, affinché possa essere
osservato, è necessario trattare la stessa con una soluzione chimica chiamata
rivelatore.
Il rivelatore ha un’azione riduttrice nei confronti del bromuro d’argento, che
consiste nel prelevare il bromuro dai cristalli esposti del bromuro d’argento, e
depositare atomi di argento nero sulla gelatina. La concentrazione dell’argento
metallico nero, per unità di superficie dell’emulsione, dipende dal tempo di
esposizione e dunque, in definitiva, è il fattore che determina la densità della
pellicola.
Una caratteristica importante che deve possedere il rivelatore è la sua capacità
di non intaccare i cristalli che non sono stati esposti. In realtà nessun prodotto
chimico attualmente conosciuto lascia una regione inesposta totalmente
inalterata nel tempo e ciò provoca uno sviluppo parziale che prende il nome di
“nebbia chimica” o “velatura”.
Dal punto di vista costitutivo, i rivelatori contengono generalmente del metolo
e dell’idrochinone, sostanze capaci di riprodurre tutti i toni del grigio e il nero;
è, inoltre, necessario che la soluzione sia alcalina per rendere opaca la pellicola..
Del solfito di sodio e del bromuro di potassio aggiunti alla soluzione, agiscono
da agenti di conservazione e riducono la nebbia chimica.
Per fermare lo sviluppo, la pellicola viene immersa in un bagno di arresto
rapido, ovvero risciacquata in acqua.
Il bagno di arresto consiste in una soluzione leggera di acido acetico che
neutralizza gli alcali del rivelatore. Se non viene usato il bagno d’arresto le
pellicole devono essere immerse in acqua corrente pulita da uno a due minuti,
se le si agita sono sufficienti 20 secondi. Dopo lo sviluppo la pellicola contiene
ancora il bromuro d’argento che non è stato esposto e rivelato e questo deve
139
essere
rimosso
dall’emulsione
se
si
vuole
che
l’immagine
resti
permanentemente fissata. A tal fine si impiega un “fissatore” costituito da
iposolfito di sodio o di ammoniaca. Acido acetico o solforico (in bassa
concentrazione) sono aggiunti al fissatore per neutralizzare il rivelatore alcalino
aderente alla pellicola. Quando la pellicola viene estratta dal rivelatore, le
superfici non rivelate appaiono gonfie e ingiallite. Dopo l’immersione nel
fissatore, trascorso un certo tempo, il giallo diventa trasparente. Il tempo
necessario a che avvenga questo cambiamento è detto tempo di schiarimento. Per
fissare correttamente una pellicola, essa deve essere lasciata nel fissatore per un
tempo doppio del tempo di schiarimento.
Una volta tolte dal fissatore, le pellicole devono essere lavate per almeno 30
minuti per eliminare le eventuali tracce di prodotti chimici ancora presenti
nell’emulsione. Sebbene l’operazione di lavaggio non sia sufficiente ad
eliminare completamente le ultime tracce di fissatore, questo deve essere ridotto
a quantità tali da permettere la conservazione della radiografia integra per un
periodo di tempo prefissato.
Lo stadio finale del trattamento della pellicola è l’essiccatura. Questa
operazione viene fatta appendendo le radiografie ad un supporto e generando
un moto convettivo naturale o forzato dell’aria ambientale. Possono anche
essere utilizzati essiccatori ad aria calda che consentono una notevole
velocizzazione del processo, anche se occorre prestare particolare attenzione a
non produrre un riscaldamento eccessivo che può rendere fragili le pellicole.
Tipi di pellicole
Le pellicole, che sono classificate da appositi organismi internazionali in base al
loro comportamento, si differenziano tra loro per la velocità (rapidità di
esposizione), il contrasto e la dimensione dei grani. Questi aspetti sono in parte
140
correlati, infatti le pellicole aventi grani di grandi dimensioni hanno velocità più
elevata rispetto a quelle aventi i grani relativamente più piccoli. Per contro, le
pellicole ad elevato contrasto hanno i grani generalmente più piccoli e sono
meno rapide di quelle a minor contrasto. Una pellicola a grana fine è in grado di
restituire un’immagine contenente un maggior numero di dettagli rispetto ad
una pellicola a grana grossa.
Nonostante la differenza di qualità tra le radiazioni delle sorgenti a raggi X e le
sorgenti a raggi gamma, per entrambi i casi si impiegano gli stessi tipi di
pellicole.
Curva densitometrica
La radiografia sviluppata consiste in una superficie sulla quale sono state
deposte diverse quantità di argento metallico ed è quindi composta da zone di
maggior o minor annerimento. Definita la trasmittanza T come:
T=
It
I0
dove
I0
è l’intensità della luce incidente sulla pellicola.
It
è l’intensità luminosa emergente dalla pellicola,
La densità della pellicola è definita come il logaritmo decimale dell’inverso
della trasmittanza:
D = log
I
1
= log o
T
It
La densità della pellicola dipende sia dall’intensità della radiazione sia dal
tempo di esposizione. Il prodotto di questi due fattori è detto esposizione:
141
E = k ∗ I ∗t
dove
k
è un fattore di proporzionalità,
I
è l’intensità della radiazione,
t
è il tempo di esposizione.
Ciascun tipo di pellicola è caratterizzato da una curva densitometrica (o
sensitometrica) che rappresenta graficamente il grado di annerimento ottenibile
al variare dell’esposizione cui la pellicola è soggetta. La figura riporta una tipica
curva densitometrica.
Il parametro “a” rappresenta la sensibilità della pellicola (la cosiddetta “velocità”
o “rapidità”); una pellicola è tanto più sensibile quanto minore è il valore di
“a”, cioè la pellicola inizia ad
annerirsi dopo una breve
esposizione.
La pendenza della curva
caratteristica “b” rappresenta
il contrasto o gradiente della
pellicola:
maggiore
è
la
pendenza della curva caratteristica maggiore è il contrasto. Il dominio di
utilizzo della pellicola è il tratto a pendenza costante indicato come latitudine di
esposizione “e” e si trova nell’intervallo di densità tra 1,7 e 2 per condizioni
normali di osservazione.
Il parametro “c”, detto velatura, si concretizza in una leggera opacità presente
anche in zone non esposte. Questo fenomeno è causato in parte da una non
perfetta trasparenza del supporto e in parte dalle operazioni di sviluppo. In
142
ogni caso la velatura non deve superare il valore di 0,2-0,3 di densità, a cui
corrisponde una quasi totale trasparenza.
Il parametro “d” rappresenta la massima densità accettabile quando la pellicola
viene esposta e sviluppata ed è chiamato densità limite. Il valore della densità
limite è generalmente fissato pari a 4, mentre un valore superiore (a cui
corrisponde un annerimento intenso) non può essere accettato.
I densitometri
Il densitometro è lo strumento atto alla misura della densità della pellicola che
aiuta il tecnico a stabilire se i limiti di densità sono rispettati. Sebbene in
commercio
siano
disponibili
densitometri
elettronici molto pratici ed affidabili, sono ancora
largamente impiegati anche quelli a comparazione
ottica.
I densitometri ottici prendono anche il nome di
“strisce densitometriche” e si compongono di varie
bande di grigio corrispondenti densità note: la
densità incognita della pellicola viene determinata
per confronto visivo diretto con le varie bande. Questo metodo consente stime
di densità sufficientemente precise anche se, ovviamente, occorre tenere
presente i limiti dell’apparato visivo umano.
La formazione dell’immagine radiografica
L’intensità dei raggi X decresce con il quadrato della distanza come accade, del
resto, per tutti gli altri tipi di onde elettromagnetiche; dunque se analizziamo il
comportamento di una sorgente puntiforme (come schematizzato in figura) si
può osservare che il fascio emesso, divergente, investe i differenti piani che lo
intersecano perpendicolarmente secondo aree di dimensione progressivamente
143
crescente nelle quali l’intensità rilevata in un singolo punto diminuisce. Ad
esempio se si suppone che sul piano C1, posto ad una distanza X dalla sorgente,
la radiazione copra 4 regioni quadrate con intensità 1, spostandosi sul piano C2,
situato a distanza doppia dal precedente, lo stesso fascio
investe copre 16 regioni quadrate più piccole ed in esse
l’intensità si è ridotta ad 1/4. Da ciò si deduce che
raddoppiando la distanza l’intensità della radiazione
sull’unità di superficie si riduce ad 1/4, triplicandola si
riduce ad 1/9 e così via. Tuttavia occorre osservare che
questa legge è valida solo se la dimensione della sorgente è
piccola confrontata con la distanza sorgente-oggetto (nella
maggior parte delle applicazioni pratiche > 50 mm)
La Penombra Geometrica
Uno dei parametri che contribuisce pesantemente ad influenzare la qualità
dell’immagine radiografica è la cosiddetta “penombra” (unsharpness), che si
definisce come l’incapacità di riprodurre fedelmente i bordi di un dato oggetto.
Lo stesso termine viene anche usato per indicare la
distanza minima che può essere risolta da un dato
sistema
radiografico.
essenzialmente
dalle
La
penombra
dimensioni
della
dipende
macchia
focale, ossia della proiezione delle dimensioni
effettive
del
dall’anticatodo
fascio
di
sul
piano
elettroni
provenienti
perpendicolare
alla
direzione di propagazione.
Con riferimento alla figura, se si considera una sorgente di dimensioni finite, la
penombra è espressa dal segmento A”A’ (o B’B”); occorre tuttavia tenere
144
presente che la mancanza di simmetria della posizione dell’oggetto rispetto al
fascio può provocare differenze nella lunghezza dei due tratti.
È possibile determinare analiticamente il valore della penombra geometrica Ug
mediante la relazione:
Ug = F ∗
d
D
nella quale:
•
F è la dimensione effettiva della sorgente,
•
d è la distanza oggetto-pellicola,
•
D è la distanza sorgente-oggetto.
Nel caso in cui la pellicola sia posta a contatto con
l’oggetto da radiografare e l’oggetto possieda uno
spessore
relativamente
piccolo
la
penombra
geometrica è trascurabile (come mostrato in figura) e
si può esprimere mediante la relazione:
Ug =
F
∗ (Δ 0 + Δ F )
D
dove ΔF è lo spessore della pellicola e Δ0 è lo spessore
dell’oggetto da radiografare.
Quando d diventa grande si osserva il fenomeno
dell’ingrandimento radiografico; oltre all’indubbio
vantaggio di una migliore osservazione del pezzo
radiografato, l’ingrandimento porta con se anche un
notevole aumento della penombra geometrica e
dunque la risoluzione dell’immagine finale aumenta
145
solo se si usa una sorgente di radiazioni davvero molto piccola. In questo caso è
possibile definire un fattore di ingrandimento Mg espresso da:
Mg =
D+d
D
Contrasto e Definizione
Il contrasto può essere definito come la differenza di densità che si registra nella
pellicola, in seguito all’esistenza di una variazione di spessore o di densità del
pezzo radiografato. Questo parametro risulta essere particolarmente critico ai
fini della bontà del controllo radiografico, infatti un difetto può essere
individuato nell’immagine radiografica proprio a causa del contrasto tra la
densità della sua immagine e la densità del materiale circostante. Più questa
differenza è rilevante più facile diventa rintracciare il difetto all’interno del
pezzo.
Mentre per “contrasto” si intende la differenza di densità tra due zone contigue
della radiografia, con il termine “definizione” radiografica si esprime la rapidità
con la quale avviene tale passaggio. Ottenere un’elevata definizione vuol dire,
in sostanza, poter distinguere in modo nitido i bordi del pezzo o i contorni di
eventuali discontinuità mentre, quando la definizione è scarsa, l’immagine
appare velata e poco leggibile.
La Sensibilità Radiografica
La sensibilità radiografica esprime convenzionalmente la minima differenza di
spessore del materiale in esame che è possibile rilevare sull’immagine finale,
valutata nella direzione del fascio primario. In sostanza, questo parametro ha
un diretto riscontro nella nitidezza con la quale la radiografia è capace di
evidenziare le discontinuità nel pezzo radiografato.
146
La valutazione pratica della sensibilità radiografica viene
effettuata
mediante
“penetrametri”
dell’Immagine”
o
(IQI),
l’impiego
“Indicatori
che
dei
della
cosiddetti
Qualità
commercialmente
sono
realizzati secondo tipologie differenti con materiali che
possono essere omogenei rispetto al pezzo da testare o
radiologicamente simili.
La tipologia più diffusa è quella degli IQI a fili, che sono costituiti da una serie
di sette fili (Fe-Al-Cu-Ti etc.) di diametro diverso, in funzione delle
caratteristiche del test da eseguire, pressati su un supporto di plastica (vedi
figura, diametri da 0.25 a 0.81 mm)
La sensibilità radiografica (percentuale) è calcolata
come rapporto tra il diametro del filo più sottile
visibile sulla radiografia e lo spessore del pezzo
radiografato. Questo tipo di penetrametro viene
posto generalmente a cavallo della zona di
interesse che deve essere radiografata. Un altro tipo di
penetrametro molto utilizzato è quello “a fori” che è
sostanzialmente realizzato da una piastrina di spessore
“T” (che rappresenta una certa percentuale dello
spessore del pezzo da radiografare) sulla quale si
eseguono tre fori di diametro T, 2T, 4T. In questo caso
la sensibilità si valuta sulla base del diametro del foro
che risulta più visibile sull’immagine radiografica.
Quando viene fatta una radiografia i penetrametri a
piastra forata sono generalmente posti sulla superficie
rivolta alla sorgente di radiazioni in prossimità della
147
regione che deve essere radiografata. Se ciò dovesse risultare difficoltoso (o
addirittura impossibile) i penetrametri possono essere posti sulla pellicola.
Se il profilo del penetrametro è visibile sulla radiografia e lo spessore del
penetrametro è, per esempio, il 2% dello spessore del provino, la sensibilità
radiografica è almeno del 2%. L’immagine dei fori o dei fili fornisce
un’indicazione sulla chiarezza con la quale un difetto sarà visibile sulla
radiografia e, in sostanza, il penetrametro può essere pensato come un difetto
artificiale di cui siano note a priori tutte le caratteristiche quantitative e
qualitative. La differenza nella densità della pellicola sviluppata data da un
piccolo cambiamento dello spessore in un provino omogeneo è dato da:
ΔD = 0.434 ∗ b ∗ μ ∗ ΔT
Dove
•
ΔD = variazione di densità,
•
b = gradiente della pellicola alla densità D,
•
μ = coefficiente di assorbimento lineare della radiazione
•
ΔT = variazione di spessore
Mentre la sensibilità radiografica è data dalla relazione:
ΔT 2.3 ∗ ΔD
=
T
b ∗ μ ∗T
Se ΔD è considerato come la più piccola variazione percettibile di densità (i
valori dati per ΔD si trovano per l’intervallo compreso tra 0.005 e 0.02) e si
assume il valore medio di 0.01, allora la sensibilità radiografica è espressa dalla
relazione
ΔT
0.023
=
T
b ∗ μ ∗T
148
che è, però, valida solo per una radiazione monocromatica.
Filtri e Schermi
Talvolta, tra la sorgente di radiazioni e l’oggetto da radiografare è interposto un
foglio metallico chiamato filtro, che assorbe la radiazione di lunghezza d’onda
maggiore
principalmente
responsabile
della
dispersione.
Con
questo
accorgimento il contrasto migliora e ciò permette di radiografare sulla stessa
pellicola forti variazioni di spessore. Per questo motivo quando devono essere
radiografati oggetti con forti variazioni di spessore è raccomandato l’utilizzo di
un filtro per ridurre la dispersione e la sovraesposizione. La presenza del filtro
fa aumentare il tempo di esposizione per compensare lo spessore del materiale
aggiunto che deve essere attraversato dai raggi X.
Il 99% dei raggi X che colpisce la pellicola fotografica non produce l’effetto
fotochimico nell’emulsione, ma l’attraversa inalterato. Per diminuire il tempo di
esposizione e migliorare la qualità della radiografia, si utilizzano degli schermi
intensificanti, anche detti schermi di rinforzo. Esistono diversi tipi di schermi:
1.
schermi di piombo,
2.
schermi di ossido di piombo,
3.
schermi di rame,
4.
schermi d’oro,
5.
schermi di tantalio,
6.
schermi fluorescenti.
L’azione intensificante degli schermi di piombo è dovuto in primo luogo
all’emissione di elettroni a partire dalla superficie di piombo quando essa è
colpita dai raggi X, ed in secondo luogo all’azione dei raggi X secondari
prodotti all’interno del piombo. Gli elettroni, a loro volta, provocano una
reazione fotochimica sulla pellicola, reazione di maggiore intensità rispetto a
149
quella prodotta dalla radiazione primaria. Gli schermi devono essere posti a
contatto diretto con la pellicola; in caso contrario gli elettroni emessi dallo
schermo generano sulla pellicola un’immagine sfocata. Inoltre gli schermi al
piombo assorbono la radiazione dispersa a bassa energia proveniente
dall’oggetto radiografato: si ottiene quindi nel complesso un’immagine più
nitida.
L’azione intensificante aumenta all’aumentare dell’energia della radiazione
primaria. Lo schermo anteriore riduce l’effetto fotochimico della radiazione,
mentre i fotoelettroni prodotti dallo schermo aumentano tale effetto. Il fattore di
intensificazione è definito come quel fattore di cui si riduce il tempo di
esposizione quando è usato uno schermo. Nelle seguenti figure sono riportati
degli esempi: Generalmente gli schermi al piombo sono usati in coppia e la
pellicola è posta tra i due schermi. Lo schermo posto più vicino alla sorgente di
radiazioni è abitualmente chiamato schermo anteriore, e l’altro è detto schermo
posteriore. Lo schermo anteriore ha un’azione intensificante maggiore rispetto
allo schermo posteriore in quanto gli elettroni emessi dal piombo tendono ad
andare nella direzione della radiazione primaria. D’altra parte poiché i raggi X
devono attraversare lo schermo anteriore prima di arrivare alla pellicola, questo
schermo agisce anche da filtro ed i raggi troppo tenui vengono assorbiti. Per
basse tensioni del tubo radiogeno (qualche kV) l’azione filtrante dello schermo
anteriore fa aumentare il tempo di esposizione. Lo schermo posteriore tende a
150
ridurre l’effetto della radiazione retrodiffusa, perché assorbe la radiazione
secondaria a bassa energia, questo è generalmente più spesso dello schermo
anteriore. Lo schermo anteriore tende invece a ridurre tutta la radiazione
dispersa proveniente dagli oggetti che la radiazione primaria attraversa prima
di giungere alla pellicola.
Il fattore di intensificazione è rappresentato in funzione dello spessore dello schermo, per 25 mm di acciaio e 25 kV. (A) schermo
doppio, (B) schermo posteriore, (C) schermo anteriore.
Lo schermo posteriore contribuisce in gran parte alla formazione della densità
radiografica per spessori di piombo normalmente usati. Gli schermi al piombo
non sono particolarmente efficaci per tensioni del tubo radiogeno inferiori a 140
kV; tuttavia lo schermo posteriore contribuisce a formare una densità
apprezzabile sulla pellicola e deve essere comunque utilizzato anche con 80 kV.
Il fattore di intensificazione degli schermi al piombo è influenzato dallo
spessore e dal tipo di materiale radiografato. Per spessori sottili di acciaio, per
esempio, il fattore di intensificazione dello schermo doppio è migliore del
fattore di intensificazione di ciascuno schermo preso separatamente. L’azione
intensificante degli schermi al piombo ha il suo massimo per spessori di acciaio
che vanno dai 12 ai 18 mm e per tensioni del tubo radiogeno da 140 a 250 kV.
151
Gli altri schermi metallici hanno un’azione intensificante simile a quella degli
schermi al piombo, cambiano solo gli spessori da utilizzare a seconda delle
esigenze.
Gli schermi fluorescenti sono generalmente in tungstato di calcio (CaWO4), ed
hanno un doppio vantaggio: riducono il tempo di esposizione e facilitano la
radiografia di spessori rilevanti con apparecchi a raggi X di media potenza.
Come nel caso degli schermi di piombo, la pellicola si trova spesso tra due
schermi, quello anteriore e quello posteriore. Quando il tungstato di calcio è
attraversato dai raggi X produce l’effetto fluorescenza, con una luce di colore
bianco bluastro. La luce emessa ha un’intensità che dipende dall’intensità della
radiazione incidente, ed una lunghezza d’onda cui l’emulsione della pellicola è
sensibile. Lo schermo è realizzato mescolando una polvere fine di tungstato di
calcio con un opportuno legante e depositandone uno strato sottile su un
supporto di cartone. Il fattore di intensificazione ottenuto utilizzando il
tungstato di calcio varia tra 10 e 100. La figura mostra l’effetto della tensione sul
fattore di intensificazione degli schermi fluorescenti.
Più la grana della polvere utilizzata è grossa, più la fluorescenza è intensa e più
la pellicola è veloce. I cristalli di tungstato di calcio più grossi danno però alla
pellicola un aspetto granuloso. Il fattore di intensificazione degli schermi al
152
tungstato di calcio è determinato dalla dimensione dei cristalli; più i cristalli
sono grossi, più la quantità di luce è grande e l’azione intensificante è
importante. La dimensione dei cristalli influenza la nitidezza dell’immagine.
Una radiografia realizzata utilizzando uno schermo fluorescente ha una
nitidezza peggiore rispetto ad una radiografia realizzata con schermi di
piombo. Questa scarsa nitidezza è dovuta alla dispersione della luce visibile
emessa dallo schermo. È necessario che tra lo schermo e la pellicola ci sia intimo
contato per non permettere alla luce di disperdersi e di produrre un’immagine
confusa. Per questo motivo gli schermi al tungstato di calcio sono utilizzati
raramente, fata eccezione per quei casi in cui è necessario ridurre notevolmente
il tempo di esposizione. È questo il caso di spessori di acciaio superiori a 40
mm, con 200 kV, o 80 mm, con 400 kV.
Si possono ottenere dei vantaggi combinando l’uso dei due tipi di schermi, si
usa come schermo anteriore quello al piombo e come posteriore quello al
tungstato di calcio. Questa tecnica riduce il tempo di esposizione senza
influenzare eccessivamente la nitidezza dell’immagine.
153
Appendice: Difettologia delle Saldature
DIFETTOLOGIA DELLE SALDATURE
La saldatura
Per saldatura si intende l’insieme dei processi attraverso i quali, sotto l’azione
di una sorgente termica e con o senza apporto di materiale, è possibile
effettuare l’unione di pezzi metallici in modo da realizzare una struttura
continua.
Usualmente le saldature si dividono in due grandi classi:
1. saldature autogene, nelle quali il metallo base prende parte, fondendo,
alla formazione del giunto. In questo caso il metallo d’apporto può essere
presente o meno a seconda del procedimento utilizzato ed è
metallurgicamente simile al metallo base.
2. saldature eterogenee, nelle quali il metallo base non prende parte alla
formazione del giunto, che viene invece costituito dal metallo d’apporto,
sempre presente, diverso dal metallo base e con temperatura di fusione
minore.
I procedimenti di saldatura più comuni sono quelli autogeni per fusione, e in
particolare i processi di saldatura ad arco. La saldatura ad arco è un
procedimento che sfrutta il calore di un arco elettrico (scarica di elettricità,
luminosa e persistente) fatto scoccare tra un elettrodo (metallo d’apporto) ed il
pezzo da saldare. L’ elevata temperatura dell’arco provoca la fusione del
metallo base e del metallo d’ apporto realizzando la continuità dei due lembi.
La parte del metallo base costituente il pezzo da saldare che viene interessata
dalla fusione prende il nome di zona termicamente alterata o zona di
transizione.
155
Difetti nelle saldature
Secondo UNI EN ISO 6520-1 si definisce imperfezione qualsiasi deviazione dalla
saldatura ideale e difetto un’imperfezione non accettabile. In particolare la
norma citata classifica le imperfezioni in 6 gruppi:
1) cricche
2) cavità
3) inclusioni solide
4) mancanza di fusione e di penetrazione
5) difetti di forma e dimensionali
6) altre imperfezioni
Di seguito saranno illustrati sinteticamente i tipi di difetti più comunemente
riscontrati nelle saldature e le cause che li originano.
Le cricche
Definizioni
La cricca può essere definita come una discontinuità originatasi per distacco inter o
transcristallino in un materiale metallico originariamente continuo e sano. È un difetto
che viene indicato come bidimensionale poiché solitamente si presenta più o
meno lungo e profondo con andamento frastagliato mentre i suoi lembi sono
piuttosto ravvicinati. Se le cricche hanno dimensioni molto ridotte (inferiori ad
1 mm), vengono definite microcricche.
Le cricche sono il difetto più grave e temibile di un giunto saldato. Infatti una
cricca, anche se di piccole dimensioni, rappresenta il segnale di una rottura in
atto con alto fattore di concentrazione delle tensioni (effetto di intaglio) alle sue
estremità. Una cricca può aumentare le sue dimensioni nel tempo a seconda
delle sollecitazioni di esercizio cui è sottoposta e delle dimensioni iniziali,
portando (al limite) al cedimento del giunto. Un’ulteriore classificazione delle
156
cricche può essere fatta a seconda che il distacco avvenga lungo i bordi dei
grani (intergranulari) o attraverso i
grani
mentre,
stessi
(transgranulari),
seconda
della
loro
posizione rispetto al giunto saldato,
si distinguono cricche in zona fusa
o cricche in zona termicamente
alterata.
Cricche in zona fusa: classificazione
Si
trovano
nella
zona
longitudinalmente,
fusa
del
giunto
e
possono
essere
orientate
trasversalmente oppure essere interdentritiche (queste
ultime sono quelle che seguono l’andamento dei grani dendritici della zona
fusa).
A seconda della loro origine si distinguono in:
•
Cricche a caldo
•
Cricche a freddo o da idrogeno
Le cricche a caldo hanno generalmente orientamento longitudinale e si formano
durante il raffreddamento del bagno di fusione quando la temperatura è poco al
di sotto della linea del solidus e, nel caso degli acciai, ancora al di sopra dei
900°C a seguito della presenza, tra i grani già solidificati, di fasi liquide che
solidificano per ultime. Negli acciai le cause principali sono: un elevato tenore
di impurezze (zolfo e fosforo) e/o di
carbonio contenute nel materiale base,
le tensioni di ritiro di saldatura e altre
cause occasionali come, per esempio,
la sporcizia presente sui lembi da
saldare. In altri metalli, per esempio
157
nelle leghe di alluminio, causa delle cricche a caldo possono essere anche
elementi di lega (Cu, Zn, Mg) in determinate percentuali che allargano
l’intervallo di solidificazione della lega.
In presenza di queste condizioni è quindi evidente che, a parità di materiale
base, il pericolo che insorgano cricche a caldo è direttamente proporzionale alla
quantità di esso portata a fusione. Sono pertanto da evitare quei procedimenti e
quei valori di parametri (per esempio un’intensità troppo elevata di corrente,
una troppo bassa velocità di saldatura) che danno luogo ad un elevato apporto
termico e quelli che danno luogo a bagni di fusione troppo voluminosi.
Uno tra i più frequenti casi di cricche a caldo è rappresentato dalle cosiddette
“cricche di cratere”, che sono situate nel cratere terminale di una passata di
saldatura e sono dovute alla concentrazione progressiva delle impurezze nella
parte del bagno che solidifica per ultima e alle condizioni di autovincolo molto
severe. Nelle radiografie esse appaiono sotto forma di macchie scure con
annerimento variabile e dalla forma irregolare.
Le cricche a freddo si formano negli acciai durante il raffreddamento del
cordone quando la temperatura scende al di sotto di 100÷150°C.
Le
cause
principali
della
loro
formazione sono: un alto tenore di
idrogeno in zona fusa, una durezza
relativamente elevata della zona fusa
stessa e la considerevole entità delle
tensioni di ritiro longitudinali che,
tra l’altro, ne generano il caratteristico prevalentemente trasversale. Per limitare
(o eliminare) la loro comparsa è utile limitare la quantità di idrogeno assorbita
dal bagno e applicare e mantenere un adeguato preriscaldo (che ha lo scopo di
158
diminuire la durezza della zona fusa e di consentire la diffusione dell’idrogeno
all’interno).
Poiché, come accennato, le tensioni di ritiro longitudinali sono in genere le più
elevate nella zona fusa, queste cricche sono più frequentemente trasversali; solo
più raramente si hanno in zona fusa cricche a freddo longitudinali.
Nella saldatura degli acciai dolci o ad alto limite elastico anche in assenza di
tempra, ma in presenza di idrogeno e azoto, tali cricche si presentano di
dimensioni molto piccole (talvolta vengono anche definite microcricche da
idrogeno) e spesso si raggruppano in un certo numero nella stessa sezione
(trasversale o longitudinale) del giunto.
Nella saldatura degli acciai con elevate caratteristiche meccaniche (come i
bonificati), per i quali si utilizzano materiali di apporto più tempranti, le cricche
a freddo in zona fusa sono più grandi e possono tagliare completamente il
cordone
di
saldatura
in
direzione
trasversale
ripetendosi
quasi
sistematicamente a certe distanze, quando la lunghezza del cordone accumula
sufficiente energia di ritiro longitudinale. Nella saldatura a più passate non è
infrequente riscontrare la presenza di cricche a freddo nelle passate sottostanti,
anche se in realtà, però, esse sono da riferirsi alle zona termicamente alterate
dalle passate successive.
Cricche in zona termicamente alterata: classificazione
Sono cricche che si trovano nella zona termicamente alterata di un giunto
saldato, che è costituita dal materiale di base o, talvolta, dalle passate depositate
precedentemente, o che comunque si sono originate da essa.
Hanno generalmente direzione longitudinale e possono essere interne (cricche
sotto il cordone) o affioranti a lato del cordone. A seconda della loro origine
quelle più comuni si possono classificare in:
•
Cricche a freddo;
159
•
Strappi lamellari;
•
Cricche a caldo;
•
Cricche da trattamento termico.
Le cricche a freddo si formano negli acciai quando durante il raffreddamento di
un giunto saldato la temperatura scende al di sotto di circa 100÷150°C. Il
fenomeno è sopratutto legato alla presenza di idrogeno nel bagno (proveniente
dai materiali d’apporto o dai lembi; per esempio umidità contenuta nel
rivestimento degli elettrodi o lembi
umidi,
rugginosi
e
sporchi),
unitamente ad una concomitante
fragilità della zona termicamente
alterata
(per
la
formazione
di
strutture di tempra) e a tensioni
interne
di
autovincolo
(sempre
esistenti). A seconda del tipo di materiale di apporto, se questo è meno
temprante del materiale base le cricche si troveranno solo nella zona
termicamente alterata del materiale base; se, invece, il materiale base è meno
temprante del materiale d’apporto esse si formeranno nella zona fusa globale
del cordone, cioè nella zona termicamente alterata costituita dalle passate
precedenti.
Le cricche a freddo possono avere sia dimensioni ridottissime sia molto
rilevanti, con lunghezze che possono arrivare a centinaia di millimetri;
l’andamento microscopico è generalmente trasgranulare.
Per quanto riguarda l’origine e prevenzione valgono all’incirca le stesse
considerazioni svolte a proposito delle cricche a freddo in zona fusa.
160
Gli Strappi lamellari possono essere assimilati a cricche che si formano solo nella
zona termicamente alterata del materiale base e sono tipici dei giunti molto
vincolati (giunti a T) la cui forma è
tale che la lamiera è sollecitata a
trazione normalmente rispetto alla
sua superficie (cioè nel senso dello
spessore della lamiera o traverso
corto).
Questi difetti sono dovuti al fatto
che i materiali laminati sollecitati in
questo modo possono presentare bassa resistenza e duttilità, motivo per cui
possono rompersi proprio sotto la zona termicamente alterata.
Il fenomeno degli strappi lamellari è influenzato dalle seguenti condizioni:
•
Dimensioni del cordone (quanto più grosso è il cordone tanto più forti sono
le tensioni di ritiro che agiscono nel senso dello spessore della lamiera).
•
Tipo di penetrazione (sono più pericolosi da questo punto di vista i giunti a
piena penetrazione che quelli con cordone ad angolo perché nei primi le
tensioni di ritiro sono proprio perpendicolari alla lamiera)
•
Spessore e qualità del laminato Gli strappi sono dovuti a una debolezza
“intrinseca” del laminato causata soprattutto dalla presenza di
inclusioni, specialmente silicati e solfuri; in particolare queste ultime
essendo “plastiche” alla temperatura di laminazione a caldo vengono
“allungate” da quest’ultima riducendo quindi la coesione in senso
trasversale allo spessore. Poiché tale fenomeno è tanto più marcato
quanto maggiore è lo spessore, il rimedio più efficace è una particolare
elaborazione dell’acciaio (che riduca drasticamente il contenuto
inclusionale) e l’aggiunta eventuale di elementi, quali per esempio il
161
calcio, oppure del cerio o altre terre rare, che legandosi allo zolfo
rendono le inclusioni di solfuri più dure e non “allungabili” durante la
laminazione.
•
Tipo di procedimento e parametri di saldatura. Quando si teme che si
verifichino strappi lamellari, è utile procedere a imburratura 1 preventiva
della superficie del pezzo da saldare sollecitato trasversalmente o almeno
usare, nella saldatura a passate multiple, una sequenza di passate
particolare atta a depositare uno strato di cordoni sull’elemento
sollecitato trasversalmente. È raccomandato inoltre, quando possibile,
l’uso di materiali d’apporto a bassa resistenza e alta duttilità e di saldare
contemporaneamente dalle due parti del T per distribuire i ritiri.
Le cricche a caldo (o a liquazione) sono dovute al passaggio allo stato liquido di
composti a basso punto di fusione che si trovano al contorno del grano
cristallino nella zona termicamente alterata del giunto, immediatamente vicino
alla zona fusa, e all’azione delle tensioni di ritiro trasversali, che tendono a
staccare i grani; esse hanno, pertanto, carattere intergranulare e sono
generalmente molto piccole.
L’unica procedura possibile per limitarne la comparsa è quella di saldare con
basso apporto termico in modo da limitare l’ampiezza della zona termicamente
alterata e fare attraversare il campo di temperature critico assai rapidamente. Le
cricche a caldo sono abbastanza rare e tipiche di taluni materiali come i getti a
più alto tenore di carbonio, certi acciai inossidabili stabilizzati e alcuni acciai
bonificati o al nichel.
Cricche da trattamento termico: sono cricche che si producono durante il
trattamento termico di rinvenimento-distensione di una costruzione saldata a
seguito delle tensioni termiche, dovute ai gradienti di temperatura che si
1
L'imburratura è una forma particolare di riporto per saldatura con cui si deposita dapprima uno strato
cuscinetto avente caratteristiche chimico-fisiche intermedie tra quelle del materiale base e del deposito
finale.
162
possono avere in fase di riscaldamento, e delle deformazioni plastiche “di
distensione locale” che avvengono in zone in cui la struttura metallurgica è
ancora fragile e non rinvenuta.
Mentre generalmente gli acciai dolci, quelli al CrMn o quelli al Nb, soffrono
poco di tale inconveniente, certi acciai contenenti Cr e/o Mo e/o V ne sono
particolarmente suscettibili.
Le cricche da trattamento termico si formano più facilmente in zone nelle quali
vi sono concentrazioni di tensioni come per esempio: in corrispondenza di
difetti di saldatura; in corrispondenza di incroci di cordoni; in corrispondenza
di discontinuità strutturali; in corrispondenza di disomogeneità metallurgiche (
per esempio zona termicamente alterata in acciai ferritici sotto a riporti di acciai
austenitici).
Le cricche da trattamento termico corrono generalmente lungo i bordi dei grani
dell’austenite originaria nella quale, in origine, si era avuta precipitazione di
carburi (Cr, Mo o V) e arricchimento di impurezze.
Quando si teme tale fenomeno, particolare cura va posta nella scelta dell’acciaio
e nei requisiti di purezza dello stesso e particolari precauzioni vanno adottate
nell’effettuazione del trattamento termico.
Mancanza di penetrazione o di fusione
In questo caso si tratta di discontinuità esistenti tra i due lembi del cianfrino
(mancanza di penetrazione) o tra un lembo e la zona fusa (mancanza di fusione)
provocate dalla mancata fusione di entrambi o di uno solo dei lembi.
Nella radiografia questo difetto si presenta come una linea nera continua o
discontinua che si trova sul fondo e corre parallelamente alla saldatura.
163
Questo tipo di difettosità (grave e quasi sempre incettabile) può essere
riscontrato nella zona della prima passata, al vertice o al cuore della saldatura, a
seconda del tipo di preparazione: a V,
a X ecc. o in corrispondenza di
passate
successive.
La
causa
principale della loro comparsa è da
ricercarsi
nella
non
corretta
preparazione dei lembi (angolo di
apertura del cianfrino troppo piccolo, spalla eccessiva, distanza tra i lembi
insufficiente, slivellamento), talvolta nella mancanza di opportuna puntatura o
di cavallotti distanziatori che evitino che i lembi si chiudano, a mano a mano
che la saldatura procede, per effetto del ritiro trasversale, o nella scarsa abilità
del saldatore.
Nel caso di giunti che possono essere ripresi dal lato opposto (come accade per
esempio nel caso delle lamiere) il difetto può essere eliminato con un’accurata
solcatura al rovescio effettuata prima dell’esecuzione della passata di ripresa. È
da notare, peraltro, che se la presenza
di questo difetto si osserva al cuore
della saldatura, significa non solo che
la preparazione dei lembi non è stata
corretta ma anche che la solcatura e la ripresa non sono state eseguite con
sufficiente cura.
Dal punto di vista della localizzazione, i fenomeni di ritiro trasversale, che
esercitano un azione compressiva, possono portare a stretto contatto i lembi non
fusi di una mancata penetrazione al cuore (specialmente se i lembi sono stati
preparati mediante lavorazione meccanica); tale contatto intimo può creare
grosse difficoltà qualora si intenda rivelare successivamente il difetto con
164
tecniche NDT quali radiografia, magnetoscopia e ultrasuoni. Si tratta, pertanto,
di un difetto molto subdolo la cui comparsa deve essere evitata soprattutto con
controlli preventivi (in fase di preparazione) o durante l’esecuzione della
solcatura.
Oltre alla mancata penetrazione si può presentare il difetto di penetrazione
eccessiva; tale problema si manifesta nel controllo radiografico sotto forma di
una linea chiara, piuttosto spessa, che corre lungo la saldatura, spesso
accompagnata da eventuali macchie ancora più chiare di forma arrotondata.
Le incollature si presentano di caratteristiche simili alle mancanze di fusione,
ma tra il lembo e la zona fusa si trova interposto uno strato di ossido, per cui in
quella zona la saldatura diventa una brasatura all’ossido del materiale che si
salda.
Questo
difetto
è
tipico
dell’acciaio, qualora si proceda a
saldatura
ossiacetilenica
(cioè
ad
apporto termico poco concentrato) e
MAG ad immersione (quindi con
basso apporto), ma si presenta anche
nei materiali facilmente ossidabili come, ad esempio, le leghe di alluminio. Un
giunto nel quale siano presenti incollature possiede caratteristiche meccaniche
scadenti. Anche questo difetto è molto subdolo e, particolarmente negli acciai,
poco rilevabile ai controlli non distruttivi, per cui deve essere evitato
soprattutto con i controlli preventivi.
Le inclusioni (solide o gassose) sono difetti situati in zona fusa, dovuti alla
presenza di sostanze diverse dal metallo del cordone di saldatura, che rsultano
inglobate nel cordone stesso.
165
Le inclusioni solide si classificano, a
seconda
del
materiale
che
le
costituisce, in inclusioni di scorie e
inclusioni di tungsteno.
Le prime sono cavità in zona fusa
contenenti solo scoria o scoria e gas.
Le inclusioni di scoria sono definite allungate quando la loro lunghezza è più di
tre volte la
larghezza e in radiografia si presentano come macchie nere,
irregolari, di forme diverse. Si tratta di uno dei difetti più comuni nei cordoni
realizzati con elettrodi rivestiti e ad arco sommerso, quando l’esecuzione del
giunto sia stata effettuata con passate multiple ed è causato principalmente
dall’asportazione poco accurata di scorie ad alto punto di fusione di una
passata prima dell’esecuzione della passata successiva; tuttavia le inclusioni
possono essere anche dovute ad un uso scorretto dell’elettrodo rivestito, ad un
non preciso posizionamento della testa saldatrice oppure ad una non corretta
scelta dei parametri della preparazione (es. angolo di apertura del cianfrino
troppo stretto).
Le inclusioni di tungsteno, che appaiono, in radiografia come macchie bianche di
forma e dimensioni irregolari sono originate dalla presenza di minute schegge
di tungsteno sia isolate che raggruppate (spruzzi). È un tipico difetto del
procedimento TIG imputabile alle seguenti cause:
•
maneggio scorretto della torcia
•
insufficiente protezione gassosa dell’elettrodo
•
scarsa qualità dell’elettrodo
•
intensità di corrente troppo elevata
166
Gli spruzzi sono di forma generalmente molto irregolare e frastagliata e ai loro
vertici si possono piccole cricche, fatto che ne aumenta decisamente la
pericolosità in termini di possibili cedimenti della saldatura
Le inclusioni gassose sono cavità provocate da gas intrappolati nel bagno che si è
solidificato troppo rapidamente; esse si presentano tipicamente di forma
tondeggiante e assumono la denominazione di pori o soffiature a seconda che la
loro dimensione sia inferiore o superiore ad 1 mm. In radiografia, questa
tipologia di difetti appare in veste di
macchie nere arrotondate localizzate
all’interno del cordone.
Le inclusioni gassose possono essere
provocate dalla presenza, sui lembi
da unire, di ruggine, vernice o
sporcizia in genere. Altre cause sono
un eccessivo tasso di umidità nel rivestimento degli elettrodi o nei flussi (arco
sommerso) oppure nei gas impiegati (saldatura ossiacetilenica e saldatura
elettrica sotto protezione di gas). Anche l’uso di procedimenti ad elevata
velocità di deposito o di saldatura (per esempio saldatura laser o a fascio
elettronico) e un non corretto maneggio della torcia o della pinza (protezione
gassosa difettosa o scarsa, nel caso dei procedimenti sotto gas sono causa di
inclusioni gassose.
Contrariamente a quanto ritenuto dalla maggior parte degli operatori di
saldatura, questi difetti non sono molto pericolosi per la resistenza del giunto;
in particolare una porosità diffusa nella saldatura MIG di leghe leggere è
praticamente inevitabile e accettabile, mentre tali difetti diventano inaccettabili
solo quando sono di grandi dimensioni o numerosi (nidi di porosità o di
167
soffiature) o quando, come nel caso della porosità diffusa, sono di entità tale da
mascherare l’eventuale presenza di altri difetti più gravi.
Le inclusioni gassose di forma allungata (lunghezza superiore a più di tre volte
il loro diametro) vengono dette tarli, e quelle con una coda particolarmente
lunga, che può terminare con piccole cricche o incollature, sono da considerarsi
più pericolose per la sicurezza del giunto. I tarli possono, inoltre, presentarsi
raggruppati (nidi di tarli) nelle zone in cui, per errore di maneggio, l’arco con
elettrodi basici o cellulosici, è stato troppo allungato. Nella radiografia i tarli
appaiono come delle macchie più scure allungate.
Un caso particolare è quello delle inclusioni allungate dette bastoni da golf nei
procedimenti ad elettroscoria o elettrogas dovute a presenza di sfogliature
affioranti o meno nei lembi da saldare.
Difetti esterni o di profilo
Eccesso di sovrametallo
È un difetto che si riscontra nei giunti di testa dovuto, in genere, a scorretta
procedura
da
parte
dell’operatore
che
non
ha
saputo
distribuire
opportunamente il numero delle passate (caso della saldatura manuale) oppure
qualora
non
si
siano
seguite
scrupolosamente le specifiche di
saldatura. Talvolta questo difetto
può essere dovuto a non corretta scelta della preparazione del giunto, in
particolare nella saldatura ad arco sommerso: ad esempio, nella saldatura a
lembi retti su un certo spessore, se per ottenere una sufficiente penetrazione si
innalza la corrente, cresce parallelamente il consumo del filo e ciò origina una
maggiore quantità di metallo d’apporto con conseguente sovrametallo. In tali
168
casi occorre cambiare la preparazione del giunto affinché questo sia adatto a
poter accogliere il maggiore apporto.
È luogo comune ritenere, erroneamente, che l’eccesso di sovrametallo non sia
un difetto ma che, anzi, a causa del maggiore spessore della saldatura il giunto
offra una resistenza più elevata. Ciò è assolutamente falso: infatti ai margini del
sovrametallo si crea sempre, per effetto della forma, una concentrazione di
tensioni (effetto di intaglio) che sotto certe condizioni di servizio come fatica,
urti o bassa temperatura, può ridurre la capacità di resistenza dal giunto.
Cordone d’angolo troppo convesso
Questo difetto è caratteristico dei
giunti d’angolo ed è dovuto ad un
uso improprio dell’elettrodo da parte
del saldatore o a parametri non
corretti
(per
esempio
tensione
insufficiente) nella saldatura automatica.
Incisioni marginali
Le incisioni marginali sono, sostanzialmente, una sorta di solcatura a margine
del
cordone
nell’immagine
che
si
presenta,
radiografica,
sotto
forma di piccole linee nere, talvolta
sui due lati, continue o a tratti.
Questo tipo di difetto si presenta spesso nei cordoni eseguiti manualmente sia
in giunti di testa sia in cordoni d’angolo, più frequentemente in posizione
diversa da quella piana.
169
Le incisioni marginali sono essenzialmente causate dall’impiego di corrente
eccessiva, associata ad un impiego non corretto della torcia.
Irregolarità superficiale
È un difetto che conferisce un cattivo aspetto estetico al cordone le cui maglie,
anziché essere disposte parallelamente una di seguito all’altra, seguono un
andamento irregolare, con variazione di profilo del cordone, avvallamenti
denuncianti i punti di ripresa ecc. La causa di tale difetto è da imputarsi ad una
scarsa abilità da parte del saldatore.
Nella saldatura automatica si può
riscontrare
uno
scadente
aspetto
superficiale a seguito dell’adozione
di
parametri
di
saldatura
non
appropriati quali, ad esempio, velocità eccessiva (maglia a spina di pesce
troppo accentuata) o velocità troppo bassa (eccesso di sovrametallo accoppiato
a traboccamenti laterali che costituiscono incollature tra sovrametallo e metallo
base.
Slivellamento dei lembi
È un difetto dovuto ad un imperfetto
assemblaggio del giunto che ostacola
la
possibilità
di
eseguire
una
saldatura regolare. Nel migliore dei
casi si riscontra una brusca variazione del profilo, ma in certe situazioni lo
slivellamento è tale da provocare una mancanza di fusione del lembo
sottoposto.
170
Spruzzi
Sono depositi più o meno grandi e dispersi, frequentemente incollati sulla
superficie del metallo base vicino al cordone, tipici della saldatura manuale a
elettrodi rivestiti (basico e cellulosico) e del procedimento MAG (CO2). Gli
spruzzi di saldatura appaiono nell’immagine radiografica sotto forma di piccole
macchie bianche sia sul cordone di saldatura sia nel materiale base.
Questo tipo di difetto è pericoloso, soprattutto per i giunti che operano in
ambienti chimicamente aggressivi, poiché rappresentano un facile innesco per
l’attacco corrosivo. Inoltre, su acciai ad elevata resistenza, in corrispondenza
degli spruzzi possono avere luogo pericolosi fenomeni di tempra localizzati,
eventualmente accompagnati dalla formazione di piccole cricche.
Colpi d’arco
Consistono in una fusione localizzata del materiale base che è avvenuta senza
deposito di materiale d’apporto. Si tratta di difetti tipici dei procedimenti
manuali ad arco e sono provocati dalla scarsa cura del saldatore che innesca
l’arco sul materiale base e non, come è regola, su un lembo del cianfrino.
Tali fusioni localizzate possono essere particolarmente pericolose su materiali
base temprati, specialmente se sono accompagnate dalla presenza di piccole
cricche.
171