47
3. Capítulo 3: Desarrollo Experimental
Introducción En este capítulo se detallan los procesos involucrados en la predicción de las
características estructurales del material, la implementación del diseño experimental, la
técnica utilizada en la preparación de la muestra de STMO, es decir la técnica de
reacción en estado sólido; adicionalmente se describen las técnicas utilizadas en la
caracterización del material: Difracción de rayos X (DRX), Refinamiento Rietveld,
Microscopía electrónica de Barrido (MEB), Espectroscopia de Dispersión de Rayos X
(EDX), Pruebas de histéresis eléctrica ó polarización eléctrica (PE) y pruebas de
susceptibilidad magnética (SM). La figura 3-1, muestra en 4 pasos el diagrama de flujo
del desarrollo experimental realizado.
48
Figura 3-1: Diagrama de flujo correspondiente al desarrollo experimental.
3.1 SPuDS: Predicción de la estructura cristalina Como se mencionó en el capítulo II, la estabilidad estructural en perovskitas constituye
un indicador de la estabilidad química del compuesto. A través del programa SPuDS
“Structure Prediction Diagnostic Software” se realizó el cálculo del factor de tolerancia
con el fin de predecir la estabilidad estructural y parámetros estructurales como las
posiciones atómicas y los parámetros de red. La justificación del uso de este software se
basa en la importancia del concepto de las distorsiones octaédricas que ocurren en este
tipo de compuestos, de hecho, la prevalencia de estructuras tipo perovskita puede ser
directamente atribuida a la habilidad inherente de la red octaédrica de generar
inclinaciones de los octaedros en respuesta a la diferencia de tamaños entre los cationes
que forman el compuesto, influyendo de manera sensible en las propiedades físicas y
químicas [72, 73]. Asentados en el concepto anterior, a través de SPuDS, se puede:
- Predecir estructuras a partir de composiciones hipotéticas para materiales cuyos
datos cristalográficos no están disponibles.
- Puede ser usado como guía exploratoria para ahorrar tiempo y energía en la
síntesis de compuestos, particularmente en el caso de perovskitas con un número
elevado de cationes.
Caracterización
Síntesis del compuesto
Diseño Experimental
Predicción de la estabilidad química
Cálculo del factor de
tolerancia
Metodología Vertex
Reacción de estado sólido
DRX, Refinamieto
RietveldMEB, EDS PE, SM
49
- Predecir estructuras que sirvan de punto de partida para realizar refinamientos
Rietveld, con el objetivo de hacer la caracterización de nuevos materiales.
- Las estructuras generadas en SPuDS pueden ser comparadas con estructuras
experimentalmente reportadas con el fin de analizar si los parámetros
cristalográficos son aproximadamente similares.
3.1.1 SPuDS: Procedimiento de cálculo
El cálculo de todos los parámetros estructurales requiere de la determinación de las
dimensiones de la celda y de todos los parámetros posicionales del compuesto. Con el
fin de simplificar el cálculo, SPuDS restringe el octaedro considerándolo rígido, esto
significa, que en el octaedro BX6 las distancia de enlace entre B-X al igual que los
ángulos de enlace formados entre X-B-X se consideran equivalentes; esta es una
aproximación razonable debido a que en la gran mayoría de perovskitas distorsionadas el
octaedro BX6 muestra poca distorsión. Una vez hecha la restricción, la estructura
cristalina puede ser generada a partir de dos variables: el tamaño del octaedro y la
magnitud de la inclinación del mismo. Por lo tanto SPuDS calcula la posición en el
espacio de cada átomo para un rango de valores de ángulos de inclinación, en este
punto el programa hace una optimización que permite la determinación de un ángulo de
inclinación óptimo; el anterior cálculo se realiza utilizando el modelo de enlace de valencia [74]. El enlace de valencia 𝑆𝑖𝑗, asociado con cada interacción cation-anión es
calculado usando la ecuación 24 [73], donde 𝑑𝑖𝑗 es la distancia catión-anión:
𝑆𝑖𝑗 = 𝑒��𝑅𝑖𝑗−𝑑𝑖𝑗�/𝐵� . Ec. 25
El parámetro 𝐵 se toma generalmente como una constante universal con valor de 0.37.
𝑅𝑖𝑗 es determinado empíricamente para cada par catión-anión basado en una lista de
distancias de enlace [75]. También se calculan las valencias atómicas para los cationes
sumando los enlaces de valencia individuales, ecuación 25 [73]:
𝑉𝑖(𝑐𝑎𝑙𝑐) = ∑ 𝑆𝑖𝑗𝑗 . Ec. 26
La distancia B-X, que determina el tamaño del octaedro, es calculado a partir de la suma
de los enlaces de valencia de los cationes del octaedro. El ángulo de enlace X-B-X para
el octaedro BX6 permanece ideal (90°). Por lo tanto la estructura optimizada es aquella
50
donde la diferencia entre los cálculos de enlace de valencia y el valor calculado a partir
de los estados de oxidación (valencia formal) es mínima. Este valor es denominado
término o factor de discrepancia y es una medida de las tensiones de la red y se calcula
con ayuda de la ecuación 26 [73].
𝑑𝑖 = 𝑉𝑖(𝑜𝑥) − 𝑉𝑖(𝑐𝑎𝑙𝑐), Ec.27
donde 𝑉𝑖(𝑜𝑥) es la valencia formal y 𝑉𝑖(𝑐𝑎𝑙𝑐) es la suma de enlace de valencia calculada
para el 𝑖 − é𝑠𝑖𝑚𝑜 ion. El indicador de estabilidad global para la estructura ó índice global
de inestabilidad (𝐺𝐼𝐼) es calculado a partir del factor de discrepancia, ecuación 27 [73].
𝐺𝐼𝐼 = ��∑ �𝑑𝑖2�𝑁𝑖=1 �/𝑁�
1/2, Ec. 28
𝑁 es el número de átomos en la unidad asimétrica. Durante el proceso de optimización el
ángulo de inclinación y las distancias individuales A-X y B-X son incrementados paso a paso, con lo que 𝑑𝑖 y 𝐺𝐼𝐼 son calculados en cada paso, repitiendo el proceso hasta
minimizar el valor de 𝐺𝐼𝐼. Los valores típicos para 𝐺𝐼𝐼 son menores a o.1 v.u. (unidades
de valencia) y para estructuras no estables mayores de 0.2 v.u [76].
3.1.2 SPuDS: Factor de Tolerancia
Alternativamente, se puede usar el modelo de enlace de valencia para calcular las
distancias ideales entre los iones A-X y B-X asumiendo que existen 12 distancias
equidistantes entre los enlaces A-X y 6 distancias equidistantes entre B-X. Las distancias
de enlace A-X y B-X, son entonces sustituidas en el lugar de los radios atómicos de las
ecuaciones 1 y 2 del capítulo II con el fin de calcular los enlaces de valencia a partir del
factor de tolerancia. Por lo tanto SPUDS usa el radio atómico y los parámetros de enlace
de valencia para calcular el factor de tolerancia (siempre que sea posible). El uso de los
parámetros de valencia no requiere asumir coordinaciones de los átomos, únicamente es
necesario el estado de oxidación y el número de coordinación. El factor de tolerancia
calculado a partir de los cálculos de enlace de valencia es generalmente menor que el
valor del factor de tolerancia calculado a partir de los radios iónicos, sin embargo esta
diferencia no es significativa.
La figura 3-2, muestra el entorno gráfico del programa, el procedimiento utilizado fue
escoger el tipo de estructura semejante a la perovskita Sr2TiMoO6 el cual corresponde
51
con el ordenamiento A2MM’O6, se hace el ingreso de los átomos con el respectivo estado
de oxidación, es decir Sr2+, Ti4+, Mo4+ y O2-, finalmente el programa realiza el algoritmo y
arroja los resultados que se mostrarán en el siguiente capítulo.
Figura 3-2: Entorno gráfico de SPuDS.
3.2 Diseño de Experimentos
3.2.1 Conceptos Preliminares
Dentro de todo programa de investigación el desarrollo de una estructura razonable,
permite que el estudio de una situación funcione de la manera adecuada y se obtenga la
mejor información posible de los diferentes análisis realizados. Una correcta planeación
permite verificar los objetivos específicos, identificar factores influyentes, procedimientos
ó pruebas en particular, un número de repeticiones básicas y los recursos y materiales
disponibles. Con el objetivo de comunicar de manera correcta y eficaz los resultados
obtenidos, es necesario manejar un lenguaje común y con un mismo significado. Es por
esto que dentro de la experimentación es necesario establecer un conjunto de
parámetros cobijados bajo un protocolo fundamental con tal de evaluar y probar las
hipótesis presentadas. Dentro de este contexto es importante precisar conceptos
asociados a tratamientos, unidades experimentales y error experimental.
52
Los tratamientos hacen referencia al conjunto de circunstancias creadas para el
experimento en virtud a la hipótesis de investigación. La unidad experimental es la unidad
física expuesta al tratamiento; cuando la unidad es expuesta a un tratamiento constituye
una réplica. Finalmente el error experimental describe la variación entre las unidades
experimentales, que puede ser producto de la variabilidad natural, de la imposibilidad de
reproducir las condiciones del tratamiento, de la variabilidad en la medición, en la
interacción de los tratamientos con las unidades experimentales o cualquier otro factor
interno que influya en la medida [77].
3.2.1 Método Simplex Dentro de este proyecto se busca la exploración alrededor del tipo de estructura cristalina
de la muestra Sr2TiMoO6. El método Simplex permite llegar a la respuesta óptima o
deseada con el menor número de ensayos y poder analizar los resultados al mismo
tiempo. La metodología simplex permite crear un camino por el cual se evalúa el
comportamiento de una respuesta en función de sus variables, estas variables son las
que se pueden denominar de igual forma “factores”. Esto genera lo que se denomina una
superficie de respuesta (figura 3-3 [78].), que se relaciona con la forma de los resultados
en función de variables y donde se puede observar la presencia de máximos y mínimos
globales. La optimización simplex busca dirigirse a estos máximos o mínimos a través de
un camino por medio de la evaluación del comportamiento de las variables. La respuesta
generada puede encontrarse en un rango, por ejemplo entre 0 y 100, donde 100
representa el máximo.
Figura 3-3: Superficie de respuesta para dos variables [78].
53
Un simplex es una figura geométrica de un número de esquinas (vertex) iguales al
número de variables o de dimensiones más uno. Para 2 variables el simplex consta de 2
variables + 1 vertex, es decir 3 vertex, cada vertex es un ensayo. El proceso hace
indispensable la identificación de variables, el tamaño de cada uno de los lados del
simplex que se traduce en el aumento que se realiza sobre cada variable para crear un
nuevo punto y definir la respuesta. Con la evaluación del primer vertex se elimina la peor
respuesta y se crea un nuevo vertex en dirección opuesta al punto eliminado, creando un
nuevo simplex y eliminando la peor respuesta, figura 3-4 [79].
El procedimiento sigue hasta llegar a un lugar donde el simplex gira en torno a un punto,
indicando que se está en la zona buscada. Para verificar la validez de la zona, ya que
pueden existir varios máximos, mínimos o puntos óptimos se procede a iniciar otro
simplex desde un punto diferente al punto inicial para confirmar la zona encontrada,
figura 3-5 [80].
Figura 3-4: Metodología simplex para dos variables [79].
Figura 3-5: Uso de tres procesos de simplex para identificar el punto óptimo en un problema de 2 variables [80].
54
Dentro de la hipótesis de investigación se plantea la obtención de una estructura
cristalina tipo perovskita doble, con parámetros estructurales similares a los encontrados
a partir de SPuDS; por lo que el máximo de respuesta es la obtención de un material con
una estructura cristalina similar a la simulada, obtenida bajo en función de las variables
que son tiempos y temperaturas de sinterización. Como variables fijas se toman la
cantidad utilizada de cada óxido precursor, las velocidades de calentamiento y
enfriamiento, la estequiometría, la presión del sistema y el tipo de atmósfera en la cual se
trabaja. Basados en la parte experimental mostrada por las referencias que hacen parte
de los antecedentes y en la experiencia del grupo en el uso de las reacciones de estado
sólido para la obtención de perovskitas, se implementó la metodología vertex para las
variables tiempo de calcinación y temperatura de calcinación. La figura 3-6 muestra el
diagrama del punto de partida del proceso vertex implementado.
Figura 3-6: Punto de partida para la metodología Simplex ejecutada en 2 variables.
El desarrollo experimental da inicio con la calcinación de tres pastillas, cuya preparación
se detalla más adelante; seguidamente se establece el primer ensayo o vertex número 1,
el cual se fijó en temperaturas de 700°C y tiempos de calcinación de 12 y 18 horas y un
punto en 800 °C y un tiempo de 15 horas. En este caso la respuesta que corresponde al
patrón de difracción de rayos X, se comparó con los parámetros arrojados por SPuDS y
cuyo difractograma es emulado en el programa [81], descrito a continuación. La
comparación y descarte de puntos del vertex se puede realizar de manera cualitativa.
55
3.3 PCW: Powder Cell For Windows El programa Powder Cell está pensado para hacer la simulación del difractograma que se
obtendría en un experimento de difracción de un material cristalino. Simultáneamente se
realiza la visualización de la estructura cristalina del material. También se pueden
cambiar algunos de los parámetros que describen la estructura cristalina (parámetros de
celda elemental o parámetros de red, grupo espacial, posiciones o coordenadas
atómicas) y estudiar cómo se modifica el difractograma correspondiente. La figura 3-7
muestra la interfase de ingreso de de datos cristalográficos al programa. Finalmente un
archivo es exportado para compararlo en el programa X´Pert Highscore Plus versión
2.1.2 elaborado por PANalytical B.V.
Figura 3-7: Interfase para la entrada de datos cristalográficos en PCW.
3.4 Método de reacción de estado sólido ó método cerámico tradicional
La reacción usando el método en estado sólido ó también llamada sinterización en fase
sólida se refiere al caso donde no están involucradas fases líquidas en el proceso de
síntesis. En este sentido, si el proceso se quiere describir en una palabra, se puede
asociar con sinterización. Por lo tanto, cuando se aplica energía térmica a un polvo o
mezcla de polvos compactados, ocurren básicamente 2 fenómenos asociados los cuales
son densificación y crecimiento de grano. De hecho la sinterización es una de los
procesos tecnológicos más antiguos, originado en la era prehistórica de donde se
desarrolló la cerámica. Sin embargo, sólo en 1940 el proceso fue estudiado
científicamente, varios avances y logros se han logrado gracias a su implementación,
56
como por ejemplo, el desarrollo del tratamiento de polvos en metalurgia y componentes
cerámicos. La figura 3-8 [82] muestra el diagrama general de fabricación de partes
sinterizadas. Aunque otras tecnologías de procesamiento involucran varios pasos y se
deben considerar otro tipo de variables, uno de los conceptos de mayor trascendencia es
que dependiendo de las técnicas de conformado y procesamiento usadas y no sólo de
los procesos de sinterizado del material, tendrán una importante influencia sobre las
propiedades deseadas, noción que tiene gran importancia dentro de la industria.
Figura 3-8: Esquema de fabricación general de partes sinterizadas [82].
ó
3.4.1 Fuerza conductora de la reacción y fenómenos básicos
En términos sencillos la fuerza conductora de la reacción es la reducción de la energía total de las interfases. En un polvo compacto esta energía se puede expresar cómo 𝛾𝐴,
donde 𝛾 es la energía de la superficie específica (interfase) y 𝐴 es área total en la
interfase. La reducción en la energía se puede expresar así [83]:
∆(𝛾𝐴) = ∆𝛾𝐴 + 𝛾∆𝐴 Ec.29
Acá, el cambio en la energía interfacial (∆𝛾) es debida al proceso de densificación y del
cambio en el área en la interfase debido al aumento del tamaño de grano. La figura 3-9
[84], muestra un esquema en donde se observan los procesos de densificación y
crecimiento de tamaño de grano.
3.4.2 Variables de sinterización
La mayoría de variables que determinan la sinterizabilidad de un material y la estructura
de un polvo compactado se pueden dividir en dos categorías: las asociadas al material y
Tratamiento Post-sinterizado y finalización
Aditivo aglutinante,
Polvo
Mezcla Conformado Sinterizado
Síntesis en polvo
57
las asociadas al proceso de síntesis. Las variables asociadas al material de partida
incluyen la composición química del polvo compactado, el tamaño de grano del
precursor, el grado de aglomeración, etc. Estas variables influyen en la compresibilidad
del polvo y sinterizabilidad (densificación y crecimiento granular). En particular para
polvos compactados con más de dos tipos de precursores, la homogeneidad de la
mezcla es de vital importancia. Otras de las variables envueltas son de tipo
termodinámico, como la temperatura, el tiempo, la atmósfera de sinterización, presión y
velocidades de incremento de temperatura así como de enfriamiento. La tabla 3-4 [85],
resume las variables anteriormente mencionadas.
Figura 3-9: Fenómenos básicos que ocurren durante el proceso de sinterización bajo la acción de una fuerza conductora, ∆(𝛾𝐴) [84].
En general, el tamaño de grano del los polvos o precursores usados en los procesos de
sinterización se encuentra en el rango entre 0.1 y 100 µm.
Tabla 3-1: Variables que afectan el proceso de sinterización [85].
Variables relacionadas con el material de partida
Polvo: Forma, tamaño, distribución, aglomeración, homogeneidad
Químicas: Composición, impurezas, homogeneidad, estequiometria.
Variables relacionadas con el proceso de sinterizado
Temperatura, tiempo, presión, atmósfera de sinterización, velocidades de calentamiento y enfriamiento.
58
3.4.3 Las 3 etapas de la sinterización
Con el objetivo de profundizar un poco el proceso de sinterización se lleva a cabo en 3
etapas [86].
Etapa inicial: el sistema de partículas se considera como conjunto de esferas en
contacto entre las cuales se formarán cuellos de sinterización. Si 𝑋 es el radio del cuello y 𝑅 el radio de las esferas, el crecimiento de la relación 𝑋/𝑅 durante un
tiempo 𝑡, para una sinterización isotérmica, toma la siguiente forma [87]:
�𝑋𝑅�𝑛
= �𝐵𝑡𝐷�𝑚
, Ec. 30
donde 𝐵 es un parámetro característico del material y los exponentes m y n varían
en función al proceso involucrado. Por ejemplo, con 𝑛 = 2 y 𝑚 = 1 se adjudican a
un fluido viscoso; 𝑛 = 5 y 𝑚 = 3 se adjudican a un volumen en difusión; 𝑛 = 6 y
𝑚 = 4 se adjudican a difusión granular a través de interfases.
Etapa Intermedia: El sistema se esquematiza como un apilado de granos
poliédricos entrelazados entre sí por caras en común, con poros que forman un
sistema de canales a lo largo de las esquinas de los granos y conectados por
puntos cuádruples, como se observa en la figura 3-10 [87, 88].
Etapa Final: La porosidad disminuye y sólo poros aislados, generalmente
ubicados en los puntos cuádruples de los granos o en posiciones intergranulares
se mantienen.
3.4.4 Prensado de polvos
El prensado de polvos es ampliamente utilizado en el desarrollo de componentes
cerámicos y metal-cerámicos, incluyendo materiales magnéticos, electrónicos y
refractarios. En esencia una masa de polvo es compactado adoptando una forma
determinada a través de la aplicación de presión. El grado de compactación se
incrementa y la fracción de volumen vacio en el espacio se disminuye. Existen 3 tipos de
procedimientos de prensado de polvos: uniaxial, isostático (o hidrostático) y presión en
caliente.
59
Figura 3-10: (a) Diagrama de porosidad en la forma de canales interconectados a lo largo de las caras del poliedro de 14 caras. Etapa intermedia durante los procesos de sinterización. (b)
Formación de poros al iniciar el proceso de síntesis [87, 88]
(a) (b)
En el caso de presión uniaxial, el polvo es compactado en una prensa aplicando presión
en una misma dirección. La pieza formada adquiere la configuración del molde en donde
el polvo sea depositado, los pasos involucrados se ilustran en la figura 3-11 [88]. Para la
presión isostática, el polvo está contenido en un envase plástico, y consecuentemente
este es sumergido en un líquido donde la presión se realiza en todas las direcciones. En
los dos casos anteriores el proceso se puede realizar con un incremento de temperatura
que permite que procesos como la formación de cuellos de botella y reducción de la
porosidad se logren por efecto del incremento térmico.
3.4.5 Metodología implementada: Ruta de síntesis del material
Aunque distintas técnicas en la obtención de sólidos porosos con metales de transición,
como sol-gel, método flux, método sol-gel, síntesis hidrotérmica, síntesis electroquímica,
reacciones de intercalación, síntesis a altas presiones han sido ampliamente descritas, el
método cerámico tradicional o comúnmente descrito como método de reacción en estado
sólido, tiene la ventaja de su extrema simplicidad y su uso especial para preparar
materiales tipo perovskita ha sido difundido ampliamente, como es el caso de la
fabricación de AIN, un material importante en la industria electrónica debido a sus
propiedades como aislante eléctrico y conductor térmico [89]. El proceso de reacción en
estado sólido ó método cerámico permite obtener el material por medio de la reacción de
precursores de partida (generalmente óxidos de los metales de interés) en fase sólida. La
cantidad de cada óxido o reactivo a utilizar se calcula estequiométricamente en función
60
de la fórmula química de la perovskita que se quiera obtener y de la pureza de los óxidos
de partida utilizados. Generalmente el procedimiento consta de cuatro etapas:
Secado y pesado de los óxidos.
Macerado y compactación.
Calcinación.
Sinterización.
Figura 3-11: Representación esquemática de los pasos de prensado de polvos en forma uniaxial. (a) La cavidad es llenada con el polvo (b) El polvo es compactado por efecto de la presión
aplicada desde la parte superior (c) La pieza compactada es eyectada por efecto de una presión aplicada desde la parte inferior (d) La pieza es finalmente aislada [88].
3.4.5.1 Secado Y Pesado de los precursores Como se mencionó en la sección 3.1, una vez determinado el factor de tolerancia que
constituye un indicador de la viabilidad de obtención de la fase cristalográfica tipo
perovskita doble, se procedió a realizar la síntesis partir de los siguientes precursores:
SrCO3, TiO2 y MoO2. Primero los precursores son secados en un horno EQUIFAR
61
modelo HMD03 (figura 3-12) con controlador Watlow, por un tiempo de 2 horas a 200 °C.
Más adelante las cantidades de cada óxido y del precursor se calculan de acuerdo con la
estequiometria buscada, es decir dos átomos de Estroncio, un átomo de Titanio y un
átomo de Molibdeno los cuales son determinados a partir de los pesos atómicos de cada
óxido. El peso de las cantidades de compuesto se determina a través de una regla de
tres conociendo el peso por total de la fórmula (PTF) en unidades de masa atómica
(u.m.a.), que no es más que la suma de los pesos proporcionados de cada óxido, como
se especifica en la ecuación 30.
𝟐𝑺𝒓𝑪𝑶𝟑+ 𝑴𝒐𝑶𝟑+ 𝑻𝒊𝑶𝟐 → 𝑺𝒓𝟐𝑻𝒊𝑴𝒐𝑶𝟔 + 𝑪𝑶𝟐 + 𝟑𝟐𝑶𝟐
𝑷𝑭𝑻 = 𝟐 (𝑷𝒆𝒔𝒐 𝑺𝒓𝑪𝑶𝟑) + 𝟏(𝑷𝒆𝒔𝒐 𝑴𝒐𝑶𝟑) + 𝟏(𝑷𝒆𝒔𝒐 𝑻𝒊𝑶𝟐) Ec. 31
Adicionalmente se busca obtener la cantidad correcta de cada óxido según los cálculos.
Para esto es importante considerar la humedad relativa de cada reactivo ya que el
contenido de agua que posean por concepto de higroscopicidad, alteran los cálculos, al
igual que la pureza relativa especificada por el fabricante, factores que se tienen en
cuenta a la hora de realizar los cálculos. Las masas y porcentaje de pureza de cada
óxido se muestran en la tabla 3-2. Los precursores se pesaron en una balanza Ohaus-
Adventurer Modelo AR0640 con exactitud hasta la cuarta cifra decimal figura 3-13.
Figura 3-12: Horno empleado en el secado de los precursores.
62
Tabla 3-2: Cantidades y purezas de los óxidos de partida utilizados.
Óxido Precursor Pureza Masa (g)
SrCO3 99.0 % 0.3521
TiO2 99.9 % 0.0953
MoO3 99.0 % 0.1526
Figura 3-13: Balanza empleada en el pesado de los precursores.
3.4.5.2 Macerado y Compactación Los precursores son mezclados en un mortero de ágata (figura 3-14) por un tiempo de 3
horas, donde se busca disminuir el tamaño de los granos y homogenizar el material
utilizando ciclohexano. Al finalizar el proceso de molienda, se obtuvo un polvo de color
uniforme gris oscuro el cual fue introducido en una matriz de acero templado (figura 3-15)
y utilizando una prensa hidráulica (figura 3-16), se aplicó una fuerza uniaxial de 5 kN
63
durante 10 minutos sobre la matriz. Al final de este proceso se obtiene una pastilla
circular de aproximadamente 9.15 mm de diámetro (figura 3-17). Réplicas de la pastilla
se realizaron aplicando exactamente la misma metodología.
Figura 3-14: Mortero de ágata empleado en la mezcla de los precursores.
Figura 3-15: Matriz de acero templado usada como molde.
64
Figura 3-16: Prensa hidráulica empleada para obtener las pastillas.
Figura 3-17: Pastillas obtenida después del proceso de prensado.
65
3.4.5.3 Calcinación
En el proceso de calcinación la pastilla es introducida en un horno Linberg/Blue Modelo
STF55433C figura 3-18, Con el fin de dar inicio a la reacción, se realiza la precalcinación
de la pastilla a una temperatura inicial de 700 °C y por un tiempo de 12 horas. En la
sección de resultados se muestra el programa completo de temperaturas de calcinación
para las pastillas, resultado del análisis del diseño experimental implementado.
Adicionalmente al finalizar la calcinación, las pastillas son fragmentadas en el mortero y
nuevamente maceradas durante una hora hasta obtener un polvo de apariencia
homogénea, siguiendo los procedimientos descritos en trabajos anteriores [90] .
Figura 3-18: Horno de empleado para el proceso de calcinación y sinterizado y controlador de temperatura.
3.4.5.4 Sinterización
Los procesos de sinterización se llevan a cabo en porque otro tipo de fases pueden
formarse y gracias al proceso de sinterizado se logra que las partículas se mantengan
unidas por difusión y se eliminen fases secundarias. Simultáneamente, esto facilita el
crecimiento de granos y la desaparición de límites de grano entre los mismos, generando
cuellos de botella. Comúnmente es necesario realizar varios tratamientos térmicos, en los
que pueden variar tanto la temperatura a la cual se expone la muestra, como el tiempo
que dura este proceso [91]. Generalmente estos procesos de sinterización se llevan a
cabo a temperaturas superiores a las de calcinación y se realizan con el fin de eliminar
66
impurezas o fases secundarias correspondientes a los precursores o compuestos
secundarios que se puedan formar previamente.
Figura 3-19: Imagen del Proceso de sinterización de la pastilla usando un crisol de alúmina
Figura 3-20: Programa de temperatura implementado en la calcinación y sinterización de la muestra.
3.5 Caracterización Estructural: Difracción de Rayos X (DRX)
La difracción de rayos X es una técnica ampliamente usada en caracterización estructural
de materiales. Los usos más comunes son principalmente determinar estructuras
cristalinas, composición e identificación de las fases de un material y en los últimos años
67
determinación de tensiones en materiales aplicados en ingeniería. Una de las
características más importantes es que se trata de una técnica no destructiva y que
permite analizar desde la superficie del material hasta el interior del mismo.
3.5.1 Fuentes y Generación de Rayos X
Los rayos X son en esencia radiación electromagnética, resultado de fenómenos
extranucleares y producidos esencialmente por la desaceleración de electrones.
Tradicionalmente los rayos X son producidos por el bombardeo de ánodos de materiales
con electrones que son acelerados por medio de potenciales generalmente mayores a 30
kV. La colisión de los electrones acelerados produce una serie de líneas superpuestas a
un espectro continuo llamado Bremsstrahlung (Término alemán que significa radiación de
frenado); adicionalmente, el espectro de líneas generado es característico del ánodo bombardeado [92].
Por otro lado, las transiciones de energía en los átomos pueden ocurrir sólo si el átomo
es perturbado por alguna fuente “externa” de energía. Normalmente los átomos están en
su estado de menor energía o estado basal. Ahora, si un átomo es excitado al haciendo
incidir energía sobre él mismo, éste se volverá termodinámicamente inestable y
responderá a las transiciones electrónicas que dan lugar a una disminución en la energía
del átomo. En particular, la excitación de los átomos es el resultado del bombardeo del
ánodo con los electrones altamente energéticos del haz incidente. Las transiciones
energéticas de mayor energía corresponden a las que involucran los electrones de la capa electrónica K, ya que son los que están más fuertemente ligados al núcleo.
La figura 3-21 [93] ilustra la excitación de un átomo por la expulsión de un electrón del
nivel K a causa de una colisión inelástica con un electrón proveniente del haz. Para que
la excitación del átomo se logre, el haz incidente debe poseer una energía mayor a la
energía requerida para remover el electrón del nivel K (Ek). Adicionalmente, los
electrones del haz incidente son dispersados generando un pequeño cambio en su
trayectoria. El proceso de expulsión de un electrón del nivel K crea un hueco electrónico
en el nivel K y aumenta el nivel de energía del átomo a un “estado-K”. Este nivel de
energía es termodinámicamente inestable y el átomo inmediatamente responderá con el
llenado del hueco electrónico con otro electrón de un orbital exterior. Los electrones más
68
cercanos se encuentran en los niveles L y por lo tanto son los electrones con mayor
probabilidad de ocupar el hueco. Este proceso, en el cual un electrón del nivel L llena el
vacío dejado por el electrón expulsado del nivel K, es llamado transición Kα. La tabla 3 -3 [94] muestra una serie de ánodos de diferentes longitudes de onda.
Figura 3-21: Esquema de la expulsión de un electrón de un nivel electrónico K y la producción de un hueco electrónico [93].
Tabla 3-3: Radiación de materiales comunes utilizados como ánodos [94].
Radiación Longitud de Onda (Ȧ) Energía (keV) Ag Kα 0.5608 22.103 Pd Kα 0.5869 21.125 Mo Kα 0.7107 17.444 Zn Kα 1.4364 8.631 Cu Kα 1.5418 8.041 Ni Kα 1.6591 7.742 Co Kα 1.7905 6.925
Debido el hecho de que la energía no se crea ni se destruye, el cambio energético
involucrado en este proceso se debe expresar de alguna forma. La energía liberada es
69
desprendida en forma de un fotón de rayos X. Como la energía liberada en esta
transición es característica de cada elemento, como lo muestra la tabla 3-3, cada
elemento asocia una emisión de rayos X característicos. A medida que un átomo
contenga electrones en niveles externos, si los electrones del nivel K son excitados,
entonces, los niveles L y M también serán excitados.
3.5.2 Rayos X: Difracción e intensidad de líneas
El método de difracción utiliza la interferencia de la radiación dispersa con los átomos en
una determinada estructura. Este tipo de interacción de la radiación con la materia se
aplica únicamente a estructuras que muestran un orden periódico de sus átomos, iones o
moléculas en las 3 dimensiones, es decir, lo que comúnmente se denomina como cristal
[95]. El haz de rayos X incidente puede ser descrito como una onda plana de radiación
que interactúa con los electrones del material, en forma de absorción o dispersión. La
dispersión puede ser pensada como esferas de radiación emergente desde los átomos
dispersados. Si los átomos tienen un orden de separación largo, las esferas interfieren de
manera constructiva y destructivamente produciendo diferentes puntos, o reflexiones de
Bragg en determinadas direcciones. Los ángulos de dispersión específicos, denotados
θhkl, contienen la información del ordenamiento de los átomos y la intensidad contiene la
información de la ubicación de los electrones dentro del ordenamiento atómico. La base
en los estudios de difracción de rayos X es la ley de Bragg, mostrada a continuación [96]:
𝜆 = 2𝑑ℎ𝑘𝑙𝑠𝑖𝑛(𝜃ℎ𝑘𝑙), Ec. 32
donde 𝜆 es la longitud de onda de la radiación incidente, 𝑑ℎ𝑘𝑙 es el espaciado de los
planos atómicos hkl y 𝜃 es el ángulo de difracción con respecto al plano y en donde se
tiene una interferencia de tipo constructivo, figura 3-22 [96]. La magnitud de la distancia
entre dos planos adyacentes y paralelos entre sí está en función de los índices de Miller,
los cuales representan la orientación de los planos de la estructura cristalina derivado de
un sistema coordenado que contiene 3 ejes. Dos planos cualesquiera, paralelos entre sí,
poseen índices de Miller que son idénticos o equivalentes.
De otro lado los sistemas de detección modernos, no sólo son capaces de medir la
separación de los átomos en la red, también son capaces de dar información alrededor
de la disposición de los átomos en la misma. Esta información está contenida en la
70
intensidad relativa de los diferentes órdenes de difracción para una familia de planos
determinada. Las intensidades son usualmente medias como una velocidad (número de
fotones de rayos X detectados por segundo) o el número total de fotones de rayos X
detectados en un determinado periodo de tiempo. Las intensidades son generalmente
normalizadas con respecto a una corriente producida por el haz de electrones para
propósitos cuantitativos, con lo que los rayos X producidos sean proporcionales al
número de electrones que golpean la muestra [97]. Las intensidades relativas dependen
del número de electrones disponible y la probabilidad de que se pueda dar una transición
energética como las vistas anteriormente. Adicionalmente, otro aspecto de vital
importancia dentro del análisis cuantitativo es el hecho de que como primera
aproximación la intensidad de una línea de rayos X es proporcional a la concentración del elemento emitido en la muestra.
Figura 3-22: Esquema de difracción de rayos X, por planos hkl separados por una distancia interplanar 𝑑ℎ𝑘𝑙 [96].
3.5.3 Técnicas e identificación de fases
Existen varios métodos de difracción de rayos X descritos ampliamente como lo son el de
Laue [98] y el de cristal rotatorio [99]. En estos dos casos la desventaja es que la muestra
debe ser un monocristal, el cual, para efectos prácticos y experimentalmente, conlleva un
alto grado de dificultad para su obtención. Es por esto que la técnica más usada es la de
polvo, desarrollada independientemente en 1915 por Debye y Scherrer, en Alemania y en
1916 por Hull en los Estados Unidos [95]. En este caso, la muestra puede presentarse en
71
forma de polvo o puede ser policristalina. Cada grano del polvo puede estar conformado
por uno o varios cristales de diferentes tamaños y estar distribuidos en diferentes
direcciones. La ventaja en este método es que se logra que las intensidades
correspondientes a cada plano interfieran constructivamente generando un pico de buena
intensidad para un determinado ángulo.
Adicionalmente, existe una configuración geométrica que es la más difundida al aplicar la
técnica en polvo. La geometría de Bragg-Brentano, ubica la muestra o material sobre un
disco o cilindro aplanado en el centro de la cámara, en posición tangencial a los círculos
de enfoque del detector. El haz de rayos X incide por el lado izquierdo de la muestra
formando un ángulo de Bragg θ con el plano de la muestra. Al otro lado de la muestra
sobre el círculo de enfoque se encuentra ubicado el detector, que es el encargado de
registrar las intensidades resultantes de la radiación difractada desde la muestra.
Posteriormente, los datos son registrados en un computador donde se obtiene la gráfica
del difractograma, el cual muestra intensidad (número de cuentas por segundo) en
función de un ángulo 2θ. Idealmente, la superficie de la muestra debería ser curva para
que siga la curvatura del círculo de enfoque, sin embargo experimentalmente las
muestras no se pueden llevar hasta este punto, por lo que el detector se ubica en una
posición 2θ con respecto al ángulo de difracción. La figura 3-23 [100], muestra la
configuración de la geometría Bragg-Brentano.
Figura 3-23: Izquierda: Geometría de Bragg-Brentano para la toma de difractogramas. Derecha: Esquema del difractómetro: T = fuente de rayos X, S = muestra, C = Detector y O = eje alrededor
del cual giran la muestra y el detector [100, 101].
72
El proceso de identificación de fases en un difractograma, surge a partir de la
comparación de las posiciones e intensidades de los picos de difracción, contra los
reportados en las bases de datos. Este proceso conlleva dificultades, ya que además de
los errores experimentales puede existir ambigüedad en la comparación de patrones.
Generalmente se usan índices alfabéticos PDF, elaborados por la ICDD (International
Critical Difracttion Data), los cuales contienen diferentes tipos de algoritmos de búsqueda
e identificación en donde se tienen en cuenta parámetros como el número de reflexiones
de Bragg que puedan coincidir en posición e intensidad con los registrados en las bases
de datos y el número de reflexiones mayores o de mayor intensidad. Los buscadores
automáticos pueden llegar a generar un gran número de patrones posibles que se
pueden superponer adecuadamente al patrón experimental, sin embargo una cuidadosa
selección debe ser realizada por el usuario. Un ejemplo del proceso de búsqueda e
identificación de fases en materiales se encuentra reportado por Percharsky y Zavalij
[102].
3.5.4 Especificaciones técnicas del esquipo usado
Para determinar la fase cristalográfica de las perovskitas se realizaron mediciones de sus
patrones de difracción, usando el equipo de difracción de rayos X (DRX) (Departamento
de Física, Universidad Nacional de Colombia), de marca X-Pert PRO MPD de la empresa
Panalytical. Trabajando a un voltaje de aceleración de 45 kV y una intensidad de
corriente de 40 mA, con línea monocromática kα del cobre (Cu -K de longitud de onda
1.540598Ǻ), con un tiempo por paso de 8 s y un tamaño de paso de 0.020º (2θ) en modo continuo, desde 20° hasta 80° (2θ).
Las medidas de DRX se realizaron en configuración geométrica Bragg-Brentano.
Adicionalmente las medidas de difracción de rayos X en función de la temperatura se
realizaron utilizando una placa de platino y siguiendo el programa de temperatura
mostrado en la figura 3-24. El equipo se muestra en la figura 3-25. La identificación de
las fases y análisis de patrones de difracción se desarrollaron usando en software X´Pert
Highscore versión 2.1.2 elaborado por PANalytical B.V., en donde también se desarrolló
la búsqueda e identificación de las reflexiones usando la base de datos PDF-2 actualizada al año 2004 y proporcionada por la misma compañía.
73
Figura 3-24: Programa de temperatura empleado en el análisis de DRX en función de la temperatura.
Figura 3-25: Equipo de DRX – UNAL.
74
3.6 Refinamiento Rietveld El refinamiento Rietveld o refinamiento por el método de Rietveld es una técnica
desarrollada por Hugo Rietveld en 1969 [103] para la caracterización de materiales
cristalinos. Este método usa una aproximación de mínimos cuadrados para minimizar la
diferencia entre un difractograma experimental y un difractograma calculado utilizando un
modelo estructural aproximado y unos parámetros que permitan distribuir las
intensidades de las diferentes reflexiones en el difractograma. Este método no usa las
intensidades integradas de los picos de difracción, sino que emplea todo el difractograma
de polvo, resolviendo, al menos en parte, el problema de solapamiento de picos. La función a minimizar es llamada residuo (𝑆𝑦) [104]:
𝑆𝑦 = ∑ 𝑤𝑖|𝑦𝑖(𝑜𝑏𝑠)− 𝑦𝑖(𝑐𝑎𝑙)|2𝑖 , Ec. 33
donde 𝑦𝑖(𝑜𝑏𝑠) y 𝑦𝑖(𝑐𝑎𝑙) son la intensidades observadas y calculadas, respectivamente,
en el paso i-ésimo y 𝑤𝑖 es el peso asignado a cada una de las intensidades 𝑤𝑖 = 1/𝑦𝑖,
mientras que la sumatoria es sobre todos los puntos del patrón.
3.6.1 Cálculo de la intensidad de los picos de difracción
El cálculo de la intensidad para cada punto 𝑦𝑖(𝑐𝑎𝑙) se obtiene como suma de las
contribuciones de todas las reflexiones 𝑘 que contribuyen con la intensidad en ese punto
específico del difractograma, más la contribución del fondo del difractograma o
background. Las intensidades se calculan entonces por medio de la ecuación 33 [105]:
𝑦𝑖(𝑐𝑎𝑙) = 𝑠 ∑ 𝐿𝑘|𝐹𝑘|2∅(2𝜃𝑖 − 2𝜃𝑘)𝑃𝑘𝐴+ 𝑦𝑖𝑏. 𝑖 Ec. 34
En esta ecuación 𝑠 es el factor de escala de la fase estudiada; 𝑘 representa los índices
de Miller, ℎ 𝑘 𝑙, para una reflexión de Bragg dada; 𝐿𝑘 contiene los factores de Lorentz,
polarización y multiplicidad; ∅ es la función del perfil de reflexión; 𝑃𝑘 es la función de la
orientación preferente; A es el factor de absorción, el cual depende de la geometría del difractómetro principalmente, (2𝜃𝑖 − 2𝜃𝑘 )𝑃𝑘 es el ángulo de Bragg para la k-ésima
reflexión; 𝑦𝑖𝑏 es la intensidad de fondo para el paso i-ésimo, y 𝐹𝑘 es el factor de
estructura para la k-ésima reflexión de Bragg.
75
3.6.2 Cálculo del factor de estructura
El factor de estructura indica la capacidad de difracción de la celda unitaria [106] que se
calcula de la siguiente forma:
𝐹𝑘 = ∑ 𝑁𝑗𝑓𝑗𝑒[2𝜋(ℎ𝑥𝑖+ 𝑘𝑦𝑖+ 𝑙𝑧𝑖 )] 𝑗 𝑒�−𝐵𝑗 𝑠𝑖𝑛2𝜃
𝜆2�, Ec. 35
donde: ℎ 𝑘 𝑙 son los índices para la k-ésima reflexión; 𝑥𝑖 , 𝑦𝑖 , 𝑧𝑖 son las coordenadas
fraccionarias del j-ésimo átomo en el modelo; 𝑁𝑗 hace referencia a la multiplicidad de la
ocupación de los átomos; 𝑓𝑗 es el factor de forma atómico del j-ésimo átomo; 𝐵𝑗 es una
aproximación isotrópica, θ es el ángulo de incidencia del haz de rayos X; λ es la longitud de onda del rayo incidente.
3.6.3 Funciones para modelar el perfil de un pico de difracción
La descripción de la forma de los picos, los cuales dependen de factores como tamaño del microcristal, microdeformaciones, defectos etc, varía en función de 2𝜃. De otro lado,
para la función que simula el perfil tenemos varias opciones de funciones analíticas las
cuales generan una función normalizada. Estas funciones de perfil [107] son típicamente descritas por tres parámetros: su posición (2𝜃𝑘), una intensidad 𝐼0 y el ancho de la
función representado por el ancho del pico a media altura. Algunas funciones perfil
simétricas son:
𝐶01/2
𝐻𝑘𝜋1/2 𝑒�−𝐶0�2𝜃𝑖−2𝜃𝑘 �2
𝐻𝑘2 �
𝐹𝑢𝑛𝑐𝑖ó𝑛 𝐺𝑎𝑢𝑠𝑠𝑖𝑎𝑛𝑎 (𝐺) Ec. 36
𝐶11/2
𝐻𝑘𝜋 ��1 + 𝐶1
(2𝜃𝑖−2𝜃𝑘 )2
𝐻𝑘2 ��
−1
𝐹𝑢𝑛𝑐𝑖ó𝑛 𝐿𝑜𝑟𝑒𝑛𝑡𝑧𝑖𝑎𝑛𝑎 (𝐺) Ec. 37
𝜂𝐿+ (1 −𝜂)𝐺 𝑃𝑠𝑒𝑢𝑑𝑜−𝑉𝑜𝑖𝑔𝑡 (𝑝𝑉) Ec. 38
𝜂 puede refinarse como una función lineal de 2𝜃, mediante la relación [106]:
𝜂 = 𝑁𝐴 +𝑁𝐵 (2𝜃), Ec. 39
donde 𝑁𝐴, 𝑁𝐵 son variables refinables. Para las ecuaciones anteriores se tiene que
𝐶0 = 4 ln 2; 𝐶1 = 4 y 𝐻𝑘 es el ancho completo a media altura (FWHM: full-width-at-half-
76
maximum) de la reflexión k-ésima. En la figura 3-26 [108] se presenta un ejemplo del
perfil de las funciones Gaussiana, Lorentziana y pseudo Voigt.
Figura 3-26: Funciones perfil normalizadas centradas en 2𝜃𝑘 = 50° [108].
3.6.4 Criterios de Ajuste para el Refinamiento
Con el fin de determinar la calidad del ajuste del refinamiento o los criterios de avance del
mismo, con el fin de evidenciar si el modelo usado es el correcto y también si se ha caído
en un falso mínimo, existen varios indicadores que permiten al usuario juzgar si el
proceso de refinamiento es satisfactorio, además igual de mirar el punto donde este se
puede detener. Uno de los parámetros más simples, es observando la curva de
diferencia entre el difractograma experimental y el obtenido a partir del refinamiento, la
cual idealmente debe ser una línea recta. Adicionalmente los criterios de ajuste más
utilizados son:
a) Residuo del patrón pesado (𝑅𝑊𝑃): Muestra el progreso del refinamiento ya que el
numerador contiene la función residuo, que es precisamente la que se está
tratando de minimizar. El residuo se puede calcular de la siguiente manera [109]:
𝑅𝑊𝑃 = �∑𝑤𝑖(𝑌𝑖(𝑜𝑏𝑠)−𝑌𝑖(𝑐𝑎𝑙𝑐))2
∑𝑤𝑖(𝑌𝑖(𝑜𝑏𝑠))2�1/2
Ec. 40
77
b) Valor esperado (𝑅𝑒𝑥𝑝): Refleja la calidad de los datos obtenidos en la medición del
patrón (conteos estadísticos), se calcula [110] con ayuda de:
𝑅𝑒𝑥𝑝 = �𝑁−𝑃+𝐶
∑ 𝑤𝑖𝑛𝑖=1 𝑌𝑖 (𝑜𝑏𝑠)
2 Ec. 41
c) Ajuste de “bondad” (𝜒2): Es el cociente entre el residuo del patrón pesado [110] y
el valor esperado. Si el tiempo de toma de datos fue suficientemente grande, no dominarán los errores estadísticos, 𝑅𝑒𝑥𝑝 podría ser muy pequeña y 𝜒2 para una
estructura cristalina refinada podría ser mayor a uno. Si los datos se obtienen en un periodo de tiempo muy corto, 𝑅𝑒𝑥𝑝 podría ser muy grande y 𝜒2 es menor que
uno. El valor óptimo para 𝜒2 está entre 1 y 1.13.
𝜒2 = 𝑅𝑊𝑃𝑅𝑒𝑥𝑝
Ec. 42
d) 𝑅𝑃: Evalúa todos y cada uno de los puntos del difractograma aunque el esquema de computo es diferente a 𝑅𝑊𝑃. Se calcula [111] mediante:
𝑅𝑃 = ∑�𝑌𝑖(𝑜𝑏𝑠)−𝑌𝑖 (𝑐𝑎𝑙𝑐)�
𝑌𝑖(𝑜𝑏𝑠) Ec. 43
e) Residuo del factor de Bragg (𝑅𝐵): Es un indicador de la calidad del modelo en
virtud a los datos cristalográficos de la celda unitaria: grupo espacial, parámetros
de red, posiciones atómicas y número de ocupación de los átomos en los sitios
que les corresponde. La fórmula se define [112] en función de las intensidades:
𝑅𝐵 = ∑�𝐼𝑘(𝑜𝑏𝑠)−𝐼𝑖(𝑐𝑎𝑙𝑐)�
∑𝐼𝑘 (𝑜𝑏𝑠) Ec. 44
f) Factor de estructura (𝑅𝐹): Calcula la diferencia entre los factores de estructura
𝐹ℎ𝑘𝑙 “observados” y los calculados a partir del modelo estructural refinado [112]:
𝑅𝐹 = ∑ �𝐹𝐻𝑘𝑙0 −𝐹𝐻𝑘𝑙
𝑐 �𝐻𝑘𝑙∑ 𝐹𝐻𝑘𝑙
0𝐻𝑘𝑙
Ec. 45
Los valores de residuo 𝜒2 y 𝑅𝑊𝑃 son los indicadores más útiles para la evaluación del
refinamiento, adicionalmente uno de los criterios para juzgar la calidad del refinamiento
es un correcto ajuste de los datos del patrón calculado con los datos del patrón
observado.
Finalmente, el refinamiento se realizó utilizando el programa GSAS (General Structure
Analysis System), desarrollado en el laboratorio de los Alamos figura 3-27 [113].
78
Figura 3-27: Entorno gráfico del programa GSAS.
3.7 Caracterización Microestructural: Microscopía Electrónica de Barrido (MEB)
La microscopía en términos generales permite obtener imágenes aumentadas de una
determinada espécimen. Dependiendo de parámetros como el tipo de muestra, la
composición y la preparación de la misma, se puede obtener información relacionada con
la morfología, porosidad, microestructura, composición entre otros. Tradicionalmente el
tipo de microscopía más conocido es la microscopía óptica, sin embargo, gracias al
postulado de De Broglie (dualidad onda partícula) se establece que los electrones en
movimiento (altas velocidades), presentan una longitud de onda de varios órdenes de
magnitud menor que la de la luz visible. Esto se conoce como el principio de la dualidad
onda-partícula, que deja clara la existencia de un paralelismo entre el movimiento de la
partícula (electrón) y la propagación de la onda asociada a su movimiento. Gracias a este
principio, al tratarse de partículas con carga eléctrica, estas pueden interactuar con la
materia produciendo distintos tipos de radiaciones (figura 3-28 [114]).
79
Figura 3-28: Tipo de radiaciones resultantes de la interacción del haz de electrones con la superficie [114].
De todas las clases de radiación mostradas en la figura 3-28, existen dos que son
relevantes en el caso de la microscopía electrónica. La primera corresponde a la emisión
de electrones secundarios, que son generados cuando el haz de electrones golpea o
perturba la banda de conducción de los átomos. A este tipo de radiación se le adjudican
valores bajos de energía (E < 50 eV), los cuales producen imágenes de la topografía del
material, ya que la distancia máxima por debajo de la superficie del material de la que
pueden ser emitidos es muy pequeña (típicamente del orden de nanómetros) y su origen
es muy cercano al punto de impacto del haz de electrónico. La segunda corresponde a
los electrones retrodispersados, que se consideran dispersiones elásticas de los
electrones pertenecientes al haz incidente, los cuales asocian valores altos de energía
(cientos de eV) y cuya dispersión está fuertemente asociada al número atómico del
átomo golpeado por el haz [115].
El haz de electrones incidente, al tratarse de partículas de carga eléctrica, puede ser
desviado por lentes magnéticas, las cuales permiten dirigir y enfocan el haz hacia la
muestra con el objetivo de hacer un barrido de la dentro de un determinado sector. Lo
anterior justifica la importancia del sistema de vacío ya que los electrones pueden ser
desviados por las moléculas del aire, de forma que tiene que hacerse un vacío casi total
en el interior del microscopio. Por otro lado, la intensidad en la emisión de los dos tipos
de radiaciones mostradas anteriormente, varía en función del ángulo de incidencia del
80
haz de electrones con la superficie del material y adicionalmente la corriente electrónica
emitida puede ser amplificada, permitiendo a partir de las diferencias de intensidad y con
ayuda de un sistema de detección, registro y un fotomultiplicador construir una imagen.
La figura 3-29 [116] muestra el esquema principal de componentes en un microscopio
electrónico.
Figura 3-29: Esquema de componentes principales en un microscopio electrónico de barrido [116].
La configuración básica del microscopio electrónico es [117]:
a) Sistema de emisión: Consta de un cañón de electrones que consiste de un
triodo en el que un filamento de wolframio o un cristal de LaB6 proporciona una
corriente electrónica de hasta 250 A con energías ajustables entre 1 y 50 keV;
dos lentes condensadoras que reducen el tamaño del haz en 104 veces; una
tercera lente condensadora cuya misión es focalizar el haz de electrones sobre la
superficie de la muestra; y el sistema de deflexión que produce el barrido del haz
de electrones.
b) Portamuestras: Permite mover la muestra en el espacio (X, Y, Z); el eje Z es
paralelo al eje óptico. La muestra se puede girar de 0º a 360º e inclinar entre 0º y
90º, de tal manera que el haz de electrones alcanza casi cualquier parte de su
superficie.
81
c) Sistema visualización de imagen: La imagen se registra fotografiando la
pantalla de un tubo de rayos catódicos, con un tiempo de exposición (del orden de
30 a 200 segundos) igual al de barrido de todas las líneas que forman la imagen.
La resolución de la imagen en una micrografía hecha con la técnica de MEB es
comparable al tamaño de grano del fósforo del tubo de rayos catódicos.
d) Sistema de detección de las diferentes emisiones: El haz de electrones
incidente produce una serie de emisiones que pueden ser analizadas con un
sistema de detección apropiado basado en la naturaleza de las mismas.
3.7.1 Especificaciones técnicas del equipo utilizado
La morfología se caracterizó por microscopía electrónica de barrido (MEB) usando un
Microscopio FEI Quanta 200 operado en modo de alto Vacío (3 x 10-7 torr) usando un
detector de electrones secundarios Everhart-Thorney (ETD) que permite destacar la
morfología del material y un detector de electrones retrodispersados (SSD) que permite
observar diferencias en composición. La figura 3-30 muestra la imagen del equipo
utilizado.
Figura 3-30: Equipo de microscopía electrónica de Barrido junto a la sonda de EDS (Marca EDAX) Universidad Nacional de Colombia.
82
3.8 Espectroscopía de energía de Dispersión de Rayos X (EDS)
Anteriormente se observaron los diferentes tipos de radiación asociados a la interacción
entre los electrones de un haz y la materia. El principio de la espectroscopía de energía
de dispersión de rayos X, es la intensidad característica de las líneas o del espectro de
emisión de líneas de rayos X para cada elemento en particular. Debido a que la
configuración electrónica de cada elemento es diferente, las emisiones características de
radiación de rayos X son particulares para cada elemento de la tabla periódica y por
consiguiente, la radiación de energía presenta una proporcionalidad con la concentración
de cada elemento presente en la muestra analizada. Es de anotar, que las transiciones
posibles, dependen de la disponibilidad de electrones en un nivel de energía del átomo
en particular; es por eso que unas transiciones son más probables que otras. Otra de las
bases fundamentales de esta técnica es que el detector debe tener la capacidad de
separar la radiación de rayos X en pulsos electrónicos discretos lo que posibilita la
separación o identificación de las transiciones de los electrones en los diferentes niveles
energéticos [118], adicionalmente, debe absorber la radiación de rayos X de un forma
eficiente, con el fin de que el pulso de corriente eléctrica correspondiente a la señal de
salida, sea proporcional o una medida lo más exacta posible a la energía de los
electrones que llegan al mismo.
Para el caso del EDS, la energía de los rayos X incidentes causa un cierto número de
ionizaciones que crean un electrón de conducción por cada evento de ionización. Los
electrones creados por cada fotón (rayos X) son casi instantáneamente capturados por
efecto de un voltaje aplicado. Estos electrones son integrados por un amplificador de
señales con salida de pulsos con una altura proporcional a la energía de un fotón que lo
originó, estos pulsos de salida son medidos y contados por un analizador multicanal
(AMC). Con estas señales se construye un espectro de número de cuentas de rayos X
contra energía de los rayos x y el espectro se puede desplegar en imagen o en
impresión. El detector se mantiene a baja temperatura mediante nitrógeno líquido. Con
este tipo de análisis no todos los elementos pueden ser analizados, para el caso del EDS
utilizado, solo se puede analizar desde el carbono [118].
83
3.9 Caracterización Eléctrica: Medidas de Polarización Eléctrica
Las medidas eléctricas son medidas de caracterización ferroeléctrica, realizadas por un
equipo Precision Tester.
3.9.1 Sistema de Tierra Virtual
La familia de los Precision Tester está diseñada como un sistema de medida de Tierra
Virtual. Esto significa que el equipo normalmente mide la corriente que fluye a través de
la muestra en vez del voltaje aplicado a través de la misma [119]. Para entender el
sistema de Tierra Virtual es necesario conocer el sistema tradicional de medida llamado
Torre de Sawyer. La técnica de medida Torre de Sawyer es un método aceptado y
establecido para caracterizar dispositivos no-lineales. La Torre de Sawyer es un sistema
para medir capacitores no lineales. Este sistema consta de un capacitor posicionado en
serie con respecto al dispositivo a medir y mide la caída de voltaje a través de la muestra,
como lo esquematiza la figura 3-31 [119].
Figura 3-31: Configuración de la técnica Torre de Sawyer [119].
En el sistema de medida de Tierra Virtual el capacitor de prueba se reemplaza con un
circuito de medida conformado por un amplificador de transimpedancia, el cual es un
conversor de corriente a voltaje, y un circuito integrador, mostrado en la figura 3-32 [119].
84
En esta configuración, el amplificador de transimpedancia mantiene el terminal de retorno
del Precision tester a un potencial de Tierra Virtual. Toda la carga que fluye a través de la
muestra como resultado del voltaje aplicado se acumula por medio del circuito integrador.
El voltaje generado en la salida del integrador se mide y se traduce en los resultados
mostrados por el software.
Figura 3-32: Sistema de medida de Tierra Virtual [119].
En palabras más simples el sistema se puede considerar como un capacitor ferroeléctrico
conectado en serie con un capacitor lineal, los cuales están conectados en paralelo con
dos resistores en serie, de forma que toda la tensión eléctrica aplicada al sistema por
efecto del voltaje aplicado, esté sobre el capacitor ferroeléctrico y sea la misma sobre la resistencia que está conectada al integrador que mide finalmente la señal.
3.9.2 Medidas de Polarización Eléctrica
Como se mencionó en el capítulo anterior las medidas de polarización eléctrica en
función de un voltaje, constituyen herramientas estándar en la caracterización de
materiales ferroeléctricos. En este caso se aplica a la muestra una serie de voltajes, los
cuales siguen la forma de una señal de onda triangular bipolar. Para cada caso, la
corriente inducida en la muestra se integra y este es el valor de captura que es convertido en un valor de polarización (µ𝐶/𝑐𝑚2) siguiendo la siguiente ecuación [90]:
µ𝐶𝑐𝑚2 = 𝑄
Á𝑟𝑒𝑎= 𝐶𝑉
Á𝑟𝑒𝑎= 𝑉𝑜𝑙𝑡𝑎𝑗𝑒 𝑥 𝐶𝑎𝑝𝑎𝑐𝑖𝑡𝑎𝑛𝑐𝑖𝑎 𝑑𝑒 𝑃𝑟𝑢𝑒𝑏𝑎
Á𝑟𝑒𝑎 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 Ec. 46
La figura 3-33 [120] muestra la forma de la onda de voltaje aplicado y la polarización para
un ferroeléctrico característico. Como las medidas se realizan haciendo variaciones en el
85
voltaje aplicado, las gráficas se pueden obtener como Polarización eléctrica en función
del voltaje, aunque generalmente se presentan como polarización en función del campo.
Figura 3-33: Comparación entre el valor de polarización con la curva de voltaje aplicado para una muestra de PZNT (material ferroeléctrico característico) [120].
3.9.3 Medidas realizadas
Se realizaron medidas de polarización en función del voltaje aplicado dentro del intervalo
entre 100 V y 2000 V con incrementos de 100 V. Cada una de las medidas se realizó
utilizando una onda triangular bipolar con un período de 10 ms. Adicionalmente, se
realizaron medidas en el rango entre 2000 V y 4000 V con incrementos de 100 V entre
medidas y con un período de onda de 100 ms.
3.9.4 Especificaciones técnicas del Equipo
En el desarrollo del presente trabajo se ha utilizado un Polarímetro Radiant Technologies
INC (figura 3-34). Ferroelectric Test System, Model N0 PHVA10- OP110, operado con el software Vision versión 3.1. (1999)
86
Figura 3-34: Polarímetro Radiant y celda portamuestras.
3.10 Caracterización Magnética: Medidas de Magnetización en función de la Temperatura
Las medidas de magnetización en función de la temperatura se efectuaron usando un
magnetómetro MPMS (Magnetic Properties Measurement System). Los magnetómetros
son una ingeniosa combinación de uniones superconductoras que permiten detectar
campos magnéticos tan minúsculos que pueden llegar a ser hasta de un cuanto de flujo
magnético. Estos magnetómetros constan de un sensor SQUID (Superconducting
Quantum Interference Device) para la medición de momentos magnéticos bajo diferentes
condiciones experimentales (temperatura, frecuencia, etc) y con base en los cuales se
deducen tanto la magnetización 𝑀, como la susceptibilidad magnética 𝜒.
3.10.1 Magnetómetro: Descripción
El magnetómetro está compuesto por dos partes: una correspondiente al sistema
criogénico y otra correspondiente al sistema de control. La parte criogénica está formada
por un criostato superaislado que abriga los componentes magnéticos (magneto
superconductor o sensor SQUID) en la vara de medidas que se muestra en la figura 3-35
[121, 122].
87
Figura 3-35: Vara de medidas y estructura del criostato con los componentes magnéticos. En la figura del centro (A): 1- Asta de sujeción de la muestra, 2- Sistema de rotación del asta, 3- Transporte de la muestra, 4- Llave de seguridad, 5- Sensor de nivel de helio, 6- Solenoide
superconductor, 7-Impedancia, 8- Capsula del SQUID. Figura de la extrema derecha (B): 1- cámara de la muestra, 2- Espacio para la muestra, 3- Hoja aislante con calentador. 4- Región de aislamiento térmico, 5- Pared de vacío térmico, 6- Super aislamiento, 7- Pared de vacío externo,
8- Muestra, 9- Pared interna de bobina superconductora, 10- Hilo superconductor, 11. Pared externa de la bobina [121, 122].
El dispositivo SQUID presenta un anillo superconductor cerrado, con una o dos uniones
Josephson y a lo largo de cuyo recorrido circula una corriente eléctrica. La unión
Josephson es un sistema que funciona basado en el efecto túnel de pares de Cooper
propuesto en 1962 por B.D. Josephson [63]. El sistema SQUID MPMS presenta un
conjunto de anillos detectores SQUID enlazados con un sensor SQUID por medio de una
serie de conexiones superconductoras, entre las que se halla un transformador para la
reducción del ruido y una bobina de entrada de señal para que la corriente procedente de
los anillos detectores se acople inductivamente al sensor SQUID. A continuación se
encuentra una bobina que registra la señal de radiofrecuencia de salida del sensor
88
SQUID y la transmite a un amplificador de frecuencias VHF para reconvertir esta señal
en un voltaje analógico ajustado de manera estrictamente proporcional a la intensidad de
corriente circulante en la bobina de entrada del SQUID. La muestra se mide
habitualmente ejerciendo un movimiento repetitivo de ésta hacia arriba a lo largo de
cierta distancia y posteriormente leyendo el voltaje de salida del detector SQUID. Si el
voltaje del SQUID presenta un número suficientemente grande de datos puntuales,
entonces el voltaje puede ser representado gráficamente como una función de la posición
de la muestra. A una secuencia en serie de tales datos se le denomina escaneado.
El sistema de control es constituido por el computador, el cual maneja de manera
totalmente automática el equipo entero a través de una interface. Tres controladores,
comandados directamente por el computador mediante el software provisto por la
empresa productora Quantum Design, se encarga del funcionamiento del magnetómetro.
El primero es un controlador encargado de la traslación o transporte de la muestra, el
acoplamiento entre el detector y la fuentes de corriente para la bobina superconductora
son muy importantes para la operación de modo persistente. En otras palabras, el
controlador comanda todos los mecanismos mostrados en la figura 3-34. El segundo es
el controlador de gas. El tercer controlador es una fuente R/G que comanda el sensor de
temperatura y el de gas.
3.10.2 Medidas de Magnetización
La magnetización de una muestra se obtiene mediante la medición del momento
magnético de la muestra, ya sea en función del campo aplicado o en función de la
temperatura, y luego dividiendo el valor del momento entre el volumen o la masa de la
muestra utilizada. La muestra se magnetiza por medio de un campo magnético constante
y luego se mide el momento magnético. La medida de momento magnético en función
del campo aplicado se puede realizar partiendo de un campo cero, subiendo hasta el
valor máximo, disminuyendo este campo hasta invertirlo y luego volver a cero, de esta
forma se busca obtener la curva de histéresis del material. La medida de momento
magnético en función de la temperatura se puede realizar por medio de varios
procedimientos conocidos como Zero Field Cooling (ZFC) y Field Cooling (FC). En la
técnica ZFC, la muestra se enfría hasta bajas temperaturas en ausencia de campo
magnético, luego se aplica un campo y se va aumentando la temperatura mientras se
realiza la medida. En el procedimiento FC el sistema se enfría en presencia de un campo
89
y se puede realizar la medida tanto durante el enfriamiento (FCC: Field Cooled Cooling),
como durante un posterior calentamiento (FCW: Field Cooled Warming).
3.10.3 Medidas Realizadas
Por medio del equipo descrito anteriormente se realizaron medidas de magnetización en
función del campo aplicado a una temperatura de 20 K, subiendo hasta un campo de 50
kOe. También se realizaron medidas de magnetización en función de la temperatura para
campos aplicados de 100 Oe y 10 kOe, en el rango de temperatura de 3 a 300 K
siguiendo los procedimientos de enfriamiento en presencia de campo, FC (Field Cooling),
y enfriamiento. El equipo usado se muestra en la figura 3-36.
Figura 3-36: Magnetómetro SQUID utilizado en el proceso experimental.
90