Teoría del Caos. Un pequeño abordaje conceptual
Autor: Lic. Javier Krieger
Atividad científica | 13.09.2012
1
1
“TEORÍA DEL CAOS. UN PEQUEÑO ABORDAJE CONCEPTUAL”
EDWARD LORENZ, IN MEMORIAM
Lic. Javier Krieger
SECCIÓN 1) AZAR Y DETERMINISMO .............................................................................................................2
1.1) AZAR VERSUS DETERMINISMO.....................................................................................................................2
1.2) PROBABILIDAD ..........................................................................................................................................3
SECCIÓN 2) SISTEMAS..........................................................................................................................................6
2.1) SISTEMAS COMPLEJOS............................................................................................................................... 8
SECCIÓN 3) TEORÍA DEL CAOS .......................................................................................................................10
3.1) KHAÓS COMO COSMOVISIÓN. SU EVOLUCIÓN. ...........................................................................................10
3.2) SISTEMAS CAÓTICOS................................................................................................................................14
ANEXO: MATEMÁTICA CAÓTICA...................................................................................................................20
INTEGRACIÓN NUMÉRICA .......................................................................................................................................20
EL ATRACTOR DE LORENZ......................................................................................................................................21
EL ATRACTOR DE ROOSLER....................................................................................................................................22
2
2
SECCIÓN 1) AZAR Y DETERMINISMO
Azar1: palabra árabe az-zahr: para jugar. Casualidad, caso fortuito.
Corrientemente se atribuye al azar el hecho que por su naturaleza no parece deberse
a las causas que normalmente deberían producirlo.
1.1) Azar versus Determinismo
El azar y el determinismo son los conceptos responsables de la existencia de la
relación causa – efecto.
Para dar una idea correcta de lo que representa el azar, podemos mencionar el
siguiente modelo. Un experimento es una acción que se ejerce sobre un determinado
segmento del universo con el fin de obtener información útil acerca de él. A un
experimento se lo define con la cualidad de aleatorio cuando los resultados que arroja
no pueden ser conocidos a priori. Un suceso aleatorio es un resultado específico del
experimento aleatorio. El conjunto de sucesos aleatorios conforma el espacio muestral.
Un suceso aleatorio lo es intrínsecamente, es decir, lo es por la imposibilidad de
predeterminar al momento de realizar el experimento el valor futuro que adoptará. Esa
imposibilidad es consecuencia de la ausencia de patrones o leyes que describan el
comportamiento del espacio muestral y permitan el conocimiento del mismo. Es decir,
no existen maneras de poder determinar un suceso futuro en función del conocimiento
de un suceso ya ocurrido. En la relación causa – efecto, los sucesos ocurridos no
pueden ser considerados causas de los sucesos que ocurrirán. La secuencia en que
éstos aparecen depende del azar.
Por otra parte, cuando a un suceso sólo puede seguirle otro específico, se habla de
determinismo. Al analizar la forma en que diversos sucesos pueden determinarse entre
sí, surgen los diferentes tipos de condicionamiento que pueden existir entre uno y otro,
a saber2:
1. Condiciones necesarias: son aquellas sin las cuales es imposible que ocurra un
determinado fenómeno. Es necesario, imprescindible, que estén presentes para
1 Diccionario Enciclopédico Quillet, Tomo I 2 Carlos A. Sabino, “El proceso de investigación”, pág. 75, Editorial Lumen Humanitas
3
3
que el hecho se produzca, aunque esto no quiere decir que cada vez que se
encuentren presentes ocurra el fenómeno.
2. Condiciones suficientes: se refieren a circunstancias que, siempre que aparecen,
desencadenan el suceso en estudio, aunque no es necesario que ellas estén
presentes para producirlo, dado que otras condiciones pueden también
ocasionarlo.
3. Condiciones contribuyentes: son aquellas que favorecen de manera decisiva el
suceso investigado y que generalmente suelen producirlo, aunque no alcancen un
determinismo que pueda ser considerado necesario o suficiente.
4. Condiciones contingentes: son circunstancias que, pudiendo favorecer la
ocurrencia del hecho en estudio, se presentan sólo eventualmente, pudiendo estar
ausentes por completo en la mayoría de los casos.
Solamente cuando se pueda sostener que un hecho es a la vez condición necesaria y
suficiente de otro se puede afirmar que se esta presencia de la causa de dicho suceso.
1.2) Probabilidad En aquellos escenarios aleatorios, en los que intervienen los conceptos de
experimento aleatorio y suceso aleatorio, se hace presente un concepto cuyo objetivo
es aportar información acerca de las posibilidades futuras de ocurrencia de los
sucesos aleatorios. Es el concepto de probabilidad.
La probabilidad es una unidad de medida de la incertidumbre acerca de la ocurrencia
de determinado suceso aleatorio. Aporta información acerca de la propensión a ocurrir
de dicho suceso.
Su cálculo puede estar determinado por situaciones en las que se tiene completa
información y conocimiento del escenario o contexto en el cual se desarrolla el
experimento, sin que esto implique un corte en la secuencia azarosa en la que se
presentan los sucesos. Si esto no ocurre, la probabilidad se obtiene por medio de su
definición clásica, basada en el principio de razón insuficiente, que establece la
equiprobabilidad de cada uno de los sucesos: La probabilidad de ocurrencia de un
suceso es la relación del número de casos favorables para el suceso cuya probabilidad
se busca y el número de casos igualmente posibles.
P(s) = n / N
4
4
Donde
N = casos posibles
n= casos favorables
Si 0 n N 0 P (s) 1
Si S = n = 0 P(s) = 0
Otra forma para calcular su valor está determinada por la definición empírica de
probabilidad. Este es un método a posteriori, es decir que se basa en la experiencia,
en el conocimiento de la frecuencia en que los sucesos aleatorios se va desarrollando.
Cuando un experimento se repite un gran número de veces (n), las fluctuaciones de
las frecuencias relativas (ns / n) disminuyen considerablemente cuando n es
suficientemente grande. Esto significa que a medida que n crece la frecuencia relativa
se aproxima a la probabilidad de ocurrencia:
ns / n = P(s) , a medida que n crece
Donde
0 ns/n 1 0 P(s) 1
No se sustenta en el principio de razón insuficiente porque es una probabilidad
a posteriori y no a priori
La frecuencia relativa se considera sólo una estimación de la probabilidad
Si se construye un modelo en el cual a cada uno de todos los posibles resultados de
un experimento aleatorio se le asigna un número (probabilidad) en base a
determinados axiomas específicos predeterminados, el valor que se obtiene surge del
método axiomático de la probabilidad, en donde:
Si s es el suceso cuya probabilidad de busca P(s) 0
Si u representa al espacio muestral P(u) = 1
No es sustenta en el principio de razón insuficiente ya que no se basa en
sucesos equiprobables
Contribuye a establecer un concepto abstracto de la probabilidad por no
basarse en experimentos reales
5
5
Existen escenarios en los que el suceso no haya ocurrido nunca o su ocurrencia sea
esporádica, y su probabilidad sea determinada por el investigador en base a criterios
puramente subjetivos. En éstos casos el cálculo se determina por la definición
subjetiva de probabilidad.
6
6
SECCIÓN 2) SISTEMAS
Sistema1: palabra griega Sýstema: conjunto de cosas que ordenadamente
relacionadas entre sí contribuyen a determinado objeto.
De esta definición se desprenden dos implicancias fundamentales. Primero, que en
todo sistema existe una influencia mutua entre sus elementos componentes, es decir,
que el cambio experimentado en uno de ellos repercute y afecta inevitablemente al
resto. Segundo, que una serie de elementos reunidos que no persigue un propósito
común, es decir un conjunto, no constituye un sistema. Para poder describir
correctamente el comportamiento de un sistema es necesario conocer, además de sus
elementos componentes, las interacciones entre ellos.
Un sistema es más que la simple suma de sus elementos constitutivos ya que,
primero, emergen propiedades nuevas que no pueden atribuirse a ninguno de ellos y,
segundo, se reprimen o inhiben algunas de sus propiedades intrínsecas.
Las relaciones son los enlaces que vinculan entre sí a los elementos componentes y
se clasifican de la siguiente manera:
1. Simbióticas: son aquellas en que los sistemas conectados no pueden seguir
funcionando solos. A su vez puede dividirse en:
1.1 Unipolar: un elemento componente no puede existir sin otro
1.2 Bipolar: cuando ambos elementos son autodependientes
2. Sinérgicas: son aquellas relaciones que no son necesarias para el funcionamiento
del sistema, pero que resultan útiles, ya que su desempeño mejora
sustancialmente el rendimiento del sistema. Sinergia significa “acción combinada”,
sin embargo, para la Teoría de Sistemas el término es más que el esfuerzo
cooperativo. En las relaciones sinérgicas la acción cooperativa de elementos
semiindependientes, tomados en forma conjunta, genera un resultado final mayor
que la suma de sus resultados tomados en forma independiente.
3. Superfluas: son aquellas que repiten otras relaciones.
Todo sistema se encuentra inmerso en un contexto o medio ambiente que lo afecta de
diferentes maneras. Ese contexto, por su parte, también se ve influenciado por el
sistema. Estas dos interacciones se determinan en la relación contexto – sistema.
1 Diccionario Enciclopédico Quillet, Tomo VIII
7
7
Tanto en la Teoría de sistemas como en el método científico, existe un concepto que
es común a ambos: el foco de atención, es decir, el límite de interés, el elemento que
se aísla para ser estudiado.
Para determinar este límite se consideran dos etapas por separado:
1. La determinación del contexto de interés
2. La determinación del alcance del límite de interés entre el contexto y el sistema
Para medir la influencia que el contexto ejerce sobre el sistema se utiliza el concepto
de permeabilidad. Los sistemas escasamente permeables son aquellos que no
intercambian materia, energía o información con el contexto. Esta clase de sistemas se
conoce como sistemas cerrados. Por el contrario, los sistemas que sí presentan
intercambio de materia, energía o información con el contexto son conocidos como
sistemas abiertos. A su vez, dentro de la clasificación de sistemas abiertos, se
encuentran los que son influidos pasivamente por el contexto, llamados no adaptativos
y los que reaccionan y se adaptan al entorno, llamados sistemas adaptativos.
Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o
no su estado interno a medida que transcurre el tiempo. Un sistema particular que, a
pesar de estar inmerso en un entorno cambiante mantiene su estado interno se
denomina homeostático. Es decir, que la homeostasis define la tendencia de un
sistema a su supervivencia dinámica. Los sistemas altamente homeostáticos siguen
las transformaciones del contexto a través de ajustes estructurales internos. No
obstante , si el sistema no puede acomodarse al esfuerzo tensional que padece por
parte del contexto, modificando su estructura o su función, puede transformarse o
deteriorarse total o parcialmente, temporal o definitivamente.
La entropía es el desgaste que el sistema presenta por el transcurso del tiempo o por
su propio funcionamiento. Los sistemas altamente entrópicos tienden a la desaparición
como consecuencia del desgaste generado por su proceso sistémico. En los sistemas
cerrados la entropía siempre adopta valores positivos, es decir, influye negativamente
en el funcionamiento del sistema, mientras que en los sistemas abiertos la entropía
puede reducirse significativamente e incluso adoptar valores negativos, es decir,
transformarse en generadora de procesos de organización.
Las entradas son los ingresos del sistema que pueden ser recursos materiales,
humanos o información y constituyen el impulso que genera el funcionamiento del
sistema. Las salidas son los resultados que se obtienen como consecuencia del
proceso que el sistema aplica a las mismas.
8
Los operadores son los elementos del sistema que logran influir decisivamente en el
proceso para que éste se ponga en funcionamiento. Los restantes elementos no
solamente son influidos por los operadores, sino también por los demás elementos.
Todos los demás elementos influyen sobre los operadores.
Cuando las salidas del sistema, o la influencia de las salidas del sistema en el
contexto, vuelven a ingresar al sistema se produce la retroalimentación, que permite el
control de un sistema y que el mismo adopte medidas de corrección en base a la
información retroalimentada. Cuando el control del sistema se realiza en la entrada del
mismo, se produce el feedforward o alimentación delantera. Este control permite que el
sistema no tenga entradas corruptas, de ésta manera, al producirse fallas en las
salidas, éstas no serán consecuencia de las entradas, sino de la configuración
intrínseca del proceso.
Los sistemas centralizados son aquellos que tienen un núcleo que comanda a todos
los demás, y éstos, para su activación, dependen del primero. Por el contrario los
sistemas descentralizados son aquellos en los cuáles el núcleo de comando está
conformado por varios elementos componentes. En éste caso el sistema no es tan
dependiente, sino que puede contar con elementos componentes que actúen de
reserva y que sólo entran en funcionamiento cuando falla el elemento que debería
actuar en determinada situación.
2.1) Sistemas complejos Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento
es imprevisible. Presentan las siguientes características:
1. Están compuestos por una gran cantidad de elementos relativamente idénticos .
2. La interacción entre sus elementos es local y origina un comportamiento
emergente que no puede explicarse a partir de dichos elementos tomados
aisladamente.
3. Es muy difícil predecir su evolución dinámica futura
La mayoría de los sistemas complejos son inestables, se mantienen delicadamente
equilibrados. Cualquier variación mínima entre sus elementos componentes puede
modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento
de todo el sistema. De esta manera, la evolución de ésta clase de sistemas se
caracteriza por la intermitencia, es decir, por aquella situación en la cual el orden y el
desorden se alternan constantemente. Sus estados evolutivos no transcurren a través
9
de procesos continuos y graduales, sino a través de reorganizaciones y saltos. Cada
uno de éstos estados es sólo una transición, un período de reposo entrópico.
Son sistemas que nunca llegan al óptimo global, en general crecen progresivamente
hasta que llegan al límite de su desarrollo potencial. En ese instante sufren un
desorden que induce una fragmentación del orden preexistente. Pero después
comienzan a surgir regularidades que organizan al sistema de acuerdo a nuevas leyes,
produciendo otra clase de desarrollo.
El orden y el desorden se necesitan uno al otro, se producen mutuamente. En otras
palabras, son definiciones antagónicas pero al mismo tiempo complementarias. La
variación y el cambio son etapas inevitables e ineludibles por las cuales debe transitar
todo sistema complejo para crecer y desarrollarse. Cuando esta transformación se
logra sin que intervengan factores externos al sistema, se denomina proceso de
autoorganización.
La autoorganización es la forma a través de la cual el sistema recupera el equilibrio,
modificándose y adaptándose al contexto que lo rodea y contiene. Los sistemas
autoorganizados se mantienen en el estrecho límite que oscila entre el orden
inmutable y el desorden total. Una condición muy especial, con suficiente orden para
poder desarrollar procesos y evitar la extinción, pero con una cierta dosis de desorden
como para ser capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que
se conoce actualmente como “el borde del caos”.
10
SECCIÓN 3) TEORÍA DEL CAOS
Caos1: palabra griega khaós: abismo. Confusión, desorden.
Teoría del caos: teoría matemática que se ocupa de los sistemas que presentan un
comportamiento impredecible y aparentemente aleatorio aunque sus componentes
estén regidos por leyes estrictamente deterministas.
Antiguamente la palabra Caos definía aquellas situaciones de total desorden y falta de
control. Esta acepción persiste aún en la actualidad, pero desde la década del 70 fue
evolucionando y madurando en función de los avances y descubrimientos que se han
desarrollado en la ciencia a raíz del análisis y estudio de los sistemas caóticos. Como
consecuencia de la comprensión más madura y científica del comportamiento de
dichos sistemas es que el significado de la palabra Caos se modificó, a tal punto que
la nueva concepción de Caos es totalmente antagónica a la anterior. La definición más
ampliamente aceptada en la actualidad es que el caos y el orden no son más que
diferentes facetas de una misma realidad.
3.1) Khaós como cosmovisión. Su evolución. En sus orígenes, Caos designaba aquel estado opuesto a Cosmos, en donde éste era
utilizado para definir aquellas situaciones de completo control y determinación. Se
consideraba al Universo un ámbito en donde el orden era predominante, con pequeños
espacios para situaciones de desorden. Actualmente se sabe que realmente ocurre lo
contrario, es decir, que son escasas aquellas situaciones de perfección en un Universo
regido por lo aparentemente aleatorio pero determinable y complejo.
Desde el principio de las culturas el hombre se ha preguntado acerca de los
fenómenos naturales y sus orígenes. En el siglo VI a.c., en Grecia, se comenzaron a
buscar causas racionales que dieran cuenta de toda la realidad. Finalmente, en el siglo
IV a.c. Aristóteles reseña todo el conocimiento producido hasta el momento.
En la filosofía aristotélica cada ente tiene un fin y, en la medida que lo alcanza,
mantiene el orden universal. En este marco la física, ciencia del movimiento, es la
encargada de buscar la explicación a esa naturaleza constituida por entes en perpetua
mutación. En consecuencia la naturaleza es el conjunto de entes corpóreos y
cambiantes. La tierra es el centro mismo del cosmos, alrededor de ella giran en esfera
1 Diccionario Enciclopédico Quillet
11
concéntricas los demás astros: la Luna, el Sol, Venus, Mercurio, Marte, Júpiter,
Saturno y la esfera de las estrellas fijas, que es la esfera exterior del cosmos. Los
cuerpos celestes constituidos son transportados alrededor de la tierra eternamente y
con velocidad constante a lo largo de circunferencias cristalinas concéntricas. Para la
cosmología aristotélica el universo está dividido en dos regiones cualitativamente
diferentes: el mundo sublunar y el mundo supralunar. Esta cosmovisión postula un
cosmos finito, cerrado y rigurosamente estructurado, en el cual la distinción entre las
dos regiones no surge solamente por su ubicación, sino por las diferencias de
naturaleza. En el mundo sublunar reina la imperfección, es un mundo caótico; mientras
que en el mundo sublunar reina la armonía, es un mundo cósmico.
“Todo, orden cósmico, armonía: éstos conceptos implican que en el universo las cosas
están distribuidas y dispuestas en un cierto orden determinado, que su localización no
es indiferente ni para ellas ni para el universo; que, al contrario, cada cosa tiene, según
su naturaleza, un puesto determinado en el universo, el suyo propio. Un lugar para
cada cosa y cada cosa en su lugar”4.
Luego de los trabajos y aportes de Copérnico, y con la llegada de la ciencia moderna y
su nueva y revolucionaria cosmovisión, se quiebra la cosmovisión aristotélica. La
concepción aristotélica de la naturaleza había dominado el saber sobre la naturaleza
hasta fines del siglo XVI, momento en que se produce una fractura histórica en el
campo del pensamiento, la llamada revolución copernicana. Galileo y Kepler
contribuyen a construir la nueva ciencia siguiendo el camino abierto por Copérnico.
Con la ciencia moderna surge la física clásica. Una de sus propiedades básicas es el
carácter determinista y reversible. Dadas unas condiciones iniciales apropiadas, es
posible predecir con exactitud la trayectoria de cualquier móvil y, de ese modo, se
hace evidente la desaparición de la noción de tiempo. De ésta manera predicción y
retrodicción son idénticos: pasado y futuro están contenidos en la rigurosa descripción
de los estados instantáneos. “El universo visto como un entramado de procesos
reversibles, que no posee ninguna historia, sólo prosigue hasta el infinito su monótono
juego de trayectorias. En éste espectáculo de orden y armonía, el hombre está
excluído”5. La física clásica transformó a la naturaleza en un escenario en donde no
4 A. Koyré, “Estudios de historia del pensamiento científico”, pág, 158, Editorial Siglo XXI 5 Alejandro Cerletti, “La producción de los conceptos científicos”, pág. 160, Editorial Biblos, compilación
por Esther Díaz
12
importa la noción de tiempo. Un mundo autómata, totalmente previsible y por lo tanto,
manipulable.
Las ciencias físico matemáticas han operado como paradigmas de las demás ciencias
desde el siglo XVII en adelante. La formulación de la Ley de conducción del calor, a
comienzos del siglo XIX, da nacimiento a la termodinámica. Se trata del primer
proceso intrínsecamente irreversible que llama la atención a las concepciones
reversibilistas y deterministas de la naturaleza. A partir de éste momento se comienza
a pensar en que los procesos a los que se tiene acceso en la naturaleza contienen
elementos aleatorios e irreversibles. Para Ilya Prigogine, éste fue el comienzo de un
camino que llevaría a una descripción más adecuada de los procesos naturales.
En éstos procesos lo artificial es determinista mientras que lo natural contiene
elementos esenciales de azar e irreversibilidad. En éstos procesos existirá una flecha
del tiempo, ya que no se podrá encontrar una evolución natural, en la que se pueda
imaginar que un sistema vuelva a su estado inicial situándose exactamente en las
mismas condiciones de las que partió.
Si se dispusiera de dos recipientes con líquido, uno a elevada y otro a baja
temperatura, al ser mezclados el líquido de mayor temperatura cederá calor al de
menor, que aumentará la suya hasta alcanzarse un equilibrio térmico en todo el líquido
a una temperatura intermedia. Luego, si se pretendiera volver el proceso hacia atrás,
se comprobaría que sería imposible llegar al estado de partida sin violar leyes
naturales. Procesos como éste son eminentemente irreversibles. Para ellos el sentido
del tiempo no es indiferente, tiene una orientación única, que es aquella en la cual se
desarrollan los cambios.
A raíz de los estudios realizados en la termodinámica, ha sido modificada la idea de
fenómenos reversibles. La estrategia adoptada para su estudio fue asemejar lo más
posible los fenómenos irreversibles a los reversibles, para lo que debía trabajarse
intentando mantener el sistema en estado de equilibrio, o lo más cercano a ello. Todo
proceso natural poco alejado del equilibrio evoluciona espontáneamente hacia él.
La entropía es una función que caracteriza el estado de un sistema. En ciertas
circunstancias en los sistemas que no están en equilibrio se pueden distinguir
aspectos estructurados o diferenciados. Cuando el sistema evoluciona hacia el
equilibrio se va desorganizando o desordenando. El desequilibrio inicial del sistema de
los recipientes con líquido al ser mezclados los contenidos, se modifica en una
dirección determinada.
13
Todas éstas evoluciones transcurren en una dirección determinada: del desequilibrio al
equilibrio, de un mayor nivel de estructuración a uno menor, de formas de
ordenamiento al desorden, del orden al caos. La evolución irreversible está marcada
por la flecha del tiempo: el estado final es irremediablemente distinto al inicial.
“A partir de los estudios en termodinámica realizados por Ilya Prigogine se supo que
no siempre un sistema físico evoluciona necesariamente hacia el desorden. La
termodinámica clásica concentraba su estudio en sistemas poco alejados del
equilibrio. Prigogine, por el contrario, se dedicó a trabajar con sistemas muy alejados
del equilibrio y en ese campo concluyó que la irreversibilidad puede tener un papel
constructivo. A partir de la termodinámica de los procesos irreversibles descubrió que
en ciertos sistemas muy alejados del equilibrio, se pueden generar fenómenos de
autoorganización espontánea, es decir, evoluciones hacia una complejidad y
diversidad crecientes. La disipación de energía entonces no sólo es fuente de
desorden, es posible hallar nuevos ordenamientos que proceden de transformaciones
intrínsecamente irreversibles. A éstas formas de organización las llamó estructuras
disipativas“5.
“El reencuentro de la ciencia con el tiempo irreversible, en tanto dirección privilegiada
de toda evolución, junto a la conjugación del azar y la necesidad en los procesos
naturales, ponen fin al ideal omnisciente de poder llegar a determinar todo el universo,
pasado y futuro, a partir del conocimiento riguroso del presente”5.
“La noción de caos nos obliga a reconsiderar la noción de Leyes de la naturaleza. En
la perspectiva clásica, una ley de la naturaleza estaba asociada a una descripción
determinista y reversible del tiempo. Futuro y pasado desempeñaban en ella un mismo
papel. La introducción del caos nos obliga a reconsiderar nuestra descripción
fundamental de la naturaleza”6.
“El caos siempre es consecuencia de inestabilidades. En los sistemas inestables una
perturbación se amplifica, unas trayectorias inicialmente cercanas se separan La
inestabilidad introduce aspectos nuevos esenciales. Lo interesante es buscar la
relación entre la inestabilidad y conceptos fundamentales como el determinismo y la
irreversibilidad. Surge un nuevo enfoque para abordar todos éstos problemas. Por eso, 5 Alejandro Cerletti, “La producción de los conceptos científicos”, pág. 164, Editorial Biblos, compilación
por Esther Díaz
6 Ilya Prigogine, “Las leyes del caos”, pág. 15, Editorial Crítica
14
cuando se tiene en cuenta al caos, se pude hablar de una nueva formulación de las
leyes de la naturaleza”6.
3.2) Sistemas caóticos Aquellos sistemas dinámicos no lineales que se comportan de manera muy compleja
reciben el nombre de sistemas caóticos.
La característica fundamental de éste tipo de sistemas es que son hipersensibles a las
condiciones iniciales. Es decir, que ante un cambio insignificante en las condiciones de
partida, el proceso del sistema lo amplifica exponencialmente de manera tal que el
resultado final difiere significativamente. Configuraciones iniciales casi idénticas,
sometidas a influencias externas casi idénticas, acaban transformándose en
configuraciones finales absolutamente diferentes. Por éste motivo puede afirmarse que
“los sistema caóticos parecen o se presentan como aleatorios aunque, en realidad, se
trata de sistemas deterministas. Las consecuencias de que un sistema caótico sea
determinista es que su estado actual determina su estado futuro. Su comportamiento
se explica a través de leyes específicas de evolución dinámica y queda condicionado
por las acciones iniciales que se ejerzan sobre él”7.
Las condiciones iniciales no tienen porqué ser las existentes al momento de creación
del sistema. Generalmente son las condiciones que se dan al comienzo de un
experimento aleatorio o de un cálculo, pero también pueden ser las que se dan al
principio de un período de tiempo que interesa al investigador, de manera tal que el
entendimiento del significado de condiciones iniciales para una persona pueden ser
condiciones intermedias o finales para otra.
La dependencia sensible no es sólo el incremento de la diferencia entre dos estados
que van evolucionando con el tiempo, ya que existen sistemas deterministas en los
que una diferencia inicial de una unidad entre dos estados llega a incrementarse hasta
un centenar de unidades, mientras que una diferencia de una centésima o incluso de
una millonésima, también llega a incrementarse hasta un centenar de unidades,
aunque en éste segundo caso será necesario un mayor intervalo temporal; mientras
que también existen sistemas deterministas en los que un incremento de una unidad
se incrementa también un centenar de unidades, pero una diferencia de un centésimo
6 Ilya Prigogine, “Las leyes del caos”, pág. 14, Editorial Crítica 7 Eduardo Carbón Posse, “Teoría del caos, ¿caprichosas leyes del azar?”, pág. 7, Editorial Longseller
15
se incrementa también en una unidad. Aunque ambos tipos de sistemas presentan
características muy similares, sólo a los primeros se los considera caóticos.
La causa de la estructura caótica de éste tipo de sistemas no reside en la cantidad de
variables intervinientes en sus procesos, sino en la configuración intrínseca de las
mismas, en aquellas características particulares que generan esa hipersensibilidad a
las condiciones iniciales. Dicha hipersensibilidad es la causa que imposibilita predecir
los comportamientos futuros del sistema más allá del corto plazo.
Ejemplos de sistemas caóticos se encuentran muy a menudo en la naturaleza, como
por ejemplo, las variaciones climáticas, los fluidos en un régimen turbulento, las
reacciones químicas, la propagación de enfermedades infecciosas, los procesos
metabólicos de las células, los movimientos de grupos animales, la aparición
aperiódica de epidemias, la arritmia del corazón, la red neuronal del cerebro humano,
etc.
Existen dos tipos de procesos de sistemas caóticos, aquellos que avanzan paso a
paso, en forma discreta, y aquellos que avanzan constantemente, en forma continua.
Los primeros son conocidos como aplicaciones mientras que los segundos como
flujos.
La Teoría del caos está compuesta por un cúmulo de herramientas matemáticas cuyo
objetivo es la descripción de los comportamientos de los sistemas caóticos.
Las herramientas utilizadas para describir las aplicaciones son las ecuaciones en
diferencias, que consisten en un conjunto de fórmulas que, una vez resultas, los
resultados tomados en forma integral expresan los valores de todas las variables del
siguiente paso en función de los valores del paso que está teniendo lugar en el
momento presente. Por otro lado, las herramientas aplicadas a los flujos son las
ecuaciones diferenciales, que equivalen a un conjunto de fórmulas que conjuntamente
expresan las tasas de cambio de las variables en función de los valores actuales de
esas variables. Un solución completa de un sistema de ecuaciones diferenciales
contendrá expresiones que darán los valores de las variables en cualquier instante
dado en función de los valores que tuvieran en cualquier instante anterior. Cuando se
trate de aplicaciones, las expresiones serán un conjunto de ecuaciones en diferencias
obtenidas del sistema de ecuaciones diferenciales. Es decir, una aplicación puede ser
derivada de un flujo.
16
3.2.1) Atractores
Cuando se utilizan ecuaciones matemáticas para describir el comportamiento de un
sistema, se podrá determinar a posteriori, un gráfico representativo de los estados
adoptados por el mismo. Este gráfico recibe el nombre de atractor y presenta
estructura fractal.
Al observar los hechos del mundo real se puede determinar con facilidad que
cualquier sistema se comportará en función a un determinado número de estados y
que otros no sólo no los abordará nunca, sino que será imposible que ello suceda. Tal
es el caso, por ejemplo, de una bandera que se encuentra flameando por la acción
ejercida por el viento. En este sistema, se podrá observar que la bandera nunca
flameará en contra de la dirección del viento.
En forma general, los estados que puede adoptar cualquier sistema se encontrarán
dentro de un rango de comportamientos determinados, pudiendo asumir cualquiera de
ellos, pero no cualquiera en sentido general.
Los estados de un sistema que se dan una y otra vez o que son aproximadamente los
mismos cada vez pertenecen al conjunto de los atractores.
FIG. 1 – Atractor de Lorenz
17
En el anexo detallaremos las ecuaciones necesarias para la construcción de los
atractores de Roosler y de Lorenz así como los valores que deben adoptar las
variables intervinientes del sistema.
Al atractor que consiste en un número infinito de curvas, superficies
multidimensionales, dándose generalmente en espacios paralelos con un vacío entre
dos puntos cualesquiera del espacio, se lo llama atractor extraño.
Cuando se tienen que representar gráficamente los estados de un sistema que posee
una cantidad de variables superior a tres, en los que cada una de ellas corresponde a
una dimensión, es imposible hacerlo en un gráfico de coordenadas cartesianas,
porque en ellos sólo pueden representarse situaciones que como máximo son
tridimensionales (altura, profundidad y ancho). Sin embargo se pueden esquematizar
Fig. 2 – Atractor de Roosler visto desde diferentes escalas
18
en un hipotético espacio multidimensional, denominado espacio multidimensional de
las fases, en el cual cada punto representa un estado concreto del sistema. Las
coordenadas del punto son numéricamente iguales a los valores que las variables
asumen cuando se da dicho estado. Una solución específica de las ecuaciones
descriptoras de flujos o aplicaciones se representa mediante una curva, llamada órbita.
Atractor y representación gráfica en el espacio multidimensional de las fases son
sinónimos. En este marco, un punto es un estado y una órbita es una secuencia
cronológica de estados.
El proceso de convertir un flujo en una aplicación con un espacio de fase de dimensión
inferior fue creado por Henri Poincaré. Las secciones transversales de un flujo, son
denominadas secciones de Poincaré, mientras que las aplicaciones obtenidas de
secciones de Poincaré se denominan aplicaciones de Poincaré.
3.2.2) Geometría fractal
La geometría fractal está compuesta por estructuras que tienen dos propiedades
intrínsecas fundamentales . La primera de ellas es la dimensión fraccionaria.
Las estructuras fractales tienen dimensión decimal, es decir, una dimensión
numéricamente situada entre dos números enteros. Así, un fractal con dimensión
situada en el intervalo (1.2) es una superficie no delimitada por una curva o un
conjunto de rectas, pero que no lega a ser un plano. Si ésta estuviera en el intervalo
(0.1) la estructura sería un conjunto de puntos alineados que no llegan a constituir una
recta, pese a ser infinitos y a estar infinitamente próximos entre sí. La dimensión fractal
de un objeto es un parámetro de la capacidad de éste de ocupar espacio físico,
independientemente de la estructura geométrica del mismo. El fractal se extiende por
el espacio de dimensión menor de las dos entre las que se encuentra repitiendo un
mismo motivo indefinidamente, hasta superar esa dimensión.
La segunda propiedad fundamental es la autosemejanza. Con esta propiedad las
estructuras fractales poseen la misma estructura cualquiera sea la escala en la que se
observan, es decir, a través de sucesivas aproximaciones se repite su forma
fundamental y conserva el mismo aspecto.
En general, las formas encontradas en la naturaleza son ejemplos de fractales: vasos
sanguíneos y sus capilares, árboles, vegetales, nubes, montañas, grietas tectónicas,
19
franjas costeras, cauces de ríos, copos de nieve y una gran cantidad de otros objetivos
difíciles de describir por la geometría euclidiana.
Los objetos con estructura fractal se generan por la repetición incansable de un
proceso especificado e ínfimas modificaciones en las condiciones iniciales o en los
parámetros de ese proceso pueden provocar imprevisibles cambios finales. Es por
esto que la mayoría de los sistemas caóticos originan estructuras fractales.
20
ANEXO: MATEMÁTICA CAÓTICA
Integración numérica Al enfrentarse a las ecuaciones diferenciales que describen comportamientos caóticos
normalmente no pueden hallarse soluciones generales, y las aproximaciones suelen
determinarse mediante métodos de integración numérica.
Existen muchos procedimientos de integración numérica, pero uno de los más
conocidos es el esquema Runge – Kutta de cuarto orden.
Para resolver un sistema como el siguiente
dX / dt = F(X,Y)
dY / dt = G(X,Y)
se escoge un incremento de tiempo t y luego, para hallar X(t+ t) e Y(t+ t) cuando se
conocen X(t) e Y(t) en determinado tiempo t, sean
Xo = X(t)
X1 = Xo + F(Xo, Yo) t/2
X2 = Xo + F(X1, Y1) t/2
X3 = Xo + F(X2, Y2) t/2
X4 = Xo – F(X3, Y3) t/2
X(t+ t) = (X1 + 2X2 + X3 – X4) / 3
Expresiones análogas se pueden registrar para Y. El procedimiento puede reiterarse
tantas veces como se desee, utilizándose como valor de t en cada iteración el antiguo
valor de (t+ t).
El método proporciona resultados precisos cuando t es suficientemente pequeño,
pero pueden ocurrir resultados muy extravagantes con valores t grandes.
21
El atractor de LorenzLas ecuaciones que producen el atractor de Lorenz son las siguientes
dx / dt = - x + y
dy / dt = -xz + rx –y
dz / dt = xy - bz
Las tres constantes b, y r determinan el comportamiento del sistema y para obtener
el atractor deben tomar los siguientes valores
b = 8/3
= 10
r = 28
Determinando valores adecuados para t, x, y, z, resolviendo las ecuaciones por algún
procedimiento de integración numérica, como por ejemplo el esquema Runge – Kutta,
iterando la integración en una cantidad no inferior a 4000 veces y representando los
valores de z en relación a los valores de x, se obtendrá el atractor de Lorenz.
Atractor de Lorenz
22
El atractor de Roosler Las ecuaciones que producen el atractor de Roosler son las siguientes
dx / dt = - y - z
dy / dt = x + ay
dy / dt = b + z (x-c)
Los valores que determinan su comportamiento son a, b y c. Para obtener el atractor
deben tomar los siguientes valores
a = b = 0.2
c = 5.7
Atractor de Roosler
23
BIBLIOGRAFÍA
Diccionario enciclopédico Quillet
Eduardo Carbón Posse, “La Teoría del caos, ¿caprichosas leyes del azar?”,
editorial Longseller, año 2001
Gabriela Kurinsic, “Estadística: probabilidades y distribuciones”, editorial
Ediciones Cooperativas, año 2001
César Monroy Olivares, “La teoría del caos”, alfaomega grupo editor, año 1997
Ilya Prigogine, “Las leyes del caos”, editorial crítica, año 1999
Edward Lorenz, “La esencia del caos”, editorial Debate pensamiento, primera
reimpresión, año 2000
Carlos A. Sabino, “El proceso de investigación”, pág. 75, Editorial Lumen
Humanitas