24
Teoría del Caos. Un pequeño abordaje conceptual Autor: Lic. Javier Krieger Atividad científica | 13.09.2012

Krieger_actividad cientifica 13-09-12.pdf

Embed Size (px)

Citation preview

Page 1: Krieger_actividad cientifica 13-09-12.pdf

Teoría del Caos. Un pequeño abordaje conceptual

Autor: Lic. Javier Krieger

Atividad científica | 13.09.2012

Page 2: Krieger_actividad cientifica 13-09-12.pdf

1

1

“TEORÍA DEL CAOS. UN PEQUEÑO ABORDAJE CONCEPTUAL”

EDWARD LORENZ, IN MEMORIAM

Lic. Javier Krieger

SECCIÓN 1) AZAR Y DETERMINISMO .............................................................................................................2

1.1) AZAR VERSUS DETERMINISMO.....................................................................................................................2

1.2) PROBABILIDAD ..........................................................................................................................................3

SECCIÓN 2) SISTEMAS..........................................................................................................................................6

2.1) SISTEMAS COMPLEJOS............................................................................................................................... 8

SECCIÓN 3) TEORÍA DEL CAOS .......................................................................................................................10

3.1) KHAÓS COMO COSMOVISIÓN. SU EVOLUCIÓN. ...........................................................................................10

3.2) SISTEMAS CAÓTICOS................................................................................................................................14

ANEXO: MATEMÁTICA CAÓTICA...................................................................................................................20

INTEGRACIÓN NUMÉRICA .......................................................................................................................................20

EL ATRACTOR DE LORENZ......................................................................................................................................21

EL ATRACTOR DE ROOSLER....................................................................................................................................22

Page 3: Krieger_actividad cientifica 13-09-12.pdf

2

2

SECCIÓN 1) AZAR Y DETERMINISMO

Azar1: palabra árabe az-zahr: para jugar. Casualidad, caso fortuito.

Corrientemente se atribuye al azar el hecho que por su naturaleza no parece deberse

a las causas que normalmente deberían producirlo.

1.1) Azar versus Determinismo

El azar y el determinismo son los conceptos responsables de la existencia de la

relación causa – efecto.

Para dar una idea correcta de lo que representa el azar, podemos mencionar el

siguiente modelo. Un experimento es una acción que se ejerce sobre un determinado

segmento del universo con el fin de obtener información útil acerca de él. A un

experimento se lo define con la cualidad de aleatorio cuando los resultados que arroja

no pueden ser conocidos a priori. Un suceso aleatorio es un resultado específico del

experimento aleatorio. El conjunto de sucesos aleatorios conforma el espacio muestral.

Un suceso aleatorio lo es intrínsecamente, es decir, lo es por la imposibilidad de

predeterminar al momento de realizar el experimento el valor futuro que adoptará. Esa

imposibilidad es consecuencia de la ausencia de patrones o leyes que describan el

comportamiento del espacio muestral y permitan el conocimiento del mismo. Es decir,

no existen maneras de poder determinar un suceso futuro en función del conocimiento

de un suceso ya ocurrido. En la relación causa – efecto, los sucesos ocurridos no

pueden ser considerados causas de los sucesos que ocurrirán. La secuencia en que

éstos aparecen depende del azar.

Por otra parte, cuando a un suceso sólo puede seguirle otro específico, se habla de

determinismo. Al analizar la forma en que diversos sucesos pueden determinarse entre

sí, surgen los diferentes tipos de condicionamiento que pueden existir entre uno y otro,

a saber2:

1. Condiciones necesarias: son aquellas sin las cuales es imposible que ocurra un

determinado fenómeno. Es necesario, imprescindible, que estén presentes para

1 Diccionario Enciclopédico Quillet, Tomo I 2 Carlos A. Sabino, “El proceso de investigación”, pág. 75, Editorial Lumen Humanitas

Page 4: Krieger_actividad cientifica 13-09-12.pdf

3

3

que el hecho se produzca, aunque esto no quiere decir que cada vez que se

encuentren presentes ocurra el fenómeno.

2. Condiciones suficientes: se refieren a circunstancias que, siempre que aparecen,

desencadenan el suceso en estudio, aunque no es necesario que ellas estén

presentes para producirlo, dado que otras condiciones pueden también

ocasionarlo.

3. Condiciones contribuyentes: son aquellas que favorecen de manera decisiva el

suceso investigado y que generalmente suelen producirlo, aunque no alcancen un

determinismo que pueda ser considerado necesario o suficiente.

4. Condiciones contingentes: son circunstancias que, pudiendo favorecer la

ocurrencia del hecho en estudio, se presentan sólo eventualmente, pudiendo estar

ausentes por completo en la mayoría de los casos.

Solamente cuando se pueda sostener que un hecho es a la vez condición necesaria y

suficiente de otro se puede afirmar que se esta presencia de la causa de dicho suceso.

1.2) Probabilidad En aquellos escenarios aleatorios, en los que intervienen los conceptos de

experimento aleatorio y suceso aleatorio, se hace presente un concepto cuyo objetivo

es aportar información acerca de las posibilidades futuras de ocurrencia de los

sucesos aleatorios. Es el concepto de probabilidad.

La probabilidad es una unidad de medida de la incertidumbre acerca de la ocurrencia

de determinado suceso aleatorio. Aporta información acerca de la propensión a ocurrir

de dicho suceso.

Su cálculo puede estar determinado por situaciones en las que se tiene completa

información y conocimiento del escenario o contexto en el cual se desarrolla el

experimento, sin que esto implique un corte en la secuencia azarosa en la que se

presentan los sucesos. Si esto no ocurre, la probabilidad se obtiene por medio de su

definición clásica, basada en el principio de razón insuficiente, que establece la

equiprobabilidad de cada uno de los sucesos: La probabilidad de ocurrencia de un

suceso es la relación del número de casos favorables para el suceso cuya probabilidad

se busca y el número de casos igualmente posibles.

P(s) = n / N

Page 5: Krieger_actividad cientifica 13-09-12.pdf

4

4

Donde

N = casos posibles

n= casos favorables

Si 0 n N 0 P (s) 1

Si S = n = 0 P(s) = 0

Otra forma para calcular su valor está determinada por la definición empírica de

probabilidad. Este es un método a posteriori, es decir que se basa en la experiencia,

en el conocimiento de la frecuencia en que los sucesos aleatorios se va desarrollando.

Cuando un experimento se repite un gran número de veces (n), las fluctuaciones de

las frecuencias relativas (ns / n) disminuyen considerablemente cuando n es

suficientemente grande. Esto significa que a medida que n crece la frecuencia relativa

se aproxima a la probabilidad de ocurrencia:

ns / n = P(s) , a medida que n crece

Donde

0 ns/n 1 0 P(s) 1

No se sustenta en el principio de razón insuficiente porque es una probabilidad

a posteriori y no a priori

La frecuencia relativa se considera sólo una estimación de la probabilidad

Si se construye un modelo en el cual a cada uno de todos los posibles resultados de

un experimento aleatorio se le asigna un número (probabilidad) en base a

determinados axiomas específicos predeterminados, el valor que se obtiene surge del

método axiomático de la probabilidad, en donde:

Si s es el suceso cuya probabilidad de busca P(s) 0

Si u representa al espacio muestral P(u) = 1

No es sustenta en el principio de razón insuficiente ya que no se basa en

sucesos equiprobables

Contribuye a establecer un concepto abstracto de la probabilidad por no

basarse en experimentos reales

Page 6: Krieger_actividad cientifica 13-09-12.pdf

5

5

Existen escenarios en los que el suceso no haya ocurrido nunca o su ocurrencia sea

esporádica, y su probabilidad sea determinada por el investigador en base a criterios

puramente subjetivos. En éstos casos el cálculo se determina por la definición

subjetiva de probabilidad.

Page 7: Krieger_actividad cientifica 13-09-12.pdf

6

6

SECCIÓN 2) SISTEMAS

Sistema1: palabra griega Sýstema: conjunto de cosas que ordenadamente

relacionadas entre sí contribuyen a determinado objeto.

De esta definición se desprenden dos implicancias fundamentales. Primero, que en

todo sistema existe una influencia mutua entre sus elementos componentes, es decir,

que el cambio experimentado en uno de ellos repercute y afecta inevitablemente al

resto. Segundo, que una serie de elementos reunidos que no persigue un propósito

común, es decir un conjunto, no constituye un sistema. Para poder describir

correctamente el comportamiento de un sistema es necesario conocer, además de sus

elementos componentes, las interacciones entre ellos.

Un sistema es más que la simple suma de sus elementos constitutivos ya que,

primero, emergen propiedades nuevas que no pueden atribuirse a ninguno de ellos y,

segundo, se reprimen o inhiben algunas de sus propiedades intrínsecas.

Las relaciones son los enlaces que vinculan entre sí a los elementos componentes y

se clasifican de la siguiente manera:

1. Simbióticas: son aquellas en que los sistemas conectados no pueden seguir

funcionando solos. A su vez puede dividirse en:

1.1 Unipolar: un elemento componente no puede existir sin otro

1.2 Bipolar: cuando ambos elementos son autodependientes

2. Sinérgicas: son aquellas relaciones que no son necesarias para el funcionamiento

del sistema, pero que resultan útiles, ya que su desempeño mejora

sustancialmente el rendimiento del sistema. Sinergia significa “acción combinada”,

sin embargo, para la Teoría de Sistemas el término es más que el esfuerzo

cooperativo. En las relaciones sinérgicas la acción cooperativa de elementos

semiindependientes, tomados en forma conjunta, genera un resultado final mayor

que la suma de sus resultados tomados en forma independiente.

3. Superfluas: son aquellas que repiten otras relaciones.

Todo sistema se encuentra inmerso en un contexto o medio ambiente que lo afecta de

diferentes maneras. Ese contexto, por su parte, también se ve influenciado por el

sistema. Estas dos interacciones se determinan en la relación contexto – sistema.

1 Diccionario Enciclopédico Quillet, Tomo VIII

Page 8: Krieger_actividad cientifica 13-09-12.pdf

7

7

Tanto en la Teoría de sistemas como en el método científico, existe un concepto que

es común a ambos: el foco de atención, es decir, el límite de interés, el elemento que

se aísla para ser estudiado.

Para determinar este límite se consideran dos etapas por separado:

1. La determinación del contexto de interés

2. La determinación del alcance del límite de interés entre el contexto y el sistema

Para medir la influencia que el contexto ejerce sobre el sistema se utiliza el concepto

de permeabilidad. Los sistemas escasamente permeables son aquellos que no

intercambian materia, energía o información con el contexto. Esta clase de sistemas se

conoce como sistemas cerrados. Por el contrario, los sistemas que sí presentan

intercambio de materia, energía o información con el contexto son conocidos como

sistemas abiertos. A su vez, dentro de la clasificación de sistemas abiertos, se

encuentran los que son influidos pasivamente por el contexto, llamados no adaptativos

y los que reaccionan y se adaptan al entorno, llamados sistemas adaptativos.

Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o

no su estado interno a medida que transcurre el tiempo. Un sistema particular que, a

pesar de estar inmerso en un entorno cambiante mantiene su estado interno se

denomina homeostático. Es decir, que la homeostasis define la tendencia de un

sistema a su supervivencia dinámica. Los sistemas altamente homeostáticos siguen

las transformaciones del contexto a través de ajustes estructurales internos. No

obstante , si el sistema no puede acomodarse al esfuerzo tensional que padece por

parte del contexto, modificando su estructura o su función, puede transformarse o

deteriorarse total o parcialmente, temporal o definitivamente.

La entropía es el desgaste que el sistema presenta por el transcurso del tiempo o por

su propio funcionamiento. Los sistemas altamente entrópicos tienden a la desaparición

como consecuencia del desgaste generado por su proceso sistémico. En los sistemas

cerrados la entropía siempre adopta valores positivos, es decir, influye negativamente

en el funcionamiento del sistema, mientras que en los sistemas abiertos la entropía

puede reducirse significativamente e incluso adoptar valores negativos, es decir,

transformarse en generadora de procesos de organización.

Las entradas son los ingresos del sistema que pueden ser recursos materiales,

humanos o información y constituyen el impulso que genera el funcionamiento del

sistema. Las salidas son los resultados que se obtienen como consecuencia del

proceso que el sistema aplica a las mismas.

Page 9: Krieger_actividad cientifica 13-09-12.pdf

8

Los operadores son los elementos del sistema que logran influir decisivamente en el

proceso para que éste se ponga en funcionamiento. Los restantes elementos no

solamente son influidos por los operadores, sino también por los demás elementos.

Todos los demás elementos influyen sobre los operadores.

Cuando las salidas del sistema, o la influencia de las salidas del sistema en el

contexto, vuelven a ingresar al sistema se produce la retroalimentación, que permite el

control de un sistema y que el mismo adopte medidas de corrección en base a la

información retroalimentada. Cuando el control del sistema se realiza en la entrada del

mismo, se produce el feedforward o alimentación delantera. Este control permite que el

sistema no tenga entradas corruptas, de ésta manera, al producirse fallas en las

salidas, éstas no serán consecuencia de las entradas, sino de la configuración

intrínseca del proceso.

Los sistemas centralizados son aquellos que tienen un núcleo que comanda a todos

los demás, y éstos, para su activación, dependen del primero. Por el contrario los

sistemas descentralizados son aquellos en los cuáles el núcleo de comando está

conformado por varios elementos componentes. En éste caso el sistema no es tan

dependiente, sino que puede contar con elementos componentes que actúen de

reserva y que sólo entran en funcionamiento cuando falla el elemento que debería

actuar en determinada situación.

2.1) Sistemas complejos Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento

es imprevisible. Presentan las siguientes características:

1. Están compuestos por una gran cantidad de elementos relativamente idénticos .

2. La interacción entre sus elementos es local y origina un comportamiento

emergente que no puede explicarse a partir de dichos elementos tomados

aisladamente.

3. Es muy difícil predecir su evolución dinámica futura

La mayoría de los sistemas complejos son inestables, se mantienen delicadamente

equilibrados. Cualquier variación mínima entre sus elementos componentes puede

modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento

de todo el sistema. De esta manera, la evolución de ésta clase de sistemas se

caracteriza por la intermitencia, es decir, por aquella situación en la cual el orden y el

desorden se alternan constantemente. Sus estados evolutivos no transcurren a través

Page 10: Krieger_actividad cientifica 13-09-12.pdf

9

de procesos continuos y graduales, sino a través de reorganizaciones y saltos. Cada

uno de éstos estados es sólo una transición, un período de reposo entrópico.

Son sistemas que nunca llegan al óptimo global, en general crecen progresivamente

hasta que llegan al límite de su desarrollo potencial. En ese instante sufren un

desorden que induce una fragmentación del orden preexistente. Pero después

comienzan a surgir regularidades que organizan al sistema de acuerdo a nuevas leyes,

produciendo otra clase de desarrollo.

El orden y el desorden se necesitan uno al otro, se producen mutuamente. En otras

palabras, son definiciones antagónicas pero al mismo tiempo complementarias. La

variación y el cambio son etapas inevitables e ineludibles por las cuales debe transitar

todo sistema complejo para crecer y desarrollarse. Cuando esta transformación se

logra sin que intervengan factores externos al sistema, se denomina proceso de

autoorganización.

La autoorganización es la forma a través de la cual el sistema recupera el equilibrio,

modificándose y adaptándose al contexto que lo rodea y contiene. Los sistemas

autoorganizados se mantienen en el estrecho límite que oscila entre el orden

inmutable y el desorden total. Una condición muy especial, con suficiente orden para

poder desarrollar procesos y evitar la extinción, pero con una cierta dosis de desorden

como para ser capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que

se conoce actualmente como “el borde del caos”.

Page 11: Krieger_actividad cientifica 13-09-12.pdf

10

SECCIÓN 3) TEORÍA DEL CAOS

Caos1: palabra griega khaós: abismo. Confusión, desorden.

Teoría del caos: teoría matemática que se ocupa de los sistemas que presentan un

comportamiento impredecible y aparentemente aleatorio aunque sus componentes

estén regidos por leyes estrictamente deterministas.

Antiguamente la palabra Caos definía aquellas situaciones de total desorden y falta de

control. Esta acepción persiste aún en la actualidad, pero desde la década del 70 fue

evolucionando y madurando en función de los avances y descubrimientos que se han

desarrollado en la ciencia a raíz del análisis y estudio de los sistemas caóticos. Como

consecuencia de la comprensión más madura y científica del comportamiento de

dichos sistemas es que el significado de la palabra Caos se modificó, a tal punto que

la nueva concepción de Caos es totalmente antagónica a la anterior. La definición más

ampliamente aceptada en la actualidad es que el caos y el orden no son más que

diferentes facetas de una misma realidad.

3.1) Khaós como cosmovisión. Su evolución. En sus orígenes, Caos designaba aquel estado opuesto a Cosmos, en donde éste era

utilizado para definir aquellas situaciones de completo control y determinación. Se

consideraba al Universo un ámbito en donde el orden era predominante, con pequeños

espacios para situaciones de desorden. Actualmente se sabe que realmente ocurre lo

contrario, es decir, que son escasas aquellas situaciones de perfección en un Universo

regido por lo aparentemente aleatorio pero determinable y complejo.

Desde el principio de las culturas el hombre se ha preguntado acerca de los

fenómenos naturales y sus orígenes. En el siglo VI a.c., en Grecia, se comenzaron a

buscar causas racionales que dieran cuenta de toda la realidad. Finalmente, en el siglo

IV a.c. Aristóteles reseña todo el conocimiento producido hasta el momento.

En la filosofía aristotélica cada ente tiene un fin y, en la medida que lo alcanza,

mantiene el orden universal. En este marco la física, ciencia del movimiento, es la

encargada de buscar la explicación a esa naturaleza constituida por entes en perpetua

mutación. En consecuencia la naturaleza es el conjunto de entes corpóreos y

cambiantes. La tierra es el centro mismo del cosmos, alrededor de ella giran en esfera

1 Diccionario Enciclopédico Quillet

Page 12: Krieger_actividad cientifica 13-09-12.pdf

11

concéntricas los demás astros: la Luna, el Sol, Venus, Mercurio, Marte, Júpiter,

Saturno y la esfera de las estrellas fijas, que es la esfera exterior del cosmos. Los

cuerpos celestes constituidos son transportados alrededor de la tierra eternamente y

con velocidad constante a lo largo de circunferencias cristalinas concéntricas. Para la

cosmología aristotélica el universo está dividido en dos regiones cualitativamente

diferentes: el mundo sublunar y el mundo supralunar. Esta cosmovisión postula un

cosmos finito, cerrado y rigurosamente estructurado, en el cual la distinción entre las

dos regiones no surge solamente por su ubicación, sino por las diferencias de

naturaleza. En el mundo sublunar reina la imperfección, es un mundo caótico; mientras

que en el mundo sublunar reina la armonía, es un mundo cósmico.

“Todo, orden cósmico, armonía: éstos conceptos implican que en el universo las cosas

están distribuidas y dispuestas en un cierto orden determinado, que su localización no

es indiferente ni para ellas ni para el universo; que, al contrario, cada cosa tiene, según

su naturaleza, un puesto determinado en el universo, el suyo propio. Un lugar para

cada cosa y cada cosa en su lugar”4.

Luego de los trabajos y aportes de Copérnico, y con la llegada de la ciencia moderna y

su nueva y revolucionaria cosmovisión, se quiebra la cosmovisión aristotélica. La

concepción aristotélica de la naturaleza había dominado el saber sobre la naturaleza

hasta fines del siglo XVI, momento en que se produce una fractura histórica en el

campo del pensamiento, la llamada revolución copernicana. Galileo y Kepler

contribuyen a construir la nueva ciencia siguiendo el camino abierto por Copérnico.

Con la ciencia moderna surge la física clásica. Una de sus propiedades básicas es el

carácter determinista y reversible. Dadas unas condiciones iniciales apropiadas, es

posible predecir con exactitud la trayectoria de cualquier móvil y, de ese modo, se

hace evidente la desaparición de la noción de tiempo. De ésta manera predicción y

retrodicción son idénticos: pasado y futuro están contenidos en la rigurosa descripción

de los estados instantáneos. “El universo visto como un entramado de procesos

reversibles, que no posee ninguna historia, sólo prosigue hasta el infinito su monótono

juego de trayectorias. En éste espectáculo de orden y armonía, el hombre está

excluído”5. La física clásica transformó a la naturaleza en un escenario en donde no

4 A. Koyré, “Estudios de historia del pensamiento científico”, pág, 158, Editorial Siglo XXI 5 Alejandro Cerletti, “La producción de los conceptos científicos”, pág. 160, Editorial Biblos, compilación

por Esther Díaz

Page 13: Krieger_actividad cientifica 13-09-12.pdf

12

importa la noción de tiempo. Un mundo autómata, totalmente previsible y por lo tanto,

manipulable.

Las ciencias físico matemáticas han operado como paradigmas de las demás ciencias

desde el siglo XVII en adelante. La formulación de la Ley de conducción del calor, a

comienzos del siglo XIX, da nacimiento a la termodinámica. Se trata del primer

proceso intrínsecamente irreversible que llama la atención a las concepciones

reversibilistas y deterministas de la naturaleza. A partir de éste momento se comienza

a pensar en que los procesos a los que se tiene acceso en la naturaleza contienen

elementos aleatorios e irreversibles. Para Ilya Prigogine, éste fue el comienzo de un

camino que llevaría a una descripción más adecuada de los procesos naturales.

En éstos procesos lo artificial es determinista mientras que lo natural contiene

elementos esenciales de azar e irreversibilidad. En éstos procesos existirá una flecha

del tiempo, ya que no se podrá encontrar una evolución natural, en la que se pueda

imaginar que un sistema vuelva a su estado inicial situándose exactamente en las

mismas condiciones de las que partió.

Si se dispusiera de dos recipientes con líquido, uno a elevada y otro a baja

temperatura, al ser mezclados el líquido de mayor temperatura cederá calor al de

menor, que aumentará la suya hasta alcanzarse un equilibrio térmico en todo el líquido

a una temperatura intermedia. Luego, si se pretendiera volver el proceso hacia atrás,

se comprobaría que sería imposible llegar al estado de partida sin violar leyes

naturales. Procesos como éste son eminentemente irreversibles. Para ellos el sentido

del tiempo no es indiferente, tiene una orientación única, que es aquella en la cual se

desarrollan los cambios.

A raíz de los estudios realizados en la termodinámica, ha sido modificada la idea de

fenómenos reversibles. La estrategia adoptada para su estudio fue asemejar lo más

posible los fenómenos irreversibles a los reversibles, para lo que debía trabajarse

intentando mantener el sistema en estado de equilibrio, o lo más cercano a ello. Todo

proceso natural poco alejado del equilibrio evoluciona espontáneamente hacia él.

La entropía es una función que caracteriza el estado de un sistema. En ciertas

circunstancias en los sistemas que no están en equilibrio se pueden distinguir

aspectos estructurados o diferenciados. Cuando el sistema evoluciona hacia el

equilibrio se va desorganizando o desordenando. El desequilibrio inicial del sistema de

los recipientes con líquido al ser mezclados los contenidos, se modifica en una

dirección determinada.

Page 14: Krieger_actividad cientifica 13-09-12.pdf

13

Todas éstas evoluciones transcurren en una dirección determinada: del desequilibrio al

equilibrio, de un mayor nivel de estructuración a uno menor, de formas de

ordenamiento al desorden, del orden al caos. La evolución irreversible está marcada

por la flecha del tiempo: el estado final es irremediablemente distinto al inicial.

“A partir de los estudios en termodinámica realizados por Ilya Prigogine se supo que

no siempre un sistema físico evoluciona necesariamente hacia el desorden. La

termodinámica clásica concentraba su estudio en sistemas poco alejados del

equilibrio. Prigogine, por el contrario, se dedicó a trabajar con sistemas muy alejados

del equilibrio y en ese campo concluyó que la irreversibilidad puede tener un papel

constructivo. A partir de la termodinámica de los procesos irreversibles descubrió que

en ciertos sistemas muy alejados del equilibrio, se pueden generar fenómenos de

autoorganización espontánea, es decir, evoluciones hacia una complejidad y

diversidad crecientes. La disipación de energía entonces no sólo es fuente de

desorden, es posible hallar nuevos ordenamientos que proceden de transformaciones

intrínsecamente irreversibles. A éstas formas de organización las llamó estructuras

disipativas“5.

“El reencuentro de la ciencia con el tiempo irreversible, en tanto dirección privilegiada

de toda evolución, junto a la conjugación del azar y la necesidad en los procesos

naturales, ponen fin al ideal omnisciente de poder llegar a determinar todo el universo,

pasado y futuro, a partir del conocimiento riguroso del presente”5.

“La noción de caos nos obliga a reconsiderar la noción de Leyes de la naturaleza. En

la perspectiva clásica, una ley de la naturaleza estaba asociada a una descripción

determinista y reversible del tiempo. Futuro y pasado desempeñaban en ella un mismo

papel. La introducción del caos nos obliga a reconsiderar nuestra descripción

fundamental de la naturaleza”6.

“El caos siempre es consecuencia de inestabilidades. En los sistemas inestables una

perturbación se amplifica, unas trayectorias inicialmente cercanas se separan La

inestabilidad introduce aspectos nuevos esenciales. Lo interesante es buscar la

relación entre la inestabilidad y conceptos fundamentales como el determinismo y la

irreversibilidad. Surge un nuevo enfoque para abordar todos éstos problemas. Por eso, 5 Alejandro Cerletti, “La producción de los conceptos científicos”, pág. 164, Editorial Biblos, compilación

por Esther Díaz

6 Ilya Prigogine, “Las leyes del caos”, pág. 15, Editorial Crítica

Page 15: Krieger_actividad cientifica 13-09-12.pdf

14

cuando se tiene en cuenta al caos, se pude hablar de una nueva formulación de las

leyes de la naturaleza”6.

3.2) Sistemas caóticos Aquellos sistemas dinámicos no lineales que se comportan de manera muy compleja

reciben el nombre de sistemas caóticos.

La característica fundamental de éste tipo de sistemas es que son hipersensibles a las

condiciones iniciales. Es decir, que ante un cambio insignificante en las condiciones de

partida, el proceso del sistema lo amplifica exponencialmente de manera tal que el

resultado final difiere significativamente. Configuraciones iniciales casi idénticas,

sometidas a influencias externas casi idénticas, acaban transformándose en

configuraciones finales absolutamente diferentes. Por éste motivo puede afirmarse que

“los sistema caóticos parecen o se presentan como aleatorios aunque, en realidad, se

trata de sistemas deterministas. Las consecuencias de que un sistema caótico sea

determinista es que su estado actual determina su estado futuro. Su comportamiento

se explica a través de leyes específicas de evolución dinámica y queda condicionado

por las acciones iniciales que se ejerzan sobre él”7.

Las condiciones iniciales no tienen porqué ser las existentes al momento de creación

del sistema. Generalmente son las condiciones que se dan al comienzo de un

experimento aleatorio o de un cálculo, pero también pueden ser las que se dan al

principio de un período de tiempo que interesa al investigador, de manera tal que el

entendimiento del significado de condiciones iniciales para una persona pueden ser

condiciones intermedias o finales para otra.

La dependencia sensible no es sólo el incremento de la diferencia entre dos estados

que van evolucionando con el tiempo, ya que existen sistemas deterministas en los

que una diferencia inicial de una unidad entre dos estados llega a incrementarse hasta

un centenar de unidades, mientras que una diferencia de una centésima o incluso de

una millonésima, también llega a incrementarse hasta un centenar de unidades,

aunque en éste segundo caso será necesario un mayor intervalo temporal; mientras

que también existen sistemas deterministas en los que un incremento de una unidad

se incrementa también un centenar de unidades, pero una diferencia de un centésimo

6 Ilya Prigogine, “Las leyes del caos”, pág. 14, Editorial Crítica 7 Eduardo Carbón Posse, “Teoría del caos, ¿caprichosas leyes del azar?”, pág. 7, Editorial Longseller

Page 16: Krieger_actividad cientifica 13-09-12.pdf

15

se incrementa también en una unidad. Aunque ambos tipos de sistemas presentan

características muy similares, sólo a los primeros se los considera caóticos.

La causa de la estructura caótica de éste tipo de sistemas no reside en la cantidad de

variables intervinientes en sus procesos, sino en la configuración intrínseca de las

mismas, en aquellas características particulares que generan esa hipersensibilidad a

las condiciones iniciales. Dicha hipersensibilidad es la causa que imposibilita predecir

los comportamientos futuros del sistema más allá del corto plazo.

Ejemplos de sistemas caóticos se encuentran muy a menudo en la naturaleza, como

por ejemplo, las variaciones climáticas, los fluidos en un régimen turbulento, las

reacciones químicas, la propagación de enfermedades infecciosas, los procesos

metabólicos de las células, los movimientos de grupos animales, la aparición

aperiódica de epidemias, la arritmia del corazón, la red neuronal del cerebro humano,

etc.

Existen dos tipos de procesos de sistemas caóticos, aquellos que avanzan paso a

paso, en forma discreta, y aquellos que avanzan constantemente, en forma continua.

Los primeros son conocidos como aplicaciones mientras que los segundos como

flujos.

La Teoría del caos está compuesta por un cúmulo de herramientas matemáticas cuyo

objetivo es la descripción de los comportamientos de los sistemas caóticos.

Las herramientas utilizadas para describir las aplicaciones son las ecuaciones en

diferencias, que consisten en un conjunto de fórmulas que, una vez resultas, los

resultados tomados en forma integral expresan los valores de todas las variables del

siguiente paso en función de los valores del paso que está teniendo lugar en el

momento presente. Por otro lado, las herramientas aplicadas a los flujos son las

ecuaciones diferenciales, que equivalen a un conjunto de fórmulas que conjuntamente

expresan las tasas de cambio de las variables en función de los valores actuales de

esas variables. Un solución completa de un sistema de ecuaciones diferenciales

contendrá expresiones que darán los valores de las variables en cualquier instante

dado en función de los valores que tuvieran en cualquier instante anterior. Cuando se

trate de aplicaciones, las expresiones serán un conjunto de ecuaciones en diferencias

obtenidas del sistema de ecuaciones diferenciales. Es decir, una aplicación puede ser

derivada de un flujo.

Page 17: Krieger_actividad cientifica 13-09-12.pdf

16

3.2.1) Atractores

Cuando se utilizan ecuaciones matemáticas para describir el comportamiento de un

sistema, se podrá determinar a posteriori, un gráfico representativo de los estados

adoptados por el mismo. Este gráfico recibe el nombre de atractor y presenta

estructura fractal.

Al observar los hechos del mundo real se puede determinar con facilidad que

cualquier sistema se comportará en función a un determinado número de estados y

que otros no sólo no los abordará nunca, sino que será imposible que ello suceda. Tal

es el caso, por ejemplo, de una bandera que se encuentra flameando por la acción

ejercida por el viento. En este sistema, se podrá observar que la bandera nunca

flameará en contra de la dirección del viento.

En forma general, los estados que puede adoptar cualquier sistema se encontrarán

dentro de un rango de comportamientos determinados, pudiendo asumir cualquiera de

ellos, pero no cualquiera en sentido general.

Los estados de un sistema que se dan una y otra vez o que son aproximadamente los

mismos cada vez pertenecen al conjunto de los atractores.

FIG. 1 – Atractor de Lorenz

Page 18: Krieger_actividad cientifica 13-09-12.pdf

17

En el anexo detallaremos las ecuaciones necesarias para la construcción de los

atractores de Roosler y de Lorenz así como los valores que deben adoptar las

variables intervinientes del sistema.

Al atractor que consiste en un número infinito de curvas, superficies

multidimensionales, dándose generalmente en espacios paralelos con un vacío entre

dos puntos cualesquiera del espacio, se lo llama atractor extraño.

Cuando se tienen que representar gráficamente los estados de un sistema que posee

una cantidad de variables superior a tres, en los que cada una de ellas corresponde a

una dimensión, es imposible hacerlo en un gráfico de coordenadas cartesianas,

porque en ellos sólo pueden representarse situaciones que como máximo son

tridimensionales (altura, profundidad y ancho). Sin embargo se pueden esquematizar

Fig. 2 – Atractor de Roosler visto desde diferentes escalas

Page 19: Krieger_actividad cientifica 13-09-12.pdf

18

en un hipotético espacio multidimensional, denominado espacio multidimensional de

las fases, en el cual cada punto representa un estado concreto del sistema. Las

coordenadas del punto son numéricamente iguales a los valores que las variables

asumen cuando se da dicho estado. Una solución específica de las ecuaciones

descriptoras de flujos o aplicaciones se representa mediante una curva, llamada órbita.

Atractor y representación gráfica en el espacio multidimensional de las fases son

sinónimos. En este marco, un punto es un estado y una órbita es una secuencia

cronológica de estados.

El proceso de convertir un flujo en una aplicación con un espacio de fase de dimensión

inferior fue creado por Henri Poincaré. Las secciones transversales de un flujo, son

denominadas secciones de Poincaré, mientras que las aplicaciones obtenidas de

secciones de Poincaré se denominan aplicaciones de Poincaré.

3.2.2) Geometría fractal

La geometría fractal está compuesta por estructuras que tienen dos propiedades

intrínsecas fundamentales . La primera de ellas es la dimensión fraccionaria.

Las estructuras fractales tienen dimensión decimal, es decir, una dimensión

numéricamente situada entre dos números enteros. Así, un fractal con dimensión

situada en el intervalo (1.2) es una superficie no delimitada por una curva o un

conjunto de rectas, pero que no lega a ser un plano. Si ésta estuviera en el intervalo

(0.1) la estructura sería un conjunto de puntos alineados que no llegan a constituir una

recta, pese a ser infinitos y a estar infinitamente próximos entre sí. La dimensión fractal

de un objeto es un parámetro de la capacidad de éste de ocupar espacio físico,

independientemente de la estructura geométrica del mismo. El fractal se extiende por

el espacio de dimensión menor de las dos entre las que se encuentra repitiendo un

mismo motivo indefinidamente, hasta superar esa dimensión.

La segunda propiedad fundamental es la autosemejanza. Con esta propiedad las

estructuras fractales poseen la misma estructura cualquiera sea la escala en la que se

observan, es decir, a través de sucesivas aproximaciones se repite su forma

fundamental y conserva el mismo aspecto.

En general, las formas encontradas en la naturaleza son ejemplos de fractales: vasos

sanguíneos y sus capilares, árboles, vegetales, nubes, montañas, grietas tectónicas,

Page 20: Krieger_actividad cientifica 13-09-12.pdf

19

franjas costeras, cauces de ríos, copos de nieve y una gran cantidad de otros objetivos

difíciles de describir por la geometría euclidiana.

Los objetos con estructura fractal se generan por la repetición incansable de un

proceso especificado e ínfimas modificaciones en las condiciones iniciales o en los

parámetros de ese proceso pueden provocar imprevisibles cambios finales. Es por

esto que la mayoría de los sistemas caóticos originan estructuras fractales.

Page 21: Krieger_actividad cientifica 13-09-12.pdf

20

ANEXO: MATEMÁTICA CAÓTICA

Integración numérica Al enfrentarse a las ecuaciones diferenciales que describen comportamientos caóticos

normalmente no pueden hallarse soluciones generales, y las aproximaciones suelen

determinarse mediante métodos de integración numérica.

Existen muchos procedimientos de integración numérica, pero uno de los más

conocidos es el esquema Runge – Kutta de cuarto orden.

Para resolver un sistema como el siguiente

dX / dt = F(X,Y)

dY / dt = G(X,Y)

se escoge un incremento de tiempo t y luego, para hallar X(t+ t) e Y(t+ t) cuando se

conocen X(t) e Y(t) en determinado tiempo t, sean

Xo = X(t)

X1 = Xo + F(Xo, Yo) t/2

X2 = Xo + F(X1, Y1) t/2

X3 = Xo + F(X2, Y2) t/2

X4 = Xo – F(X3, Y3) t/2

X(t+ t) = (X1 + 2X2 + X3 – X4) / 3

Expresiones análogas se pueden registrar para Y. El procedimiento puede reiterarse

tantas veces como se desee, utilizándose como valor de t en cada iteración el antiguo

valor de (t+ t).

El método proporciona resultados precisos cuando t es suficientemente pequeño,

pero pueden ocurrir resultados muy extravagantes con valores t grandes.

Page 22: Krieger_actividad cientifica 13-09-12.pdf

21

El atractor de LorenzLas ecuaciones que producen el atractor de Lorenz son las siguientes

dx / dt = - x + y

dy / dt = -xz + rx –y

dz / dt = xy - bz

Las tres constantes b, y r determinan el comportamiento del sistema y para obtener

el atractor deben tomar los siguientes valores

b = 8/3

= 10

r = 28

Determinando valores adecuados para t, x, y, z, resolviendo las ecuaciones por algún

procedimiento de integración numérica, como por ejemplo el esquema Runge – Kutta,

iterando la integración en una cantidad no inferior a 4000 veces y representando los

valores de z en relación a los valores de x, se obtendrá el atractor de Lorenz.

Atractor de Lorenz

Page 23: Krieger_actividad cientifica 13-09-12.pdf

22

El atractor de Roosler Las ecuaciones que producen el atractor de Roosler son las siguientes

dx / dt = - y - z

dy / dt = x + ay

dy / dt = b + z (x-c)

Los valores que determinan su comportamiento son a, b y c. Para obtener el atractor

deben tomar los siguientes valores

a = b = 0.2

c = 5.7

Atractor de Roosler

Page 24: Krieger_actividad cientifica 13-09-12.pdf

23

BIBLIOGRAFÍA

Diccionario enciclopédico Quillet

Eduardo Carbón Posse, “La Teoría del caos, ¿caprichosas leyes del azar?”,

editorial Longseller, año 2001

Gabriela Kurinsic, “Estadística: probabilidades y distribuciones”, editorial

Ediciones Cooperativas, año 2001

César Monroy Olivares, “La teoría del caos”, alfaomega grupo editor, año 1997

Ilya Prigogine, “Las leyes del caos”, editorial crítica, año 1999

Edward Lorenz, “La esencia del caos”, editorial Debate pensamiento, primera

reimpresión, año 2000

Carlos A. Sabino, “El proceso de investigación”, pág. 75, Editorial Lumen

Humanitas