Upload
others
View
7
Download
0
Embed Size (px)
Citation preview
66
MOMENTUM IV
CONTEXTUALIDAD TEORÉTICA… UN ESPACIO-TIEMPO
DIVERGENTE
Para lograr las sinergias es importante estar sustentados en
pronunciamientos teóricos de familias de autores reconocidos e
investigaciones que hayan analizado los enigmas de estudio insertados en
la geomecánica, gestión de conocimiento y complejidad. En este sentido, el
presente espacio tiene como finalidad relatar los aportes teóricos de
diversos autores con respecto a la confluencia de saberes con el propósito
de conocer los elementos argumentos y sinergias desde las ciencias de la
complejidad, sistemas y prospectivas que permitirá, a través de ellos la
búsqueda de soluciones aproximadas al enigma anteriormente planteado
bajo un enfoque no lineal. Es importante mencionar que existen
antecedentes y documentaciones técnicas arbitradas por comités
multidisciplinarios autorizados en cada proyecto que reposan en los
archivos de la empresa PDVSA, así como trabajos de investigación
presentados en congresos internacionales de la Sociedad de Ingenieros de
Petróleo, por sus siglas en ingles (SPE), en relación a como se están
realizando los modelos geomecánicos del subsuelo alrededor del mundo y
como se ha venido adaptando en Venezuela de manera lineal a los
yacimientos del territorio nacional, los cuales desde la experiencia del
investigador; no se adaptan en la mayoría de los casos a dar soluciones
concretas y efectivas problemáticas en yacimientos locales, debido a que
muchas veces estos modelos lineales, son diseñados por empresas
contratistas trasnacionales de manera generalizada, estas corporaciones
tienen la limitante de que no son conocedoras en profundidad de los
yacimientos de petróleo y gas locales, sólo tienen la tecnología.
67
Sin embargo dado que la geomecánica en el país a lo largo de la historia
de la explotación de hidrocarburos apenas entra en acción y de manera
interrumpida desde el año 1992 desde la sede donde opera el brazo
tecnológico de la corporación como lo es el “Instituto de Tecnología
Venezolana para el Petróleo” (INTEVEP), por lo que dada la cantidad de
yacimientos en Venezuela y el poco personal especializado en el área de la
geomecánica, existen más del 80 por ciento de estos yacimientos que aun no
se encuentran caracterizados geomecánicamente. Esto lleva
inexorablemente a que existan pocos antecedentes de la investigación
desde este enfoque al que se le adiciona la complejidad como enfoque
epistemológico, dentro de los cuales resaltare los proyectos que han sido
realizados por el investigador para resaltar la experticia tacita que en
palabras de Nonaka (1995) es tan importante para gestionar el conocimiento.
Barrios et al. (2015) Análisis comparativo del modelo geomecánico del
yacimiento lagunillas inferior 07 obtenido a través de la determinación del
coeficiente de compresibilidad de la roca con el modelo existente generado a
partir de registros de pozos", La cual tuvo como objetivo. Diseñar un modelo
como medio para impulsar la producción en el sistema energético
venezolano, en función de garantizar la recepción efectiva de conocimientos
de los modelos elásticos de la roca. Sus bases teóricas fueron sustentadas
por equipos técnicos especializados transdisciplinarios. No obstante, también
existen maneras de llegar a los resultados saltándose pasos establecidos en
los flujogramas corporativos para dicho fin.
68
Barrios et al. (2015) Estudio geomecánico 3D del yacimiento cretácico
campo del campo la paz, costa occidental del lago de Maracaibo. El cual se
centro en determinar propiedades mecánicas de la roca en un yacimiento no
convencional de rocas calizas. Desde el punto de vista metodológico, se
enmarco en la corriente. Positivista-cuantitativa dando como resultado una
caracterización experimental, sin embargo quedaron propuestas
operacionales en las que el actual flujograma no las contempla dentro de los
cuadros de acción.
Barrios et al. (2014) Modelo geomecánico 1-D para el yacimiento
Eocenofract, Eoceno B-2-X-68 para optimizar diseños de fractura hidráulica
del área. Los resultados de esta investigación experimental arrojan también
parámetros geomecánicos y geológicos que no se encuentran dentro de los
flujogramas de trabajo actuales.
Barrios et al. (2013) Modelo geomecánico 1-D para el yacimiento
LRF0052, Eoceno C-5I. Bloque VI unidad de producción (U.P) Lagocinco.
División Lago Sur. Se traduce el conocimiento científico en innovaciones con
éxito comercial al establecer mejores prácticas operacionales con una buena
relación entre la investigación académica y la industria, incluir el papel de la
ciencia en la estrategia de negocios de las empresas y utilizar las alianzas
estratégicas como ecuación primordial al tratar cada yacimiento de manera
especial e individual.
Barrios y Lobo (2011) Modelo Geomecánico 1D y estudio de estabilidad
de hoyo en el bloque XII de los campos Ceuta y Lagotreco del Lago de
Maracaibo. El estudio permitió concluir que las empresas necesitan tener
acceso a la investigación mas avanzada, ser capaces de captar su valor
comercial mediante desarrollo de productos. Se ha encontrado como por
ausencia de capturas de datos crece la incertidumbre en los modelos
generados llegando al punto de detener las operaciones en un campo.
69
Barrios y Lobo (2015) Modelo Geomecánico 3D campo Ceuta, área 2
sur, Lago de Maracaibo. Se resalta la importancia en esta investigación del
valor de la captura de datos pasando de modelos en una dimensión (1D)
hasta modelos en tres dimensiones (3D) para permitir la reactivación del
campo y reactivar la producción de crudo y gas.
Barrios y Lobo (2012) Determinación del campo de esfuerzos regional en
la cuenca de Maracaibo, Venezuela, a partir de la integración de datos
geomecánicos, geológicos, y geofísicos. El estudio permitió concluir que la
transferencia tecnologica en la industria al proceso de aprendizaje colectivo
analizado a través del intercambio de aportes entre los geocientistas de
manera de dar modelos regionales a nivel de cuenca que servirán de guía a
generaciones de investigadores futuras.
Barrios et al. (2010) Estudio de mecánica de roca (dinámica) en el
yacimiento Eoceno C-inferior VLC0363 (Bloque III) del lago de Maracaibo.
Investigación que aporto como resultado el cambio completo de paradigma
operacional de pasar de pozos petroleros verticales a esquemas con diseños
altamente inclinados pasando a incrementar producción de 150 barriles netos
de petróleo diarios hasta llegar a una producción 1900 barriles netos de
petróleo diarios.
Según queda establecido en el manual de reservas de PDVSA, los
recursos por descubrir son las cantidades de hidrocarburos que, en una
fecha (tiempo) determinada, se estiman podrían existir en acumulaciones y
yacimientos aun no descubiertos, pero que se presume su existencia sobre
la base de la información de geología de superficie, sensores remotos,
gravimetría, sísmica y/u otros métodos.
La evaluación de recursos exploratorios comprende la estimación
probabilística de volúmenes no descubiertos de petróleo y gas, considerando
las incertidumbres asociadas a un mínimo conocimiento de las variables
envueltas o de los procesos geológicos que determinan la presencia o no de
hidrocarburos en un área. La evaluación de recursos está vinculada al
70
objetivo de estimar el valor de las oportunidades exploratorias, con el fin de
establecer una serie de decisiones orientadas a optimizar el proceso de la
búsqueda de hidrocarburos.
Las oportunidades exploratorias tienen el "riesgo exploratorio" asociado,
que es la probabilidad de no tener hidrocarburos o de que encontrándose
éstos, no tengan el valor económico mínimo esperado (escenarios posibles).
En el conjunto de técnicas a aplicar en la determinación de los riesgos
geológicos se deben considerar dos tipos de incertidumbres: la proveniente
del desconocimiento de los procesos geológicos que determinan la
existencia de una acumulación de hidrocarburos en el subsuelo y la
proveniente del desconocimiento del valor de las variables geológicas,
geoquímica, petrofísicas y de ingeniería en el entorno de una oportunidad
exploratoria, necesarias para la cuantificación de los recursos por
oportunidad.
Las incertidumbres deben cuantificarse mediante múltiples escenarios,
que usualmente se estiman con simulaciones probabilísticas de Monte Carlo.
Los posibles escenarios volumétricos que pueden existir en una oportunidad
exploratoria, incluyendo el caso de la no existencia de hidrocarburos, se
representan en forma de un histograma de rangos de volúmenes o en forma
de una curva acumulada de volúmenes vs. probabilidades.
El promedio de todos los casos simulados en la estimación de recursos
se conoce como Expectativa. En la documentación del resultado de las
evaluaciones también se menciona la probabilidad de existencia de petróleo
o gas (POS-Probability of Success), el promedio de todos los casos
simulados excluyendo aquellos donde no se obtiene hidrocarburo o que no
tengan el valor económico mínimo esperado (MSV-Mean Success Value) y el
promedio de los escenarios Bajo, Medio y Alto de los volúmenes estimados
en la simulación. La expectativa está asociada tanto a los volúmenes de
petróleo como del gas asociado, y en el caso de la existencia de gas libre en
el yacimiento, también se documenta la expectativa del posible condensado
71
y del gas libre. Todos los volúmenes se refieren a condiciones de presión y
temperatura estándar.
Se presentan abstracciones de autores con los cuales el investigador ve
posibilidades de obtener conocimiento teórico practico de manera de
representan puntos de partida para los momentum y escenarios que con la
ayuda de las sinergias llevaran a buen puerto esta investigación. Bertalanffy
(1968) afirma en su prefacio de la teoría general de los sistemas que con los
objetos de nuestro mundo cotidiano, que en modo alguno son sencillamente
datos como datos sensoriales o simples percepciones, sino que en realidad
están construidos con innumerables factores mentales que van de la
dinámica gestaltista y los procesos de aprendizaje a los factores culturales y
lingüísticos que determinan en gran medida lo que de hecho vemos o
percibimos. Así, la distinción entre objetos y sistemas reales dados en la
observación, construcciones y sistemas conceptuales, es imposible de
establecer sin más que sentido común. Se trata de hondos problemas que
aquí apenas podemos señalar.
Esto nos lleva a la epistemología de sistemas. De lo anterior se
desprende cuánto difiere de la epistemología del positivismo o empirismo
lógico, con todo y que comparta su actitud científica. La epistemología (y
metafísica) del positivismo lógico está determinada por las ideas de
fisicalismo, atomismo y la teoría de la cámara para el conocimiento.
Luego de la relatoría de estos antecedentes es imperante, ya que se
trata de una investigación enmarcada en las ciencias de la tierra, definir
varios aspectos y definiciones que aportaran conocimientos y harán entrar al
lector sobre importantes nociones sobre la geología como ciencia madre y la
geomecánica como fusión entre geología y mecánica de las rocas. En una
segunda fase de estas abstracciones del cuarto momento se destacaran los
elementos teóricos más relevantes de la familia de investigadores que se
escogió para lo relacionado a la gestión del conocimiento desde la
perspectiva de la complejidad.
72
Para tener completa la fusión en la confluencia que se desea formar en
esta investigación, se analizarán los cimientos teóricos de los autores que
influyeron en materia de sistemas, prospectiva y complejidad, de manera de
que confluyan estas bases teóricas para establecer la fuente de
conocimiento necesario para sustentar los resultados que se desprenderán
de esta investigación.
El concepto de sistemas ha invadido todos los campos de la ciencia y
penetrado en el pensamiento y el habla populares y en los medios de
comunicación de masas. El razonamiento en términos de sistemas
desempeña un papel dominante en muy variados campos, desde las
empresas industriales y los armamentos, geología, geomecánica hasta
temas reservados a la ciencia pura. Se le dedican innumerables
publicaciones, conferencias, simposios y cursos.
A la zaga de Kuhn (1962), una revolución científica es definida por la
aparición de nuevos esquemas conceptuales o Paradigmas.
Estos ponen en primer plano aspectos que anteriormente no eran vistos
o percibidos, o por ventura ni suprimidos, en la ciencia normal, es decir la
ciencia aceptada y practicada generalmente en el tiempo en cuestión. Hay
así un desplazamiento de la problemática advertida e investigada y un
cambio en reglas de la práctica científica, es comprensible que en tales fases
críticas se haga hincapié en el análisis filosófico, no sentido como necesario
en periodos de crecimiento de la ciencia normal.
73
Como se ha evidenciado a lo largo de la historia como tal cual reza en el
libro prohibido del Dialogo sobre las máximas teoría que gobiernan al mundo,
Galileo (1632), las primeras versiones de un nuevo paradigma suelen ser
toscas, resuelven pocos problemas, y las soluciones que dan a éstos distan
de ser perfectas. Hay profusión y competencia de teorías, limitada cada una
con respecto al número de problemas que cubre y resuelve con elegancia.
Sin embargo, el nuevo paradigma abarca nuevos problemas, especialmente
los que antes eran rechazados por metafísicos.
Por otra parte, según Hart (1959) la invención humana puede ser
concebida como nuevas combinaciones de elementos previamente
existentes. De ser así, la oportunidad de nuevas invenciones aumentará más
o menos en función del número de posibles permutaciones y combinaciones
de elementos disponibles, lo cual quiere decir que su aumento será un
factorial del número de elementos.
4.1 Bases teóricas de Geología. Fallas
En geología, una falla es una discontinuidad que se forma por fractura
en las rocas cuando las fuerzas tectónicas superan la resistencia de las
rocas, produciéndose a su vez el movimiento relativo de los bloques. Según
el movimiento relativo de los bloques, las fallas se clasifican de la siguiente
manera:
Fallas Normales: Se produce cuando el bloque superior al plano de
falla (BS) se mueve hacia abajo respecto al bloque inferior (BI).
Generalmente se producen bajo regímenes tectónicos normales o
extensivos. Se denominan también fallas gravitacionales. En su
mayoría, el plano de falla tiene una inclinación mayor a 45° y buza
hacia el bloque deprimido. Ver Figura 7
74
Figura 7: Falla normal Fuente: Lobo (2011)
Fallas Inversas: Se produce cuando el bloque superior al plano de
falla (BS) se mueve hacia arriba respecto al bloque inferior (BI). Se
producen bajo regímenes tectónicos inversos o compresivos. En su
mayoría, el plano de falla tiene una inclinación menor a 45° y buza
hacia el bloque levantado. Ver Figura 8
Figura 8: Falla inversa Fuente: Lobo (2011)
Fallas Transcurrentes: Se produce cuando los bloque se mueven
lateralmente. Si se mueven en sentido de las agujas del reloj se
denomina falla destral, y si se desplazan en sentido contrario se
BS BI
BS BI
75
denomina falla sinestral. Se producen bajo regímenes tectónicos
transcurrentes. En su mayoría, el plano de falla tiene una inclinación
mayor a 45° y su buzamiento puede variar. Ver Figura 9
Figura 9: Falla transcurrente
Fuente: Lobo (2011)
4.1.2 Plegamientos o pliegues Los plegamientos o pliegues, son deformaciones de las rocas, que
originan que sus elementos de carácter horizontal, como los estratos o los
planos de esquistosidad (en el caso de rocas metamórficas), quedan
curvados formando ondulaciones alargadas y más o menos paralelas entre
sí. Los pliegues se originan por esfuerzos de compresión que actúan sobre
las rocas, pero que no llegan a romperlas (los esfuerzos superan su límite de
plasticidad pero no su resistencia); en cambio, cuando sí lo hacen, se forman
fallas (Mattauer, 1990 en Lobo et al., 2011).
Basada en la apariencia de los pliegues en secciones transversales, los
pliegues pueden ser:
Anticlinales: En las formas geológicas plegadas producidas por
orogenias, sería el pliegue convexo hacia arriba siempre que no se
haya invertido su posición por causas tectónicas. Es decir, es la
ondulación de una capa de amplitud y forma variable, en la que los
estratos más antiguos se encuentran en el núcleo del pliegue.
BS BI
76
Figura 10: Anticlinal Fuente: Lobo (2011)
Sinclinal: Los estratos son más jóvenes cuanto más hacia el núcleo. El
pliegue es cóncavo hacia arriba siempre que no se haya invertido su
posición por causas tectónicas. Puede ser recto, inclinado o acostado.
Tanto el sinclinal como el anticlinal son formas de disponerse los
estratos en una estructura plegada.
Figura 11: Sinclinal Fuente: Lobo (2011)
77
Homoclinal: Estratos que se inclinan todos con el mismo buzamiento y
con el mismo ángulo.
Figura 12: Homoclinal Fuente: Lobo (2011)
Monoclinal: Son estratos relativamente horizontales que localmente
asumen una posición inclinada.
Figura 13: Monoclinal Fuente: Lobo (2011)
Domo: Corresponde a una antiforma cuyas capas se inclinan hacia
abajo en todas direcciones.
78
Figura 14: Domo
Fuente: Lobo (2011)
Terraza estructural: Dos limbos largos, inclinados, conectados por un
limbo corto, horizontal.
Figura 15: Terraza estructural Fuente: Lobo (2011)
79
Cuenca: Corresponde a una sin forma, en donde los limbos mantean
hacia el centro.
Figura 16: Cuenca Fuente: Lobo (2011)
4.1.3 Homogeneidad y heterogeneidad
Los materiales homogéneos son totalmente uniformes (no presentan
discontinuidades al microscopio) y presentan iguales propiedades y
composición en todo el sistema, por ejemplo: el agua pura (Costa, 2005, en
Lobo et al., 2011).
La heterogeneidad (opuesta a la homogeneidad) se refiere a la falta de
uniformidad de un material o sustancia. También se refiere a una mezcla que
contiene dos o más fases (Costa, 2005, en Lobo et al., 2011,).
Cuando un material geológico se dice que es heterogéneo generalmente
quiere decir que está compuesto por varios tipos de litologías, o que
presenta una gran variación de sus componentes litológicos, razón por la
cual muchas veces se denominan “heterolíticos”, por ejemplo: una formación
80
geológica conformada por intercalaciones de lutitas, limolitas, areniscas y
capas de carbón (Lobo et al., 2011).
4.1.4 Geología estructural
Es la rama de la geología que se dedica a estudiar la corteza terrestre,
sus estructuras y su relación en las rocas que las contienen. Estudia la
geometría de las formaciones rocosas y la posición en que aparecen en
superficie. Interpreta y entiende el comportamiento de la corteza terrestre
ante los esfuerzos tectónicos y su relación espacial, determinando la
deformación que se produce y la geometría de estas estructuras (Mattauer,
1990, en Lobo et al., 2011).
4.1.5 Modelo estructural
En un modelo geomecánico, el modelo estructural consiste en la
elaboración de un esqueleto base que incluya los topes formacionales junto
con otros elementos geológicos claves, tales como: fallas, fracturas,
estratificaciones, discordancias, entre otros. (Sánchez, 2010)
4.1.6 Horizontes geológicos
Dentro de los primeros pasos para elaborar un modelo estructural se
encuentra la determinación de los Horizontes Geológicos. Un horizonte
geológico se define como la disposición final de las capas sedimentarias,
entendiendo la depositación de las formaciones geológicas y los eventos
tectónicos ocurridos en el área. Estos horizontes están principalmente
representados por los topes de formaciones geológicas o superficies
regionales de interés como las discordancias.
81
4.2 Bases teóricas de Geomecánica
4.2.1 Materiales geológicos Rocas: Agregados de cristales y partículas amorfas ligados por
materiales cementantes. Presentan grietas o fracturas a diferentes
escalas. (Zambrano, 2012)
Suelos: Aglomerado de partículas relativamente suelto, con poca o
ninguna cementación entre ellas. (Zambrano, 2012) Los suelos y las rocas sedimentarias son materiales geológicos que
están compuestos por un sistema multifásico de partículas: minerales que
crean una estructura porosa donde residen fluidos tales como agua,
hidrocarburo y aire.
Este sistema de partículas es lo que distingue a los materiales
geológicos de los materiales continuos como los metales y fluidos. Las
partículas representan una fase sólida conocida como estructura interna o
esqueleto; debido a esto, la deformación del material geológico está
controlada por la interacción entre partículas y el movimiento relativo entre
partículas. El fluido intersticial puede fluir a través de los poros interactuando
con el esqueleto mineral, alterando la magnitud de las fuerzas en el contacto
entre partículas e influenciando en la resistencia y compresibilidad del
material geológico (Vásquez, 2001, en Lobo et al., 2011).
Figura 17: Diagrama de fases para materiales geológicos Fuente: Barrios y Lobo (2011)
82
4.2.1 Estratigrafía mecánica
La estratigrafía mecánica, no es más que la diferenciación de la roca
soportada por grano de la roca soportada por arcilla, ya que existen
diferentes mecanismos de falla para cada tipo de roca (Sánchez, 2010).
4.2.2 Isotropía y anisotropía
En física y química, la isotropía es la característica de los cuerpos cuyas
propiedades físicas (elasticidad, temperatura, conductividad, velocidad de
propagación de la luz, etc.) son similares o se propagan en forma similar en
todas las direcciones, es decir, se refiere al hecho de que ciertas magnitudes
vectoriales conmensurables, dan resultados idénticos con independencia de
la dirección escogida para dicha medida. Los materiales que presentan estas
características se denominan materiales isotrópicos (Costa, 2005, en Lobo et
al., 2011).
La anisotropía (opuesta de isotropía) es una propiedad de algunos
materiales que consiste en la variación de las propiedades con respecto al
cambio de dirección que se analiza, es decir, desigual comportamiento en las
diferentes direcciones del espacio. Los materiales que presentan estas
características se denominan materiales anisotrópicos (Costa, 2005, en Lobo
et al., 2011).
Desde el punto de vista de la Mecánica de Rocas y Geomecánica: la
anisotropía de las formaciones geológicas pude ser intrínseca si es producto
de la estratificación o de las fracturas, o puede ser inducida por los esfuerzos
actuantes (Armstrong y otros, 1994; Close y otros, 2007, en Lobo et al.,
2011).
83
Figura 18: Tipos de anisotropía observada en los materiales geológicos Fuente: Lobo (2011)
4.2.3 Definición de geomecánica
La geomecánica es la disciplina que estudia las características
mecánicas de los materiales geológicos que conforman las rocas ante
cambios del entorno (esfuerzos que actúan sobre ellos, deformaciones a los
cuales están sometidos, presiones, temperatura).
4.2.4 Aplicaciones de la geomecánica
Las aplicaciones de la geomecánica son muy diversas: ingeniería civil,
industria minera e industria petrolera. Dentro de la industria petrolera, la
geomecánica aplica los principios de la ingeniería mecánica para predecir la
falla de poros, discontinuos, granulares, heterogéneos y materiales
anisotrópicos sometidos a condiciones de altas temperaturas y esfuerzos.
84
Sus principales roles son reducir los costos, riesgos y los tiempos no
productivos, a través del análisis de:
Ventana operacional de peso del lodo más segura, que reduce
arremetidas y perdidas de circulación durante la perforación.
Incremento de estabilidad del hoyo, reduciendo las pegas de tuberías,
reentradas no planificadas, repasos y suabeos en el hoyo.
Evidencia de la factibilidad de la perforación bajo balance.
Incremento de la producción por medio de fallas naturales.
Predicción y manejo de la producción de arena.
Optimización de las operaciones de fracturamiento hidráulico.
Reducción de los cortes y colapsos de revestidor.
Optimización de la trayectoria de pozos direccionales.
Caracterización de subsidencia y compactación del yacimiento.
Capacidad sellante y fugas en fallas.
Otros.
4.2.5 Modelo geomecánico del yacimiento
Consiste en una caracterización completa de las propiedades mecánicas
y los esfuerzos que actúan en el yacimiento, tanto a nivel vertical como areal
(Almeida y Cornielis, 2010, en Lobo et al., 2011). Un modelo geomecánico
puede ser:
Modelo Geomecánico en una dimensión (1D): Cuando la
caracterización de los elementos geomecánicos se realiza en los
pozos, sin realizar ninguna interpolación o cálculo en el espacio
interpozos. En este estudio se plantea un modelo geomecánico 1D
(Lobo et al., 2011)
Modelo Geomecánico en tres dimensiones (3D): Consiste en la
caracterización de los elementos geomecánicos a nivel tridimensional,
tomando en cuenta los elementos geológicos identificados en el
85
modelo estático del yacimiento y de la zona suprayacente al mismo
(Lobo et al., 2011).
Modelo Geomecánico en cuatro dimensiones (4D): Un modelo
geomecánico 4D es un modelo geomecánico 3D dinámico, el cual es
sensible a los cambios de los esfuerzos, computa e integra los efectos
de los cambios en los flujos del fluido y las propiedades mecánicas
durante toda la vida del campo (Lobo et al., 2011).
4.2.6 Compactación normal
Inicialmente, los sedimentos depositados en las cuencas son materiales
no consolidados y no compactados, y poseen una porosidad y una
permeabilidad relativamente altas que permiten que el agua de mar
remanente, o el agua intersticial, presente en los poros permanezcan en total
comunicación hidráulica con el océano que la suprayace. Con el tiempo y la
compactación, conforme se deposita más sedimento, el agua sale con
dificultad de los espacios porosos y el contacto entre los granos soporta una
carga sedimentaria cada vez más grande. Si existe un conducto comunicante
(falla o vía de migración permeable) desde los depósitos sedimentarios
saturados de agua hacia la superficie, se mantiene el equilibrio en los
espacios porosos (presión hidrostática normal), de lo contrario, se producirá
sobrepresión. Se dice que existe compactación normal cuando la presión
que se encuentra en los poros del subsuelo posee un gradiente de presión
similar al gradiente de presión hidrostática normal (PN) de dicha área, que
puede encontrarse entre 0,433 psi/pie y 0,540 psi/pie.
4.2.7 Tendencia de compactación normal (NCT)
La tendencia de compactación normal (NCT) se puede obtener con
cualquier tipo de registro que esté relacionado con la porosidad de la
86
formación (GeoMechanics, International, 2009, en Lobo et al., 2011): tiempo
de tránsito de la onda “P” en lutitas, densidad de lutitas y resistividad en las
lutitas. También pueden utilizarse el Exponente “D” corregido (Dc-Exp) en
lutitas y el tiempo de tránsito de la onda “P” de los datos sísmicos.
Las investigaciones a nivel mundial han demostrado que la presión de
poros es normal en los estratos que se encuentran más cercanos a la
superficie, manteniéndose normales mientras exista comunicación hidráulica
hacia la superficie (Contreras, 2005, en Lobo et al., 2011), hasta los topes de
zonas con sobrepresión. Por lo tanto, asumiendo que existe presión normal
en los estratos más suprayacentes, para definir la tendencia de
compactación normal (NCT) se utilizan los datos que estén más cercanos a
las superficies (Contreras,2005, en Lobo et al., 2011).
A nivel de la superficie (z ≈ 0), la densidad será mínima (igual a la
densidad del suelo) y el tiempo de tránsito de la onda “P” será máximo
(mínima velocidad). A medida que aumenta la profundidad, la densidad
volumétrica de las lutitas aumentará paulatinamente y los tiempos de tránsito
de la onda compresional “P” disminuirán, debido que al aumentar la
profundidad aumenta la compactación y por consiguiente disminuye
gradualmente la porosidad (Lobo, 2011)
4.2.8 Esfuerzo y deformación
Vásquez (2001, en Lobo et al., 2011) define esfuerzo como la capacidad
de un cuerpo de resistir carga por unidad de área. La magnitud de un
esfuerzo es considerado como el valor escalar que lo define (Sánchez,
2010).
Sánchez (2010) define en su trabajo que la deformación es la relación
que existe entre la nueva magnitud o forma de un elemento y su
configuración original o no alterada, cuando es sometido a fuerzas externas.
La figura 19 ilustra las diferencias entre estos dos conceptos.
87
Figura 19: Diferencia entre esfuerzo y deformación Fuente: Lobo (2011)
Existen tres relaciones elementales entre el esfuerzo y la deformación
que modelan el comportamiento reológico de la materia (Herrera, 2004, en
Lobo et al., 2011):
Elástico: Materiales donde el flujo (deformación) ocurre
inmediatamente cuando se aplica un esfuerzo. Cuando el esfuerzo es
removido, el material retorna a su forma inicial, la deformación es
reversible. La ley elástica es una línea de pendiente 1/E con E el
módulo de Young, que corresponde a la Ley de Hooke.
Plástico: Materiales donde el flujo (deformación) ocurre
inmediatamente cuando se aplica un esfuerzo, pero cuando el
esfuerzo es removido, el material no retorna a su forma inicial, sino
que sufre una deformación irreversible o plástica.
Viscoso: Materiales donde el flujo (deformación) ocurre tan pronto
como el esfuerzo es aplicado. La deformación ocurre a un esfuerzo
88
constante, p ero cuando el esfuerzo es removido, el flujo termina pero
el material no retorna a su estado no-deformado.
4.2.9 Tipos de esfuerzos En esta investigación se definen los tres esfuerzos principales más
comunes en los materiales geológicos:
Esfuerzos de Compresión (σ): Son esfuerzos perpendiculares a la
sección transversal de un cuerpo, los cuales tienden a acortarlo. Hay
que destacar que la falla se produce porque se ha superado la
resistencia a la compresión, pero el cizallamiento del material es
producto de “esfuerzos cortantes internos” que fueron originados por
los esfuerzos de compresión. Los planos de fallas por compresión
generalmente forman un ángulo cercano a los 45° de la dirección de
los esfuerzos de compresión (Cervera Ruiz, 2009, en Lobo et al.,
2011).
Esfuerzos de Tensión (T): El esfuerzo, al igual que en el caso anterior
es perpendicular a la sección transversal del cuerpo. Este tipo de
esfuerzos tienden a alargar el cuerpo. Cuando superan la resistencia a
la tensión del material pueden llegar a producir fallas por tensión. Los
planos de fallas por tensión generalmente son perpendiculares a la
dirección de los esfuerzos de tensión (Cervera Ruiz, 2009, en Lobo et
al., 2011).
Esfuerzos de Corte (τ): También denominados esfuerzos tangenciales
de cizalla. Cuando superan la resistencia al corte del material pueden
llegar a producir fallas por cizallamiento. Son esfuerzos paralelos a los
planos de fallas, los cuales tienden a deslizar entre sí, las secciones
en que actúan (Cervera Ruiz, 2009, en Lobo et al., 2011).
89
4.2.10 Resistencia.
La resistencia se define como el máximo esfuerzo que un material sólido
puede aguantar antes de perder su capacidad de soportar carga. Se
distinguen tres tipos de resistencia (Geotechnology, 2008, en Lobo et al.,
2011):
Resistencia a la Compresión (σ1 ó σ1max): Capacidad de un material
sólido a soportar esfuerzos compresivos.
Resistencia a la Tensión (T0): Capacidad de un material sólido a
soportar esfuerzos tensiónales.
Resistencia al Corte o Cizalla (τn): Capacidad de un material sólido a
soportar esfuerzos de cizalla producto del desbalance de las fuerzas
aplicadas.
4.2.11 Campo de esfuerzos dentro de la corteza terrestre
Todas las rocas que componen la corteza terrestre están sometidas a
tres esfuerzos ortogonales principales: un esfuerzo vertical de sobrecarga
(σv), originado por los estratos que se encuentran suprayacentes, un
esfuerzo horizontal máximo (σHmáx) y un esfuerzo horizontal mínimo
(σhmín).
El campo de esfuerzos en sitio (llamado también estado de esfuerzos) de
cualquier punto de la corteza terrestre está definido por cuatro elementos: los
3 esfuerzos ortogonales principales y la presión de poros (Almeida y
Cornielis, 2010, en Lobo et al., 2011). Las diferencias entre las magnitudes
de estos esfuerzos van a determinar el tipo de campo de esfuerzos o
régimen tectónico predominante.
Estas tres componentes más la presión de poros (PP) conforman el
tensor de esfuerzos en cualquier punto de la corteza terrestre. Los tres
90
esfuerzos ortogonales principales se pueden representar de la siguiente
manera:
σz = σv = Esfuerzo Vertical de Sobrecarga.
σx = σHmax = Esfuerzo Horizontal Máximo.
σy = σhmin = Esfuerzo Horizontal Mínimo.
Figura 20: Componentes ortogonales del tensor de esfuerzos en la
corteza Fuente: Lobo (2011)
4.2.12 Esfuerzo total (σ) o sobrecarga En ingeniería de petróleo, los esfuerzos totales se deben a la acción de
la sobrecarga vertical de los estratos suprayacentes y a los esfuerzos
tectónicos horizontales (Bertorelli y otros, 1998, en Lobo et al., 2011). El
esfuerzo total (σ) sobre cualquier punto de la corteza terrestre será también
igual a la sumatoria entre la presión de poros (PP) y el esfuerzo efectivo (σ’)
(Vásquez, 2001, en Lobo et al., 2011).
91
4.2.13 Esfuerzo horizontal mínimo y máximo
El esfuerzo horizontal puede o no ser igual en todas las direcciones del
plano horizontal, esto dependerá del grado de heterogeneidad, de la
anisotropía y de los esfuerzos actuantes en la Formación geológica. Si este
es el caso, tendremos un esfuerzo horizontal mínimo y perpendicular a éste
un esfuerzo horizontal máximo actuando sobre el plano horizontal (Chacón,
2009, en Sánchez, 2010).
Los esfuerzos horizontales poseen direcciones, consideradas como la
dirección que tienen sus vectores principales con respecto a un plano de
referencia, generalmente el Norte geográfico. La dirección de los esfuerzos
es considerada un parámetro geomecánico fundamental, dado que controla
la estabilidad del hoyo asociada a la trayectoria de los pozos, la orientación
de las fracturas, e incluso, en algunos casos, las direcciones preferenciales
de flujo (Sánchez, 2010).
4.2.14 Presión de poros (PP)
Es la cantidad del esfuerzo total que es absorbido por los fluidos
contenidos en los poros de las rocas. Es la presión a la cual se encuentran
sometidos los fluidos del yacimiento. Su magnitud no toma en cuenta el
esfuerzo intergranular o efectivo (Vásquez, 2001, en Lobo et al., 2011).
4.2.15 Métodos para calcular el gradiente de presión de poros (PP)
La detección de la sobrepresión se basa en la premisa que la presión de
poros afecta la compactación, proceso que a su vez es dependiente de
propiedades de roca como densidad, resistividad y velocidad de propagación
(tiempo de tránsito).
92
Existen varios métodos para calcular presiones de poros, sin embargo, a
nivel mundial los más utilizados son los siguientes: el método de Eaton
(1975) y el método de Bowers (1994).
Método de Eaton (1975): Es un método empírico desarrollado en el
Golfo de México por Ben Eaton, en 1975, el cual propuso una serie de
ecuaciones empíricas basadas en las mediciones de propiedades
sensibles a la compactación de la roca, como la densidad, la
resistividad y los tiempos de propagación (Eaton, 1975). Estas
ecuaciones relacionan directamente la presión de poro con los valores
observados de los registros sónicos y resistividad con los valores
obtenidos de la tendencia normal (NCT). A continuación se presentan
las ecuaciones de Eaton para los Registros Sónicos (Tiempo de
Tránsito) y para los Registros de Resistividad:
(1)
(2)
Donde:
PP: Es la presión de poros a la profundidad de interés (z cualquiera).
S: Es el esfuerzo vertical de la sobrecarga (σv) a la profundidad de
interés.
PN: Es la presión hidrostática normal.
ΔTN: Es el Δtp en la lutita de la NCT a la profundidad de interés.
93
ΔTO: Es el Δtp real en la lutita observado en el registro a la profundidad
de interés.
RN: Es la resistividad en la lutita de la NCT a la profundidad de interés.
RO: Es la resistividad real en la lutita observada en el registro a la
profundidad de interés.
αS : Es el Exponente de Eaton para el registro sónico, que depende de la
cuenca a analizar.
αR: Es el Exponente de Eaton para el registro de resistividad, que
depende de la cuenca a analizar.
Los estudios a nivel mundial muestran que en la mayoría de las
regiones el exponente para el registro sónico ( αS) presenta valores entre 2 y
4, mientras que para el registro de resistividad (αR) presenta valores entre 1 y
2 (Lobo et al., 2011).
Método de Bowers (1995): Es un método que relaciona la velocidad
de la onda compresional “P” y los esfuerzos efectivos (Fryedman y
Moreno Colín, 2008, en Lobo et al., 2011, p. 78). Bowers (1994)
publicó un nuevo ecuación que permitía manejar la compactación
normal, subcompactación y descarga (unloading) en una sola
ecuación, la cual podría ser calibrada para los datos existentes,
incluso en casos donde no se presente una evidente tendencia
compactación normal (por ejemplo, en ambientes de aguas
profundas). Bowers reconoció un concepto fundamental: los intervalos
descargados (unloading) son zonas de donde el esfuerzo efectivo se
mantiene en un nivel bajo. La ecuación permite al usuario definir la
tendencia de compactación normal para un área mediante la definición
de un término v0, un coeficiente “A” y un exponente “B” para el
esfuerzo efectivo. En el caso donde el exponente de descarga
equivale a la unidad, el término de proporción de esfuerzo en la
ecuación ampliado se contrae de la ecuación para la tendencia de
compactación normal (NCT) o Curva Virgen como la llamó Bowers
94
(Chopra y Huffman, 2006, en Lobo et al., 2011, p. 78). La ecuación de
Bowers (1994) para calcular la Presión de Poros es la siguiente:
(3)
Donde:
v: Es la velocidad de la onda compresional “P” a la profundidad de
interés.
v0: Es la velocidad de la onda compresional “P” a la profundidad de
interés.
Se: Es el esfuerzo vertical de la sobrecarga efectivo ( σv’) a la
profundidad de interés.
A y B: Son constantes empíricas que depende de la cuenca a analizar.
4.2.16 Regímenes tectónicos principales
El estado de esfuerzos bajo los cuales está sometido un yacimiento está
directamente relacionado a tectónica que ha imperado en la región y al
movimiento relativo de las fallas mayores (Lobo et al., 2011). Según Vásquez
(2001, en Lobo et al., 2011), dependiendo de las magnitudes relativas de
cada esfuerzo ortogonal principal, el geólogo E. M. Anderson (1951, en Lobo
et al., 2011) definió tres estados de esfuerzo o regímenes de esfuerzos
principales y sus fallas asociadas, tal y como se muestra en la Figura 21.
95
Figura 21: Clasificación de las fallas y regímenes tectónicos Fuente: Vázquez (2001)
Régimen Normal: También denominado régimen extensivo. Se
presenta en regiones donde el esfuerzo mayor es la sobrecarga
vertical y el menor es el esfuerzo horizontal mínimo, es decir: σv
>σHmáx > σhmín. Es el régimen tectónico más común en la
naturaleza. En este tipo de régimen existe predominio del fallamiento
normal o gravitacional, muchas veces del tipo lístrico o sin
sedimentario. (Lobo et al., 2011)
Régimen Transcurrente: Se presenta en regiones donde el esfuerzo
mayor es el esfuerzo horizontal máximo y el menor es el esfuerzo
horizontal mínimo, es decir: σHmáx > σv > σhmín. Es el segundo
régimen tectónico más común en la naturaleza. En este tipo de
régimen existe predominio del fallamiento transcurrente con fallas
secundarias normales e inversas. (Lobo et al., 2011)
Régimen Inverso: También denominado régimen compresivo. Se
presenta en regiones donde el esfuerzo mayor es el esfuerzo
horizontal mayor y el menor la sobrecarga vertical, es decir: σHmáx
96
>σhmín > σv. En este tipo de régimen existe predominio del
fallamiento inverso. (Lobo et al., 2011)
4.2.17 Regímenes tectónicos mixtos
Aparte de estos tres regímenes tectónicos principales, podemos
diferenciar adicionalmente dos regímenes tectónicos mixtos:
Régimen Transpresivo: Se presenta en regiones que están sometidas
simultáneamente a dos tipos de esfuerzos o componentes:
transcurrencia y compresión. (Figura 18). En este tipo de régimen es
común observar estructuras levantadas (positivas) tipo Restraining
Bend (Engelder, 1998, en Lobo et al., 2011).
Figura 22: Estructuras típicas en un régimen transpresivo
Fuente (Engelder, 1998, en Lobo et al., 2011).
Régimen Transtensivo: Se presenta en regiones que están sometidas
simultáneamente a dos tipos de esfuerzos o componentes:
transcurrencia y extensión (Figura 19). En este tipo de régimen es
común observar estructuras deprimidas (negativas) tipo Pull-Apart
(Engelder, 1998 en Lobo et al., 2011).
97
Figura 23: Estructuras típicas en un régimen transtensivo Fuente: (Engelder, 1998 en Lobo et al., 2011).
4.2.18 Propiedades mecánicas
Las propiedades mecánicas pueden separarse en dos grupos:
propiedades elásticas de la roca y propiedades de resistencia de la roca.
Las propiedades elásticas de la roca son las constantes para un material
isotrópico que obedece la Ley de Hooke, que establece la relación lineal
entre la componente del esfuerzo y la componente de la deformación sin
diferenciar claramente “fuerza” de “esfuerzo”, donde la deformación es
linealmente proporcional a la tensión. Son el módulo volumétrico (K), módulo
de corte (G), Relación de Poisson (), módulo de Young (E) y coeficiente Biot
(). Las velocidades de las ondas sísmicas están gobernadas por el módulo
volumétrico y por las densidades del medio por el cual viajan.
Existen también módulos elásticos dinámicos y módulos elásticos
estáticos. Los módulos elásticos dinámicos son parámetros geomecánicos
obtenidos a partir de los registros petrofísicos y ensayos acústicos de
laboratorio. Los registros petrofísicos están compuestos por sondas que
98
tienen varios emisores y receptores de ondas acústicas que permiten evaluar
el tiempo de tránsito de las ondas P y S en la Formación. Esto proviene de la
teoría tradicional de propagación de ondas en medios elásticos continuos y
las modificaciones que se hace de ella utilizando materiales poro-elásticos.
Los módulos elásticos de la Formación equivalen a valores dinámicos debido
al elevado intervalo de frecuencia al que trabajan los emisores de ondas. Es
posible corregir los valores de los módulos dinámicos obtenidos a través de
registros acústicos mediante la calibración con ensayos geomecánicos en
núcleos. Los módulos elásticos estáticos, son parámetros geomecánicos
obtenidos a partir de los ensayos físicos de laboratorio, como por ejemplo los
ensayos triaxiales. A continuación se defines las principales propiedades
elásticas de la roca:
Módulo Volumétrico (K): Definido como la relación del esfuerzo
hidrostático p relativo a la deformación volumétrica v, es decir, es la
resistencia de la muestra a la compresión hidrostática.
Figura 24: Módulo volumétrico Fuente: Laboratorio mecánica de rocas PDVSA-INTEVEP (1998)
99
Módulo de Corte o Rigidez (G): Es considerado una medida de la
resistencia de la muestra contra la deformación de corte. Para un
fluido, G = 0, para un sólido, G es un número finito. Para la mayoría de
los materiales, el valor de G corresponde a la mitad de E.
Figura 25: Módulo de corte
Fuente: Laboratorio mecánica de rocas PDVSA-INTEVEP (1998)
Relación de Poisson (): La Relación de Poisson representa la
deformación lateral (perpendicular a la dirección del esfuerzo) de un
material sometido a un esfuerzo longitudinal y se obtiene a partir de
las curvas tensión – deformación, generadas a partir de ensayos de
compresión no confinada. Para un diseño de fractura el valor de la
Relación de Poisson no tiene mucha importancia, a menos de utilizarlo
para calcular los esfuerzos in situ teóricos.
La deformación de las caras de la fractura es perpendicular al esfuerzo
de la presión neta y es más representada por el Módulo de Young. Rocas
con altas Relaciones de Poisson transfieren mayor cantidad del esfuerzo
vertical en la dirección horizontal, es decir, resultan en mayores valores de
esfuerzos horizontales. Las arcillas que tienen mayor Relación de Poisson
que las arenas, tienen generalmente mayores valores de esfuerzo que éstas.
Debido al comportamiento no lineal de las rocas, la Relación de Poisson no
100
es constante en todo el rango de stress. Es afectado por los mismos factores
que el Módulo de Young.
Figura 26: Relación de Poisson Fuente: Laboratorio mecánica de rocas PDVSA-INTEVEP (1998)
Módulo de Young (E): Este módulo se conoce también como módulo
de elasticidad y se obtiene a partir de la curva tensión – deformación
generada a partir del ensayo de compresión no confinada o
compresión simple. El Módulo de Young representa la relación entre el
esfuerzo que se aplica perpendicularmente al material y la
deformación axial de ese material, es decir, se aplica una fuerza F y
se obtiene un cambio de longitud L (Figura 2.2.11). En un material
homogéneo y elástico, como puede ser un metal, esta deformación es
lineal en función del esfuerzo que se le aplica, caso diferente el de las
rocas cuya relación no es exactamente lineal, pero se toma la
pendiente de la curva en la parte lineal para determinar el modulo de
Young. Un módulo de Young bajo indica un material con alta
101
deformabilidad, mientras que si alto, es señal de baja deformabilidad,
o de un material duro, lo que significa que un alto esfuerzo es
necesario para deformar la roca. El valor de E para rocas está en el
orden de 0,5 y 12 MMpsi. El módulo de Young es importante en
fractura hidráulica, ya que es usado para calcular la energía requerida
para fracturar una Formación en particular.
Figura 27: Módulo de Young Fuente: Laboratorio mecánica de rocas PDVSA-INTEVEP (1998)
Coeficiente de Biot (): Mide la eficiencia de la presión de poros para
soportar los esfuerzos totales. En sistemas porosos con buena
interconexión, como el caso de arenas con porosidades y
permeabilidades altas, (arenas no consolidadas) el valor de tiene un
máximo igual a 1.0, lo que significa que toda la presión de poros está
contribuyendo a soportar el esfuerzo total. En rocas de baja porosidad
es posible que este número sea cercano a 0.8. Por el contrario en
sistemas sin porosidad como metales, el valor de es 0, y por lo tanto
los esfuerzos efectivos y los esfuerzos totales son iguales.
102
De las propiedades de resistencia de las rocas, tenemos:
Resistencia a la compresión no confinada (UCS): Es la máxima carga
compresiva que la roca soporta antes de la fallar, cuando esta no está
soportada en ninguno de los planos perpendiculares. (Salazar, 2005)
Ángulo de Fricción Interna (FANG): El ángulo de fricción interna es
afectado por la fracción volumétrica de partículas duras, habitualmente
granos de cuarzo o feldespato presentes en las rocas. La mejor forma
de estimar este parámetro es mediante el análisis de los ángulos que
presentan los planos de falla en los ensayos UCS y triaxiales y
mediante el análisis de las envolventes de falla de Morh-Coulomb.
También existe un coeficiente de fricción Interna (μ) o resistencia
friccionante, que es una medida de la resistencia al cizallamiento del
material. Es igual a la tangente del ángulo de fricción interna. Es
importante destacar que mientras mayor sea la inclinación que
presente el plano de falla en los ensayos UCS y triaxiales, mayor será
el ángulo de fricción y el coeficiente de fricción interna (Vásquez,
2001, en Lobo et al., 2011).
Cohesión (Co): La cohesión o resistencia cohesiva se refiere a la
fuerza que mantiene unidos los granos de la formación productora e
impiden el flujo libre. La roca adquiere su cohesión, a través de los
procesos diagenéticos como mecanismos de compactación,
recristalización y solución. Las rocas que han sufrido poco grado de
compactación y que no poseen mucho material cementante, son
fácilmente disgregadas y se conocen como friables, este tipo de rocas
se encuentra por lo general en formaciones someras no sometidas a
un intenso tectonismo (Bertorelli y otros, 1998, en Lobo et al., 2011).
103
4.2.19 Ensayos de resistencia a la compresión
Para medir experimentalmente la resistencia a la compresión de
materiales geológicos, el método más común consiste en realizar ensayos de
compresión triaxial de muestras cilíndricas (tapones) de roca, hasta lograr
que estas fallen. Por convención, el esfuerzo vertical axial de compresión se
denomina con el símbolo “σ1”, mientras que la presión de confinamiento
radial se denomina con el símbolo “σ3”, sabiendo que es similar en todas las
direcciones ( σ2 = σ3 ).
El ensayo se realiza sin confinamiento (σ3 = 0) donde la magnitud de
“σ1” a la cual ocurre la falla se denomina UCS (Unconfined Compressive
Strenght) o resistencia a la compresión no confinada (C0 = UCS= σ1 FALLA)
(Figura 24).
Figura 28: Ensayo de compresión uniaxial Fuente: Laboratorio mecánica de rocas PDVSAINTEVEP (1998)
104
Los valores de UCS corresponden a esfuerzos efectivos, sin presión de
poros. Los resultados son utilizados para la clasificación geotécnica de la
roca intacta. Si se miden las deformaciones, pueden calcularse el módulo de
elasticidad de Young (E) y el Coeficiente de Poisson ().
4.2.20 Ensayo de resistencia a la compresión triaxial
El ensayo se realiza con presión de confinamiento (σ3 > 0), y la magnitud
del valor de “σ1” a la cual ocurre la falla se denomina resistencia a la
compresión a dicho confinamiento (CS = σ1 FALLA). Experimentalmente se
ha determinado que la magnitud de la resistencia a la compresión (σ1max)
aumenta a medida que la presión de confinamiento es mayor (Parra, 1998,
en Lobo et al., 2011).
Figura 29: Ensayo de compresión triaxial Fuente: Laboratorio mecánica de rocas PDVSA-INTEVEP (1998)
105
Los resultados se utilizan para construir la envolvente de esfuerzos de la
cual se obtienen los valores de fricción interna (FANG,μ) y la cohesión de la
roca (Co).
Hay 2 grandes grupos de ensayos triaxiales (Bertorelli y otros, 1998):
Ensayos Drenados: se realizan sin saturación de fluidos, es decir, sin
presión de poros. Estos ensayos sirven para cuantificar la resistencia
efectiva de la roca.
Ensayos No Drenados: se realizan con saturación de fluidos a una
determinada presión de poros. Estos ensayos se utilizan para realizar
análisis de agotamiento.
4.3.1 Organizaciones que crean conocimiento.
Luego que se da un bosquejo teórico sobre las geociencias en lo que a
geología, y geomecánica se refiere, pasando por las reservas de
hidrocarburos y la multiplicidad de yacimientos que existen en Venezuela,
para que el lector tenga una idea de la complejidad a la a que se refiere el
enunciado del trabajo de grado, se procede con la base teórica gerencial de
la investigación que tiene que ver con creación y gestión del conocimiento.
De la familia de autores que se escogió se encuentran Sachiko Nonaka
y Nobuko Takeuchi, dos investigadores que sientan las bases teóricas para
esta investigación desde el enfoque gerencial del conocimiento con
conceptos imbricados en el estilo de pensamiento complejo, como lo son
espiral de conocimiento, sistemas no lineales incluso refiriéndose a
organizaciones autopoiéticas de los celebres autores como Maturana y
Valera.
Cabe destacar que a partir de este momento se tomaran referencias
teóricas del libro la organización creadora de conocimiento. Como las
compañías japonesas crean la dinámica de la innovación, para las continuas
referencias que se realizarán.
106
Con esta premisa los autores hacen referencia a la capacidad que tiene
una empresa para crear nuevos conocimientos, diseminarlos entre sus
miembros y materializarlos en productos, servicios y sistemas. Es allí donde
se encuentra el origen. Hay muchas teorías que explican por qué las
compañías japonesas han tenido éxito, pero la de los autores la única que se
sustenta en el componente básico y universal de cualquier organización: el
conocimiento humano.
Según Nonaka (1995) En esta obra se clasifica al conocimiento humano
en dos tipos. El primero es el conocimiento explicito, que se puede expresar
a través del lenguaje formal, incluidos enunciados gramaticales, expresiones
matemáticas, especificaciones, manuales, etcétera. Dicho conocimiento
puede ser trasmitido fácilmente de un individuo a otro y domina en la
tradición filosófica occidental. Sin embargo, debemos decirlo, el segundo tipo
de conocimiento, el tácito, es más importante, aunque resulta difícil de
enunciar mediante el lenguaje formal, ya que se trata de lo aprendido gracias
a la experiencia personal e involucra factores intangibles como las creencias,
el punto de vista propio y los valores. Este último tipo de conocimiento no se
ha tornado en cuenta como lo que es: un componente fundamental del
comportamiento humano. Sin embargo, al mismo tiempo es una fuente
importante de competitividad en las compañías japonesas. Quizá sea una de
las razones por las cuales los occidentales consideran que el estilo de
administración de los nipones es un enigma.
Se analiza analizamos también el conocimiento explicito y el tácito como
bloques indispensables para la construcción de una relación complementaria.
Más importante aún, esa interacción es precisamente la dinámica central de
la creaci6n de conocimiento en las organizaciones. La creación de
conocimiento organizacional es un proceso que se desarrolla en espiral,
durante el cual los dos tipos de conocimiento interaccionan repetidamente.
Las empresas niponas mostraron una determinación sin igual para luchar
en contra de la competencia internacional, enfrentando obstáculos y
107
adversidades terribles en muchas ocasiones. No podían darse el lujo de
tomar las cosas con calma o volverse complacientes. El temor a perder
terreno y la esperanza de alcanzar a sus contrarios las impulsaron a
anticiparse al cambio y a generar cosas nuevas, ya fuese en el campo de la
tecnología, del diseño de producto, de los procesos de producción, de los
tipos de mercadotecnia, de los sistemas de distribución o de la atención a la
clientela.
Es precisamente esta actividad dual interna y externa la que motiva la
innovación constante, la que a su vez genera ventajas competitivas, como se
muestra a continuación:
Cuadro 2: Un nuevo enfoque: el conocimiento como recurso para incrementar la competitividad
Fuente: Nonaka (1999)
A pesar de la atención que los analistas de negocios y sociales más
importantes han prestado a la cuestión del conocimiento, ninguno de ellos ha
examinado con detalle los mecanismos y procesos necesarios para la
creación de conocimiento. He allí por qué la forma en la que los japoneses
108
tratan con el conocimiento es distinta. Por eso es que la historia de las
compañías japonesas resulta especialmente interesante y útil.
El conocimiento explicito puede expresarse con palabras y números, y
puede trasmitirse y compartirse fácilmente en forma de datos, formulas
científicas, procedimientos codificados o principios universales. El
conocimiento se considera un código de computadora, una formula química o
un juego de reglas generales.
La diferencia entre el conocimiento explicito y el tácito es la clave para
entender la forma diferente en la que los occidentales y los japoneses tratan
con el conocimiento. El explicito puede ser fácilmente "procesado" por una
computadora, trasmitido electrónicamente o gua dado en bases de datos.
Pero la naturaleza subjetiva e intuitiva del conocimiento tácito dificulta su
procesamiento o trasmisi6n de forma sistemática o lógica. Para que ese
conocimiento se trasmita y disemine entre los miembros de una organización,
es necesario convertirlo en palabras o números que todos entiendan. Es
precisamente durante el tiempo que toma esta conversi6n de tácito en
explicito y, según veremos, de vuelta a tácito, como se crea el conocimiento
en las organizaciones.
4.3.2 Tres características clave de la creación de conocimiento Se sugiere tres características más de la creación de conocimiento que
se relacionan con la manera en la que lo tácito puede hacerse explicito: 1.
expresar lo inexpresable, para lo cual se confía sobre todo en el lenguaje
figurativo y en el simbolismo; 2. diseminar el conocimiento, ya que el
conocimiento personal de un individuo debe ser compartido con otros; 3. el
nuevo conocimiento nace entre la bruma de la ambigüedad y la redundancia.
A continuación examinaremos cada una de estas tres características.
4.3.2.1 Metáfora y analogía
109
Los ejecutivos japoneses utilizan el lenguaje figurativo para enunciar sus
discernimientos y su intuición. El lenguaje figurativo, que es especialmente
importante en el desarrollo de productos, puede tener la forma de una
metáfora o de una analogía.
Por medio de las metáforas, la gente unifica de una manera nueva lo que
sabe y empieza a expresar lo que ya conoce pero aun no puede decir. Como
tal, la metáfora es muy efectiva para fomentar el compromiso directo con el
proceso creativo durante las primeras fases de la creación de conocimiento.
Una analogía tiene una estructura que facilita mucho más que una
metáfora la diferenciación entre dos ideas u objetos. Aclara como las dos
ideas u objetos son parecidos y a la vez diferentes. Por eso la analogía es un
paso intermedio entre la imaginación por si sola y el pensamiento lógico.
4.3.2.2 El paso del conocimiento personal al conocimiento organizacional
Sugiere como el nuevo conocimiento siempre tiene su origen en un
individuo, y como el conocimiento personal de un individuo se transforma en
conocimiento organizacional, valioso para la compañía en su conjunto. El
conocimiento puede amplificarse o cristalizarse en el grupo a través del
dialogo, la discusión, el intercambio de experiencias y la observación.
4.3.2.3 Ambigüedad y redundancia
En tercer lugar, algunas condiciones organizacionales pueden intensificar
el proceso de creación del conocimiento. Quizá suene paradójico, pero la
confusión que se genera en la misión encargada por los altos ejecutivos de
empresas, en el equipo de desarrollo de producto, puede brindar un sentido
de dirección extremadamente claro. En ocasiones, la ambigüedad resulta útil
110
no solo como fuente de un nuevo sentido de dirección, sino también como
fuente de significados alternativos y un nuevo tipo de pensamiento. Como
resultado, se genera nuevo conocimiento a partir del caos.
La redundancia es otra condición organizacional que vale la pena
mencionar. Es posible que para los ejecutivos occidentales, el termino
redundancia, con su connotación de duplicación innecesaria y de
desperdicio, suene poco atractivo. Sin embargo, la creación de una
organización redundante desempeña un papel importante en la
administración del proceso de creación de conocimiento. La redundancia es
fundamental porque estimula el dialogo y la comunicación frecuentes. Esto
ayuda a crear un "terreno cognoscitivo común" entre los empleados y, por
ende, facilita la transferencia de conocimiento tácito.
4.3.3 Conocimiento y administración. La historia de la filosofía desde los antiguos griegos puede resumirse
como el proceso de búsqueda de una respuesta a la pregunta: ¿qué es el
conocimiento?
4.3.4 La tradición intelectual japonesa En esta sección introducimos la tradición intelectual nipona. No hay una
corriente filosófica japonesa importante que se haya dado a conocer
ampliamente, ni se ha descrito ninguna de manera sistemática. Es muy difícil
encontrar un solo rastro de racionalismo cartesiano en el pensamiento
japon.es. Pero si existe una idea "japonesa" de conocimiento que Integra las
enseñanzas del budismo, el confucianismo y las corrientes filosóficas
occidentales más importantes. Examinaremos tres características distintivas
de la tradición intelectual japonesa: la unidad humano-naturaleza; la unidad
mente-cuerpo, y la unidad de uno mismo y de otro. Estos rasgos han dado
111
forma a los cimientos del punto de vista japonés hacia el conocimiento, y han
sido la base para establecer las prácticas administrativas niponas.
Como Nonaka (1995) señala anteriormente, la epistemología occidental
tiende a conciliar los valores más álgidos con teorías e hipótesis abstractas,
lo que ha contribuido al desarrollo de la ciencia. La columna vertebral de esta
tendencia es la antigua tradición, cuyo origen puede rastrearse hasta
Descartes, de valorar el conocimiento conceptual preciso y las ciencias
sistemáticas. Por el contrario, la epistemología japonesa tiende a valorar la
incorporación de la experiencia personal directa. La importancia que la
administración japonesa da a la experiencia personal en-el-acto es una
manifestación real de esa tendencia epistemológica.
Según Marshall (1965), "en gran parte el capital consiste en
conocimiento y organización. (...) El conocimiento es la máquina de
producción más poderosa a nuestro alcance (...) la organización ayuda al
conocimiento"
Por tanto, Simón (1973) concluye que una organización que se enfrenta
a un ambiente complejo debe diseñarse de modo tal que se minimice la
necesidad de distribución de la información entre sus unidades, para reducir
la carga de información en ellas.
Sin embargo, Simón dio demasiada importancia a las limitantes de la
capacidad cognoscitiva del ser humano y al aspecto lógico del razonamiento
humano y de los procesos organizacionales de toma de decisiones.
Se empieza a vislumbrar como aptitud proactiva de la organización que
incluya la noción de "caos creativo", la cual es indispensable para el proceso
de creación de conocimiento organizacional.
4.3.5 La ciencia de la estrategia de negocios Las mayores limitantes de la visión del conocimiento contenida en la
ciencia de la estrategia se pueden resumir en tres puntos. 1. Debido a su
112
fundamento teórico, la ciencia de la estrategia de negocios no puede tratar
con cuestiones de valores y creencias y excluye la posibilidad de creación de
conocimiento o de visión. La preocupación por la información explicita hace
que los investigadores ignoren la creación de una nueva visión o sistema de
valores. 2. La ciencia de la estrategia presupone la existencia del estilo de
administración arriba-abajo, en el cual se asume que s6lo los altos directivos
conciben o manipulan el conocimiento explicito existente. Así, se tiende a
desperdiciar la enorme cantidad de conocimiento tácito que está en manos
de todos los demás integrantes de la organización. 3. Los conceptos
prevalecientes de administración estratégica no prestan la atención debida al
papel del conocimiento como fuente de competitividad. Como la sociedad se
basa cada vez más en el conocimiento, la falta de atención a tal
conocimiento reduce las cualidades de este concepto, que de otra manera
seria muy atractivo.
Los factores humanos no cuantificables, como los valores, los
significados y las experiencias no están incluidos en la planificación formal de
los negocios ni en el despliegue de los recursos estratégicos. Como veremos
más adelante, esa falta de atención al aspecto humano del conocimiento fue
suplida con estudios acerca de la cultura organizacional, de manera similar a
la forma en la que la teoría de las relaciones humanas complemento a la
administración científica.
Drucker (1993) sugiere que uno de los retos más importantes para las
organizaciones, como parte de la sociedad del conocimiento, es construir
prácticas sistemáticas para administrar su propia transformación. La
organización debe estar preparada para abandonar el conocimiento que se
ha vuelto obsoleto) y aprender a crear cosas nuevas por medio del
mejoramiento continuo de todas sus actividades, el desarrollo de nuevas
aplicaciones a partir de su propio éxito y un proceso organizado de
innovación continua.
113
Senge (1990) descubrió que muchas organizaciones sufren
"impedimentos de aprendizaje". Para curar las enfermedades y fomentar la
capacidad de aprendizaje de la organización, propone la "organización que
aprende" como un modelo practico. Senge sostiene que la organización que
aprende tiene capacidad para adoptar el aprendizaje generador (por ejemplo,
activo) y el aprendizaje adaptativo (por ejemplo, pasivo) como las fuentes de
ventajas competitivas sostenibles. Según Senge, para construir una
organización que aprende, los ejecutivos deben hacer lo siguiente: 1. adoptar
un "pensamiento sistémico"; 2. fomentar la maestría personal de sus propias
vidas; 3. sacar a flote y desafiar los modelos mentales prevalecientes; 4.
crear una visión compartida, y 5. facilitar el aprendizaje en equipo.
La competencia es una "guerra de movimientos" en la cual el éxito
depende de anticiparse a las tendencias del mercado y de responder con
premura a las cambiantes necesidades de los consumidores. Los
competidores exitosos entran y salen rápidamente de productos, mercados y
en ocasiones hasta de negocios enteros.
4.3.6 Teoría de la creación de conocimiento organizacional. Abstrayendo de Nonaka (1995) la teoría de la creación de conocimiento,
considerando las dos dimensiones de esa creación de conocimiento
(epistemológica y ontológica). En la figura 36 se muestran las dos
dimensiones en las que se da una espiral de creación de conocimiento.
Cuando la interacción entre conocimiento tácito y explicito se eleva
dinámicamente de un nivel ontológico bajo a niveles más altos, surge una
espiral.
La parte central de la teoría es la descripción de como se da esa espiral.
Se determina las cuatro formas de conversión de conocimiento que surgen
cuando el conocimiento tácito y el explicito interaccionan. Estas cuatro
formas, son socialización, exteriorización, combinación e interiorización,
114
constituyen el motor del proceso de creación de conocimiento. Esas formas
son lo que el individuo experimenta. También son los mecanismos con los
cuales el conocimiento individual es enunciado y amplificado hacia adentro y
a través de la organización.
Grafico 1: Dimensiones de la creación del conocimiento Fuente: Nonaka (1999)
Para explicar la dimensión epistemológica, utilizamos el texto de Michael
Polanyi (1966) en el cual el autor establece las diferencias entre el
conocimiento tácito y el explicito. El tácito es personal y de contexto
especifico y, así, difícil de formalizar y comunicar. Por su parte, el
conocimiento explicito o "codificado" es aquel que puede trasmitirse
utilizando el lenguaje formal y sistemático.
4.3.7 Conversión de conocimiento: interacción de conocimiento tácito y explicito
115
El conocimiento tácito y el explicito no son entidades separadas, sino
complementarias. Hay una interacción y un intercambio entre ellos en las
actividades creativas de los seres humanos. El modelo dinámico de creación
de conocimiento se fundamenta en el supuesto crítico de que el
conocimiento humano se crea y expande a través de la interacción social de
conocimiento tácito y conocimiento explicito. A esta interacción se le llama
conversión de conocimiento.
Cuadro 3: Cuatro formas de conversión del conocimiento
Fuente: Nonaka (1999)
4.3.7.1 Cuatro formas de conversión de conocimiento
Asumir que el conocimiento se crea por la interacción entre conocimiento
tácito y explicito nos permite postular cuatro formas de conversión de
conocimiento: 1. de tácito a tácito, que se llama socialización, 2. de tácito a
explicito, o exteriorización; 3. de explicito a explicito, o combinación, y 4. de
explicito a tácito, o interiorización.
4.3.7.2 Socialización: de tácito a tácito
116
La socialización es un proceso que consiste en compartir experiencias y,
por tanto, crear conocimiento tácito tal como los modelos mentales
compartidos y las habilidades técnicas. Un individuo puede adquirir
conocimiento tácito directamente de otros sin usar el lenguaje. Los
aprendices trabajan con sus maestros y aprenden un oficio, no a través del
lenguaje sino a través de la observación, la imitaci6n y la práctica. En el
ambiente de negocios, en la capacitación en el trabajo usa básicamente el
mismo principio. La clave para obtener conocimiento tácito es la experiencia.
4.3.7.3 Exteriorización: de tácito a explicito
La exteriorización es un proceso a través del cual se enuncia el
conocimiento tácito en forma de conceptos explícitos. Es un proceso esencial
de creación de conocimiento en el que el conocimiento tácito se vuelve
explicito y adopta la forma de metáforas, analogías, conceptos, hipótesis o
modelos. Cuando intentamos conceptuar una imagen, expresamos su
esencia casi siempre usando el idioma (escribir es un acto de conversión de
conocimiento tácito en conocimiento; Emig, 1983). Pero las expresiones son
con frecuencia, inadecuadas, inconsistentes e insuficientes. Sin embargo,
tales discrepancias y huecos entre las imágenes y las expresiones
promueven la reflexión y la interacción entre individuos. La exteriorización se
observa típicamente en el proceso de creación de conceptos y es generada
por el dialogo o la reflexión colectiva.
De las cuatro formas de conversión de conocimiento, la exteriorización es
la clave de la creación de conocimiento, porque crea conceptos explícitos
nuevos a partir del conocimiento tácito.
La metáfora es una forma de percibir o entender intuitivamente una cosa
imaginando otra cosa simbólicamente. Se utiliza con frecuencia en
razonamientos abductivos o métodos no analíticos para crear conceptos
117
radicales (Bateson, 1979). No es ni el análisis ni la síntesis de los atributos
comunes de cosas asociadas. Donnellon, Gray y Bougon (1986) señalan que
"las metáforas generan nuevas interpretaciones de la experiencia al pedirle al
oyente que vea una cosa en términos de otra" y "crean nuevas maneras de
vivir la realidad"
La asociación de dos cosas a través de la metáfora depende sobre todo
de la intuición y la imaginación holística, y su propósito no es encontrar
diferencias. Por otro lado, la asociación a través de la analogía depende del
pensamiento racional y se centra en las similitudes estructurales/funcionales
entre dos cosas y, por ende, en sus diferencias. La analogía nos ayuda a
entender lo desconocido a través de lo conocido y nos permite librar la
brecha entre una imagen y un modelo lógico.
En un modelo lógico no debe haber contradicciones y todos los
conceptos y las proposiciones debe en expresarse usando un lenguaje
sistemático y una lógica coherente. Pero en términos de negocios, lejos de
ser específicos, los modelos suelen ser descripciones vagas o bosquejos. En
este contexto, por lo general los modelos surgen de las metáforas cuando se
crean nuevos conceptos.
4.3.7.4 Combinación: de explícito a explicito
La combinación es un proceso de sistematización de conceptos con el
que se genera un sistema de conocimiento. Esta forma de conversión de
conocimiento implica la combinación de distintos cuerpos de conocimiento
explicito. Los individuos intercambian y combinan conocimiento a través de
distintos medios, tales como documentos, juntas, conversaciones por
teléfono o redes computarizadas de comunicación. La reconfiguración de la
información existente que se lleva a cabo clasificando, añadiendo,
combinando y categorizando el conocimiento explicito (como en bases de
datos de computadora), puede conducir a nuevo conocimiento. La creación
118
de conocimiento que se da en las escuelas gracias a la educación y al
entrenamiento formal, por lo general adopta esta forma. Una maestría en
administración de negocios, es uno de los mejores ejemplos.
4.3.7.5 Interiorización: de explícito a tácito
La interiorización es un proceso de conversión de conocimiento explicito
en conocimiento tácito y está muy relacionada con el "aprendiendo
haciendo". Cuando las experiencias son internalizadas en la base de
conocimiento tácito de los individuos a través de la socialización, la
exteriorización y la combinación, en la forma de modelos mentales
compartidos y know-how técnico, se vuelven activos muy valiosos. Sin
embargo, para que se dé la creación de conocimiento organizacional es
necesario que el conocimiento tácito acumulado en el piano individual se
socialice con otros miembros de la organización, empezando así una nueva
espiral de creación de conocimiento.
Para que el conocimiento explicito se vuelva tácito, es de gran ayuda que
el conocimiento se verbalice o diagrame en documentos, manuales o
historias orales. La documentación ayuda a los individuos a interiorizar lo que
han experimentado, enriqueciendo, por tanto, su conocimiento tácito.
La interiorización también ocurre sin necesidad de re experimentar las
vivencias de otros. Por ejemplo, si leer o escuchar una historia de éxito hace
que algunos miembros de la compañía sientan el realismo y la esencia de
esa historia, la experiencia que tuvo lugar en el pasado puede convertirse en
un modelo mental tácito. Cuando ese modelo mental es compartido por la
mayoría de los miembros de la organización, el conocimiento tácito se vuelve
parte de la cultura organizacional. Esta práctica es común en Japón, en
donde abundan los libros y los artículos acerca de las compañías o sus
directores, lo cual puede conducir a la interiorización.
119
4.3.8 El contenido del conocimiento y la espiral de conocimiento.
Como hemos señalado, la meta de la socialización es compartir el
conocimiento tácito. Sin embargo, en sí misma es una forma limitada de
creación de conocimiento. A menos que el conocimiento compartido se
vuelva explicito, no puede ser potenciado fácilmente por la compañía en su
conjunto. Además, usar una simple combinación de piezas discretas de
información explicita para crear un todo nuevo (por ejemplo, un controlador
recaba información a lo largo y a lo ancho de la empresa y la resume en un
reporte financiero), no extiende la base de conocimiento de la firma. Pero
cuando el conocimiento tácito y el explicito interactúan, surge la innovación.
La creación de conocimiento organizacional es una interacción continua de
conocimiento tácito y conocimiento explicito. Esta interacción adquiere forma
gracias a la intercalación de diferentes formas de conversión de
conocimiento, las cuales son generadas por distintas razones, Primero, la
socialización se inicia generalmente con la creación de un campo de
interacción. Este campo permite que los miembros de equipo compartan sus
experiencias y modelos mentales.
Segundo, la exteriorización empieza a partir de un dialogo o reflexión
colectiva significativos, en los que el uso de una metáfora o una analogía
apropiadas ayudan a los miembros a enunciar el conocimiento tácito oculto,
que de otra manera resulta difícil de comunicar. Tercero, la combinación da
comienzo con la distribución por redes del conocimiento recién creado y el
conocimiento existente de otras secciones de la organización,
cristalizándolos así en un nuevo producto, servicio o sistema administrativo.
Y cuarto, la interiorización se origina en aprender haciendo.
120
Cuadro 4: Teorías de la creación del conocimiento organizacional
Fuente: Nonaka (1999)
El conocimiento tácito movilizado se amplifica organizacionalmente a
través de las cuatro formas de conversión de conocimiento y cristalizado en
niveles ontológicos más altos. A esto lo llamamos espiral de conocimiento,
donde la escala de interacción del conocimiento tácito y el explicito se
incrementara conforme avanza por los niveles ontológicos. Así, la creación
de conocimiento organizacional es un proceso en espiral que inicia en el
nivel individual y se mueve hacia adelante pasando por comunidades de
interacción cada vez mayores, y que cruza los limites o fronteras de las
secciones, de los departamentos, de las divisiones y de la organización.
121
Grafico 2: Espiral de la creación del conocimiento organizacional
Fuente: Nonaka (1999)
4.3.8.1 Posibilitar las condiciones para la creación de conocimiento
organizacional
La espiral de conocimiento es encauzada por la intención organizacional,
que se define como la aspiración que una empresa tiene por alcanzar sus
metas. En el ámbito de los negocios, los esfuerzos por tal intención
generalmente asumen la forma de una estrategia. Desde el punto de vista de
la creación de conocimiento organizacional, la esencia de la estrategia es
desarrollar la capacidad organizacional para adquirir, crear, acumular y
explotar el conocimiento.
El elemento más importante de la estrategia corporativa es conceptuar
una visión acerca de qué tipo de conocimiento debe desarrollarse y hacerla
122
operativa en forma de un sistema de administración para su implantación,
Para crear conocimiento, las organizaciones de negocios deben apoyar el
compromiso entre sus empleados formulando una intención organizacional y
proponiéndoselas.
4.3.8.2 Autonomía La segunda condición para que se dé la espiral de conocimiento es la
autonomía. En el plano individual, debería consentirse que todos los
miembros de una organización actuaran tan autónomamente como las
circunstancias lo permitan. Al dejar que atraen de manera autónoma, la
organización puede incrementar las posibilidades de encontrar oportunidades
inesperadas. La autonomía también aumenta las posibilidades de que los
individuos se motiven a sí mismos para crear nuevo conocimiento. Además,
los individuos autónomos funcionan como parte de la estructura holográfica,
en la que el todo y cada una de las partes comparten la misma información.
Las ideas originales emanan de individuos autónomos, se difunden en el
interior del equipo y entonces se vuelven ideas organizacionales.
4.3.8.3 Fluctuación y caos creativo La tercera condición organizacional necesaria para fomentar la espiral de
conocimiento es la fluctuación y el caos creativo, que estimulan la interacción
de la organización y el ambiente externo.
Cuando se introduce la fluctuación en una organización, sus miembros
se enfrentan a una ruptura de rutinas, hábitos o marcos cognoscitivos.
Winograd y Flores (1986) destacan la importancia que tienen tales rupturas
periódicas para el desarrollo de la percepción humana. Una ruptura es una
interrupción en nuestro estado de ser habitual y cómodo. Cuando nos
enfrentamos a tal ruptura, tenemos una oportunidad para reconsiderar
123
nuestro pensamiento y perspectivas fundamentales. En otras palabras,
cuestionamos la validez de nuestras actitudes básicas hacia el mundo. Un
proceso tal requiere un profundo compromiso personal por parte del
individuo. Una ruptura exige que prestemos atención al dialogo como un
medio de interacción social, ayudándonos así a crear nuevos conceptos.
Una fluctuación ambiental genera con frecuente una ruptura en el interior
de la organización, a partir de la cual se puede crear nuevo conocimiento.
Algunos describen este fenómeno como "crear conocimiento a partir del
ruido" u "orden a partir del caos".
El caos se genera naturalmente cuando la organización se enfrenta a
una crisis, como un rápido descenso en el desempeño debido a cambios en
las necesidades del mercado o a un crecimiento significativo de los
competidores. También se puede generar intencionalmente cuando los
directores de la compañía quieren evocar un sentimiento de crisis entre los
miembros de la organización, estableciendo metas desafiantes.
Este caos intencional, al que se llama caos creativo, incrementa la
tensión en el interior de la organización y hace que los miembros se
concentren en definir el problema y resolver la crisis. Este enfoque es
altamente contrastante con el paradigma del procesamiento de la
información, en el que simplemente se plantea un problema y se encuentra
una solución a través de un proceso de combinación de información
relevante, con base en un algoritmo preestablecido. Este proceso soslaya la
importancia de definir cuál es el problema que debe resolverse. Para
alcanzar tal definición, los problemas tienen que construirse a partir del
conocimiento disponible en un cierto punto en el tiempo y en el contexto.
4.3.8.4 Redundancia
La redundancia es la cuarta condición necesaria para lograr una espiral
de conocimiento organizacional. Para los administradores occidentales,
124
preocupados por tener un eficiente procesamiento de información o por
reducir la incertidumbre (Galbraith, 1973), el término redundancia puede
resultar pernicioso debido a sus distintas connotaciones: duplicación
innecesaria, desperdicio o sobrecarga de información. Lo que queremos
decir con redundancia es la existencia de información que va más allá de los
requerimientos operacionales inmediatos de los miembros de la
organización.
4.3.8.5 Variedad de requisitos La quinta condición para fomentar la espiral de conocimiento es la
variedad de requisitos. Según Ashby (1956), la diversidad interna de una
organización debe ser tan amplia como la variedad y la complejidad del
ambiente para poder enfrentarse a los desafíos establecidos por este
ambiente que la rodea. Los miembros de la organización pueden superar
muchos problemas si poseen variedad de requisitos, la cual puede
fomentarse combinando la información de manera distinta, flexible y rápida, y
distribuyendo por igual la información en todas las secciones de la
organización. Para maximizar la variedad, todas las personas de la
organización deben contar con un acceso rápido a la mis amplia gama de la
información requerida en un momento dado, pasando por el menor número
de pasos posible (Numagami, Ohta y Nonaka, 1989).
Desarrollar una estructura organizacional plana y flexible en la que las
distintas unidades estén interconectadas con una red de información es una
de las formas de tratar con la complejidad del ambiente. Otra manera de
reaccionar rápidamente a fluctuaciones inesperadas del ambiente y
mantener la diversidad interna, es cambiar la estructura organizacional con
frecuencia.
125
4.3.9 Modelo de cinco fases del proceso de creación de conocimiento organizacional
Hasta ahora hemos analizado cada una de las cuatro formas de
conversión de conocimiento y las cinco condiciones que faciliten de la
creación de conocimiento organizacional. En esta sección presentamos un
modelo integral de cinco fases del proceso de creación de conocimiento
organizacional, utilizando los fundamentos básicos desarrollados en el marco
teórico e incorporando la dimensión del tiempo a nuestra teoría. El modelo,
que debe interpretarse como un ejemplo ideal del proceso, tiene cinco fases:
compartir conocimiento tácito, crear conceptos, justificar los conceptos,
construir un arquetipo y distribuir el conocimiento de forma cruzada.
Cuadro 5: Modelo de cinco fases del proceso de creación de conocimiento organizacional
Fuente: Nonaka (1999)
126
El proceso de creación de conocimiento organizacional empieza al
compartir conocimiento tácito, lo cual corresponde rudimentariamente a la
socialización, ya que el conocimiento abundante e inmaculado que reside en
los individuos debe ser primero amplificado en el interior de la organización.
En la segunda fase, el conocimiento tácito que ha sido compartido por los
miembros de un equipo autoorganizable, por ejemplo, es convertido en
conocimiento explicito en la forma de un nuevo concepto, proceso que es
similar a la exteriorización, El concepto creado debe ser justificado en la
tercera fase, durante la cual la organización determina si en verdad vale la
pena desarrollar el nuevo concepto. Después de ser aceptados, en la cuarta
fase los conceptos son convertidos en un arquetipo, que puede adoptar la
forma de un prototipo si se trata del desarrollo de un producto "físico" o de
un mecanismo operacional si se trata de una innovación como un valor
corporativo, un nuevo sistema administrativo o una estructura organizacional
innovadora. La última fase distribuye el conocimiento creado, por ejemplo, en
una división, entre otras personas de la misma división, a través de otras
divisiones o hasta entre grupos de interés externos, como parte de lo que
llamamos distribución cruzada de conocimiento. Entre los grupos de interés
externos se incluye a clientes, compañías filiales, universidades y
distribuidores. Una organización creadora de conocimiento no opera como un
sistema cerrado, sino como un sistema abierto que permite el intercambio
constante de conocimiento con el ambiente externo. En las secciones
siguientes describiremos con detalle cada una de las cinco fases.
4.3.9.1 La primera fase: compartir el conocimiento tácito
Como hemos reiterado, una organización no puede crear conocimiento
sola. Ya que el conocimiento tácito de los individuos es la base de la
creación de conocimiento organizacional, resulta natural empezar el proceso
centrándose en el conocimiento tácito, que es una fuente inmaculada y
127
abundante de nuevo conocimiento. Pero no es fácil comunicar o pasar a
otros el conocimiento tácito, ya que se adquiere principalmente a través de la
experiencia y no siempre se puede expresar en palabras. Así, compartir el
conocimiento tácito entre individuos con distintos antecedentes, perspectivas
y motivaciones es el paso fundamental para que se dé la creación de
conocimiento organizacional. Las emociones, los sentimientos y los modelos
mentales de los individuos deben ser compartidos para lograr la confianza
mutua.
Un equipo autoorganizable facilita la creación de conocimiento
organizacional a través de la variedad de requisitos de los miembros del
equipo, quienes viven la redundancia de información y comparten su
interpretativo de la intención de la organización. La administración genera el
caos creativo estableciendo metas demandantes y brindando gran
autonomía a los miembros del equipo. Un equipo autónomo establece sus
propios límites para sus tareas y, como una unidad que expande los limites,
comienza a interactuar con el medio externo, acumulando conocimiento
tácito y explícito.
4.3.9.2 La segunda fase: crear conceptos
La interacción más intensa entre conocimiento tácito y explicito ocurre
durante la segunda fase. Una vez que se ha formado un modelo mental
compartido en el campo de la interacción, el equipo autoorganizable lo
enuncia a través de más dialogo continuo, en forma de reflexión colectiva. El
modelo mental tácito compartido se verbaliza en palabras y frases y,
finalmente, cristaliza en conceptos explícitos. En este sentido, esta fase
corresponde a la exteriorización.
Ese proceso de conversión de conocimiento tácito a explicito se lleva a
cabo a través del uso de múltiples métodos de razonamiento, como la
deducción, la inducción y la abducción. La abducción es particularmente te
128
útil para esta fase, ya que emplea el lenguaje figurativo, como metáforas y
analogías.
4.3.9.3 La tercera fase: justificar los conceptos
El conocimiento se define como la creencia verdadera justificada. Por
tanto, los nuevos conceptos creados por los individuos o por el equipo deben
ser justificados en algún momento del procedimiento. La justificación incluye
determinar si los conceptos creados son en verdad validos para la
organización y para la sociedad.
4.3.9.4 La cuarta fase: construir un arquetipo
En la cuarta fase, el concepto justificado se convierte en algo tangible y
concreto, es decir, un arquetipo. Este puede pensarse como un prototipo en
el caso del proceso de desarrollo de un producto nuevo.
4.3.9.5 La quinta fase: expandir el conocimiento El nuevo concepto, que ha sido creado, justificado y modelado, continua
adelante hacia un nuevo ciclo de creación de conocimiento en un nivel
ontológico distinto. Este proceso interactivo y en espiral, que llamamos
distribución cruzada de conocimiento, tiene lugar dentro y
interorganizacionalmente.
Intraorganizacionalmente, el conocimiento que se ha traído a la realidad
o ha adquirido la forma de un arquetipo puede generar un nuevo ciclo de
creación de conocimiento, expandiéndose horizontal y verticalmente a través
de la organización.
4.3.10 Creación de conocimiento en la práctica
129
Las organizaciones no pueden conformarse con el conocimiento
presente, ya que el conocimiento es perecedero y será necesario obtener
distintos tipos de conocimiento conforme cambia el ambiente competitivo.
Además, como ya hemos visto, esta habilidad para crear nuevo conocimiento
constantemente es la fuente de competitividad en el contexto de una
sociedad de conocimiento.
4.3.11 El modelo "centro-arriba-abajo”, un proceso de administración para la creación del conocimiento
Empezamos examinando dos modelos dominantes de administración, los
modelos arriba-abajo y abajo-arriba, los cuales resultan insuficientes para
promover la interacción necesaria para crear conocimiento organizacional.
Proponemos un nuevo modelo, que llamamos "centro-arriba-abajo", y
explicamos por qué resulta mejor para la administración de la creación de
conocimiento, que los modelos más tradicionales. El nuevo modelo ubica al
ejecutivo de nivel medio en el centro de la administración de conocimiento y
redefine los papeles de los altos directivos y de los empleados de primera
línea.
Estos dos modelos tradicionales pueden ser alternativas el uno del otro,
pero ninguno de ellos es adecuado como proceso de administración de la
creación de conocimiento. El modelo arriba-abajo es adecuado para tratar
con conocimiento explicito, pero al controlar la creación de conocimiento
desde arriba, ignora el desarrollo de conocimiento tácito que puede darse en
la línea frontal de una compañía. Por otro lado, el modelo abajo-arriba es
apto para tratar con el conocimiento tácito, pero su énfasis en la autonomía
hace muy difícil compartir y distribuir tal conocimiento en el interior de la
organización.
130
4.3.12 Administración "centro-arriba-abajo" Puesto de forma simple, el conocimiento es creado por los ejecutivos de
nivel medio, quienes con frecuencia son líderes de un equipo o una fuerza
estratégica, a través de un proceso de conversión en espiral que involucra
tanto a los altos directivos como a los empleados de la línea frontal. El
proceso coloca a los ejecutivos de nivel medio en el centro de la
administración de conocimiento, justo en la intersección de los flujos de
información horizontal y vertical de la compañía.
El hecho de que la administración centro-arriba-abajo ponga de relieve el
papel dinámico de los ejecutivos de nivel medio, distingue inequívocamente
la teoría de las teorías administrativas convencionales.
Figura 30: Proceso de creación de conocimiento centro-arriba-abajo Fuente: Nonaka (1999)
4.3.13 El equipo creador de conocimiento
131
Para crear nuevo conocimiento en la compañía creadora de
conocimiento se requiere la participación de los empleados de la línea
frontal, de los ejecutivos de nivel medio y de los altos directivos. Todas las
personas de una compañía creadora de conocimiento son creadoras de
conocimiento. Sin duda, el valor de la contribución de cada integrante es
determinado más por la importancia de la información que provee al sistema
total de creación de conocimiento, que por la position que la persona ocupa
en la jerarquía de la empresa. Sin embargo, esto no significa que no haya
diferentes papeles o responsabilidades en la compañía creadora de
conocimiento. De hecho, la creación de nuevo conocimiento es producto de
la interacción dinámica de los siguientes tres tipos de personas: los
practicantes de conocimiento, los ingenieros de conocimiento y los
funcionarios de conocimiento.
4.3.14 Una nueva estructura organizacional
El conocimiento y la innovación se vuelven cada vez más importantes
para la obtención de un éxito competitivo, y que el descontento con las
estructuras organizacionales tradicionales se está incrementando, no debe
ser una sorpresa. Durante la mayor parte de este siglo, la estructura
organizacional ha oscilado entre dos tipos básicos: la burocracia y la fuerza
estratégica. Pero cuando se trata de la creación de conocimiento, ninguna de
estas estructuras es adecuada: se requiere una combinación o síntesis de
las dos.
4.3.15 Critica de las dos estructuras organizacionales tradicionales La oscilación entre burocracia y fuerza estratégica se origina en el siglo
XIX, cuando Max Weber declaró que las organizaciones mis racionales y
eficientes de la sociedad moderna tienen características burocráticas (Gerth
132
y Mills, 1972). La estructura burocrática funciona bien cuando las
condiciones son estables, pues enfatiza el control y la predictibilidad de
funciones especificas. La estructura burocrática, que es en extremo formal,
especializada, centralizada y dependiente de la estandarización de los
procesos de trabajo para lograr la coordinación organizacional, es adecuada
para llevar a cabo trabajo rutinario en gran escala. Es común en las
industrias estables y maduras que realizan, sobre todo, trabajo de tipo
repetitivo y racionalizado.
La teoría de la evolución organizacional señala que "la adaptativo impide
la adaptabilidad". En otras palabras, existe el peligro de sobre adaptarse a
los éxitos pasados. El dinosaurio es un ejemplo apropiado. En cierto
momento este animal era adecuado tanto fisiológica como morfológicamente
para un ambiente particular. Pero se sobre adapto a ese ambiente y no pudo
ajustarse a los cambios en el clima y la disponibilidad de alimento.
4.3.16 En busca de una síntesis.
La meta es lograr una estructura organizacional que considere a la
burocracia y a la fuerza estratégica como complementarias, en lugar de
mutuamente excluyentes. La metáfora más apropiada para tal estructura es
hipertexto, concepto desarrollado originalmente en computación.
La organización de tipo hipertexto, una síntesis dinámica de la estructura
burocrática y la fuerza estratégica, obtiene beneficios de ambas. La
estructura burocratice implanta, explota y acumula nuevo conocimiento
eficazmente, a través de la interiorización y la combinación, mientras que la
fuerza estratégica es indispensable para generar nuevo conocimiento por
medio de la socialización y la exteriorización.
La inteligencia de una corporación no surge de su presidente o de los
altos ejecutivos. Debe brotar de la reunión de todo el conocimiento de todos
sus miembros. Una compañía grande está separada en numerosas
133
secciones. Si esta compañía no tiene el sistema adecuado para integrar el
conocimiento de cada sección, el conocimiento recién creado será escaso. El
conocimiento de cada sección no es el de su ejecutivo principal. Por ejemplo,
un operador de línea puede brindar una gran idea para la racionalización. La
prosperidad en el largo plazo de una corporación depende de si puede
integrar y acumular estas ideas como si fuera una sola.
4.3.17 Implicaciones prácticas
Cualquier administrador o gerente que lea la prensa se dará cuenta de
que nos encontramos en la "sociedad de conocimiento", en la cual el
conocimiento no es solo un recurso más aparte de los factores tradicionales
de producción (trabajo, capital y tierra), sino el más importante. Los
administrador es también se percataran de que el futuro pertenece a los
"trabajadores de conocimiento", quienes usan su cabeza en lugar de las
manos, y de que la clave para alcanzar la prosperidad en los años venideros
es educar y capacitar a estos trabajadores. Según el pensamiento popular, si
las compañías "capacitan, capacitan, capacitan a estos trabajadores de
conocimiento, entonces aprenderán, aprenderán, aprenderán".
Este modelo simplista funcionará si la compañía está interesada solo en
absorber conocimiento de alguna parte y transferirlo a los individuos de la
organización. Pero no funcionara si la intención es crear conocimiento, no
sólo en el nivel individual, sino en el nivel grupal y organizacional. En el caso
simplista, el conocimiento se mueve lateralmente y en una dirección,
mientras que cuando se crea conocimiento organizacional, se mueve en
espiral. En esta sección presentamos siete medidas que se pueden adoptar para
implantar un programa de creación de conocimiento organizacional en una
compañía. Estas medidas, que se examinaran más adelante, son:
Crear una visión de conocimiento.
134
Desarrollar personal de conocimiento.
Construir un campo de interacción de alta densidad en la línea frontal
Apoyarse en el proceso de desarrollo de nuevos productos
Adoptar la administración centro-arriba-abajo.
Adoptar una organización de tipo hipertexto.
Construir una red de conocimiento con el exterior.
4.3.17.1 Crear una visión del conocimiento
Los altos directivos deben crear una visión del conocimiento y divulgarla
en la organización. Una visión de conocimiento debe definir el campo o
sector que brinda a los miembros corporativos un mapa mental del mundo en
el que viven y define que tipo de conocimiento deben buscar y crear. Es
similar a la intención organizacional y debe servir como fundamento para
formular la estrategia de la empresa. La esencia de la estrategia es
desarrollar la capacidad organizacional para adquirir, crear, acumular y
explotar el sector de conocimiento.
4.3.17.2 Desarrollar personal de conocimiento
La creación de nuevo conocimiento tiene su initio en el individuo. Pero
como menciona Robert Howard (1993): "La creación de conocimiento nuevo
no es un simple 'procesamiento' de información objetiva. De hecho, es una
actividad subjetiva y en extremo personal". Por tanto, la creación de
conocimiento comienza con el esfuerzo de un individuo para validar o
justificar sus creencias y su compromiso con el trabajo y la empresa; las
perspectivas o "modelos mentales" personales también entran en juego. Los
discernimientos y la intuición altamente subjetivos se encuentran en la raíz
de la creación de conocimiento y la innovación.
Un líder de proyecto es algo así como un emprendedor con un gran
espíritu aventurero. Los líderes de proyecto se emocionan cuando intentan
135
algo nuevo o toman la iniciativa. Pero también están preparados para
coordinar y administrar proyectos, generar nuevas hipótesis o conceptos,
integrar varios métodos para la creación de conocimiento y comunicarse con
los miembros del equipo, ganándose su confianza.
4.3.17.3 Construir un campo de interacción de alta densidad en la línea frontal
Para nutrir la mentalidad altamente subjetiva y personal de los individuos
en la empresa, una compañía creadora de conocimiento debe tener un lugar
en el que se pueda obtener una rica fuente de experiencia original, lo que
llamamos un campo de alta densidad. Es decir, un ambiente en el que se dé
una interacción frecuente e intensiva de los miembros del equipo.
4.3.17.4 Apoyarse en el proceso de desarrollo de nuevos productos Sucede que el proceso de desarrollo de nuevos productos es el proceso
central de la creación de conocimiento organizacional. Esta creación es
como un "derivado" del desarrollo de nuevos productos. Así, cuan bien
maneja una compañía el proceso de desarrollo de nuevos productos se
vuelve el determinante critico de cuan exitosa será la creación de
conocimiento organizacional.
4.3.17.5 Adoptar la administración centro-arriba-abajo
Con frecuencia, el proceso de creación de conocimiento organizacional
se inicia con una sensación de urgencia o crisis en la compañía. Hemos
observado que el caos creativo puede ser generado internamente
estableciendo metas organizacionales demandantes que se encuentran fuera
del alcance de las capacidades de la organización, o promoviendo la
136
"reflexión en acción", cuando la compañía alienta a sus miembros a dudar y
negar las premisas cognoscitivas/conductuales existentes.
4.3.17.6 Adoptar una organización de tipo hipertexto
Para que una compañía califique como creadora de conocimiento, debe
tener la capacidad organizacional para adquirir, acumular, explotar y crear
nuevo conocimiento continua y dinámicamente, y para re categorizarlo y re
contextualizarlo de forma estratégica para que lo utilicen otras personas de la
organización o las generaciones futuras. Por desgracia, las estructuras
organizacionales convencionales no son tan flexibles como para desempeñar
todas estas funciones.
4.3.17.7 Construir una red de conocimiento con el exterior Crear conocimiento no es simplemente un asunto de procesar
información objetiva acerca de los clientes, los proveedores, los
competidores, los suscriptores, la comunidad regional o el gobierno. Los
miembros del equipo también deben movilizar el conocimiento tácito de los
agentes externos a través de interacciones sociales. Extraer los mapas
mentales de los clientes es un ejemplo clásico de esta actividad.
La mayor parte de las necesidades de los clientes son tacitas, lo que
significa que no pueden decir exacta o explícitamente lo que requieren o
desean. Cuando se les pregunta "que necesitas o quieres", la mayoría
responde a partir del limitado conocimiento explicito que les ha brindado la
adquisición de productos o servicios en el pasado. Esta tendencia señala la
limitante crítica del formato de cuestionario de un sentido empleado en las
investigaciones de mercado tradicionales.
4.3.18 Implicaciones teóricas
137
La clave de nuestra teoría es comprender la naturaleza de la conversión
subyacente del proceso dinámico e interactivo de creación de conocimiento.
Encontramos una variedad de conversiones a lo largo del libro. La mis
importante y evidente es, por supuesto, la conversión de conocimiento tácito
en explicito y viceversa, a la cual llamamos conversión de conocimiento.
En la nueva "sociedad del conocimiento" el éxito será juzgado de
acuerdo con las capacidades de creación de conocimiento. Para convertirse
en compañías creadoras de conocimiento, los ejecutivos de Oriente y de
Occidente necesitan construir y administrar múltiples conversiones, espirales
y síntesis, y no conformarse con realizar un simple enfrentamiento boxístico
unidimensional. La clave se encuentra en llevar a cabo múltiples
transformaciones a través de múltiples dimensiones, o lo que llamamos híper
transformaciones. Estas implicaran necesariamente un proceso dinámico,
interactivo y simultáneo. En el análisis final, las compañías que puedan
orquestar una hipertransformaci6n y hacerlo rápido, adquirirán una ventaja
competitiva sustentable en este cambiante medio corporativo. Por tanto, la
velocidad con la que tengan lugar las conversiones, las espirales y las
síntesis será una capacidad clave en el futuro.
4.3 Prospectiva, Rigor de una “indisciplina” intelectual
Según Godet (2007), la anticipación no tiene mayor sentido si no es que
sirve para esclarecer la acción. Esa es la razón por la cual la prospectiva y la
estrategia son generalmente indisociables. De ahí viene la expresión de
prospectiva estratégica. Sin embargo, la complejidad de los problemas y la
necesidad de plantearlos colectivamente imponen el recurso a métodos que
sean tan rigurosos y participativos como sea posible, al objeto de que las
soluciones sean reconocidas y aceptadas por todos. Tampoco hay que
olvidar las limitaciones que impone la formalización de los problemas ya que
138
los hombres también se guían por la intuición y la pasión. Los modelos son
invenciones del espíritu para representar un mundo que no se dejará
encerrar en la jaula de las ecuaciones. ¡Esto es hermoso pues, sin esta
libertad, la voluntad animada por el deseo quedaría sin esperanza!. Tal es la
convicción que nos anima: utilizar todas las posibilidades de la razón,
conociendo todas sus limitaciones, al igual que sus virtudes. Entre intuición y
razón no debería existir oposición sino, por el contrario, complementariedad.
Para que sea una “indisciplina” intelectual fecunda y creíble, la prospectiva
necesita rigor. La prospectiva, sea cual sea, constituye una anticipación (preactiva y
proactiva) para iluminar las acciones presentes con la luz de los futuros
posibles y deseables. Prepararse ante los cambios previstos no impide
reaccionar para provocar los cambios deseados. Dentro de la lógica del
triángulo griego, el color azul de la anticipación sólo puede transformarse en
el verde de la acción con el amarillo de la adaptación de los actores
implicados.
Retornándose a los principios de la prospectiva, Gaston Berger decía
que mediante la prospectiva se debía “observar lejos, ampliamente y
profundamente, pensar en el hombre y asumir riesgos” (Berger, Gaston
1959). Desde los años 70 hemos militado en el seno de los Fururibles para
añadir tres características que no se tuvieron en cuenta por parte de los
precursores cercanos a los príncipes en una sociedad jacobina.: observar de
otro modo (no fiarse de las ideas recibidas), observar conjuntamente
(apropiación) y utilizar los métodos tan rigurosos y participativos como sea
posible para reducir las inevitables incoherencias colectivas.
4.4.1 Planificación, prospectiva y estrategia: ¿cuál es la diferencia? Los conceptos de prospectiva, estrategia, planificación están en la
práctica íntimamente ligados, cada de ellos conlleva el otro y se entremezcla:
139
de hecho hablamos de planificación estratégica, de gestión y de prospectiva
estratégica. Para ser fecundo, es decir: portador de futuro, el matrimonio
entre la prospectiva y la estrategia debía encarnarse dentro de la realidad
cotidiana y dar lugar a una verdadera movilización de la inteligencia colectiva
a través de la apropiación (por todos los actores concernientes, situados
desde arriba hasta abajo de la jerarquía). Si el reencuentro entre la
prospectiva y la estrategia era inevitable, por el contrario no ha borrado la
confusión entre géneros y conceptos que utilizan ambas. A pesar de que los
conceptos estén muchísimo más próximos de lo que se admite
generalmente. Así pues, la definición de la planificación propuesta por Ackoff
(1973) "Concebir un futuro deseado así como los medios necesarios para
alcanzarlo" no difiere en absoluto de la definición que Godet propone para la
prospectiva, donde el sueño fecunda la realidad, donde el deseo y la
intencionalidad es fuente productora de futuro, donde la anticipación ilumina
la preactividad y la proactividad.
La razón por la cual se difunde la expresión de prospectiva estratégica
desde finales de los años ochenta. ¿Cómo podríamos pensar en actuar
como un estratega sin "mirar a lo lejos, a lo ancho, a lo profundo; tomar
riesgos, pensar en el hombre" tal como lo hace la prospectiva y así lo
comenta Gaston Berger? (1954). ¡Por supuesto que sería imposible! Y, en
sentido inverso, para Gaston Berger "contemplando el futuro se transforma el
presente"; de este modo la anticipación invita a la acción. Para nosotros, el
asunto es evidente, la prospectiva resulta muy a menudo estratégica caso de
no serlo por los avances que provoca, sí por la intención que lleva y la
estrategia se vuelve necesariamente prospectiva si desea iluminar las
opciones que comprometen el futuro.
Es importante detallar algunos conceptos claves que se van a definir
para entrar en contexto sobre lo que va a ser el viaje investigativo.
140
Prospectiva: anticipación para esclarecer la acción. Esta « indisciplina
intelectual » (Pierre Massé) tiene que ver con « ver de lejos, largo y
profundo» (Gaston Berger), pero también con (innovación y conjunto
(apropiación). La visión global, voluntaria y a largo plazo, se impone
para dar sentido a la acción.
Previsión: previsión de futuro debido a un grado de confianza.
Planificación: « la planificación consiste en concebir un futuro deseado
así como los medios reales para conseguirlo » (R.L. Ackoff).
Estrategia: conjunto de reglas de conducta de un actor que le permitan
conseguir sus objetivos y su proyecto.
Táctica(s): casi siempre en plural, ya que se trata de vías y medios
para alcanzar los objetivos de la estrategia en función de las
circunstancias.
Planificación estratégica: concepto aparecido a finales de los 60 (Igor
Ansoff para traducir el hecho de que la planificación de empresa debía
tener en cuenta cada vez más las turbulencias del entorno (dicho
estratégico) y adaptar, en consecuencia, sus objetivos.
Gestión estratégica: concepto lanzado a mediados de los 70, siempre
por Igor Ansoff, para establecer las condiciones que permitan a las
estructuras y a las organizaciones adaptarse a un mundo cada vez
más turbulento.
Prospectiva estratégica: concepto de los años 90 donde la
anticipación de la prospectiva se pone al servicio de la acción
estratégica y proyecto de la empresa.
4.4.3 De los deseos de la prospectiva a la realidad de la estrategia Siempre es tentador tomar los deseos como realidades. De cualquier
modo, porque existan unas visiones de futuro o unos escenarios que
parezcan deseables no se debería, ni vemos necesario que sería
141
conveniente, detener la opción o el proyecto estratégico de la empresa, en
función esta única visión proactiva, también es necesario mostrarse preactivo
y saber prepararse para los cambios que se esperan que se produzcan en el
entorno futuro de la empresa.
Todos los escenarios posibles no son igualmente probables o deseables
y por tanto es necesario distinguir los escenarios de entorno general de la
estrategia de los actores.
Así, el éxito de la palabra escenario ha conducido a cierto abuso y
confusión con la estrategia que es conveniente aclarar. Sería juicioso
distinguir entre una fase exploratoria que persiga la identificación de los retos
de futuro y una fase normativa que busque la definición de las opciones
estratégicas posibles y deseables para que la empresa, frente a estas
apuestas, pueda mantener bien el rumbo de su nave.
Las herramientas que se utilizan en la prospectiva permiten organizar y
estructurar de manera transparente y eficaz la reflexión colectiva sobre las
apuestas y retos de futuro y, llegado el caso, también la evaluación de las
opciones estratégicas.
Afirma Godet (2007) que no existen estadísticas sobre el futuro. Con
frecuencia, frente al porvenir, el único elemento de información disponible
que tenemos es el propio juicio personal que tenemos En consecuencia, es
necesario recoger otras opiniones para forjarnos la nuestra y realizar las
apuestas en forma de probabilidades subjetivas. Como le ocurre a un jugador
en el casino, se necesita realizar un conjunto de jugadas para poder apreciar
la calidad de las apuestas. La calidad de los expertos a los que se pregunta
plantea, a su vez, otro interrogante. Nuestra convicción es simple en este
caso: En la medida que un experto representa una opinión característica de
un grupo de actores, su punto de vista a considerar es interesante. No
olvidemos que, precisamente, a partir de esta visión de futuro, con razón o
sin ella, es cómo estos actores van a orientar sus propias acciones.
142
La incertidumbre sobre el futuro puede apreciarse a través del número de
escenarios que se reparten el campo de lo probable. En principio este
número es más elevado en función de que la incertidumbre sea mayor; pero
solo en principio porque es necesario tener en cuenta la diferencia del
contenido entre los escenarios: los más probables pueden ser muy próximos
o muy contrastados.
4.4.4 Las cinco cuestiones fundamentales de la prospectiva estratégica
En conclusión, si la prospectiva y la estrategia son dos amantes
íntimamente relacionados, permanecen diferenciados y distintos, es bueno y
conveniente separarlos:
el tiempo de la anticipación, es decir de la prospectiva de los cambios
posibles y deseables,
el tiempo de la preparación de la acción: es decir, la elaboración y la
evaluación de las opciones estratégicas posibles para prepararse a los
cambios esperados (preactividad) y provocar los cambios deseables
(proactividad).
Esta dicotomía entre la exploración y la preparación de la acción nos
lleva a distinguir cuatro cuestiones fundamentales: ¿Qué puede ocurrir? (Q1),
¿Qué puedo hacer? (Q2), ¿Qué voy a hacer? (Q3), ¿Cómo voy a hacerlo?
(Q4). Esta cuestión previa sobre la identidad de la empresa, frecuentemente
olvidada, es el punto de partida para la metodología estratégica de Marc
Giget (1998). Se impone una vuelta a las fuentes sobre las raíces de las
competencias, sus fortalezas y debilidades, recordando la famosa frase
“conócete a tí mismo” de la antigua Grecia.
La prospectiva, cuando va sola, se centra sobre (Q1) ¿Qué puede
ocurrir?. Se convierte en estratégica cuando una organización se interroga
143
sobre el ¿Qué puedo yo hacer? (Q2). Una vez ambas cuestiones hayan sido
tratadas, la estrategia parte del ¿Qué puedo yo hacer? (Q2) para plantearse
las otras dos cuestiones: ¿Qué voy a hacer yo? (Q3) y ¿Cómo voy a
hacerlo? (Q4). De ahí se deduce la imbricación que existe entre la
prospectiva y la estrategia. Naturalmente, existen ejercicios de prospectiva
general que no tienen un claro carácter estratégico para un determinado
actor, así como análisis estratégicos de empresas o de sectores cuya
componente prospectiva es embrionaria por no decir inexistente. Para dejarlo
más claro, se reservará pues la expresión de prospectiva estratégica a los
ejercicios de prospectiva que tengan ambiciones y persigan fines
estratégicos para el actor que los emprende.
4.4.5 Las cinco actitudes posibles frente al futuro Debido a los defectos en la anticipación cometidos ayer, el presente se
nos aparece lleno de cuestiones antes insignificantes, ahora urgentes, que
es necesario solucionar rápidamente, sacrificando el desarrollo a largo plazo,
instalando ilusorias soluciones. En un mundo en mutación donde las fuerzas
de cambio están revolucionando los factores de inercia y los hábitos
instalados, se impone un esfuerzo creciente de prospectiva (tecnológica,
económica y social) a la empresa para dotarse de flexibilidad estratégica, es
decir para reaccionar con flexibilidad manteniendo su rumbo frente al futuro,
los hombres tenemos la elección de adoptar cuatro actitudes: el avestruz
pasivo que sufre el cambio, el bombero reactivo que se ocupa en combatir el
fuego, una vez éste se ha declarado, el asegurador preactivo que se prepara
para los cambios previsibles pues sabe que la reparación sale más cara que
la prevención, el conspirador proactivo que trata de provocar los cambios
deseados.
4.4.6 Cinco ideas clave de la prospectiva
144
Toda forma de predicción es una impostura. El futuro no está escrito sino
que queda por hacer. El futuro es múltiple, indeterminado y abierto a una
gran variedad de futuros posibles. Lo que pasará mañana, depende menos
de las fuertes tendencias que se impondrían fatalmente a los hombres que
de las políticas que desarrollan los hombres al objeto de hacer frente a esas
tendencias.
Si el futuro es en parte fruto de la voluntad, esta última para ejercerse
eficazmente debe intentar guardar el espíritu de las cinco ideas clave de la
prospectiva.
4.4.6.1 El mundo cambia pero los problemas permanecen
Después de un cuarto de siglo de reflexiones y de estudios prospectivos
sobre los territorios, las empresas y las grandes apuestas que tienen las
sociedades modernas, podemos decir que se ha llegado a una constatación
bien conocida y, por tanto, generalmente ignorada: Son siempre los hombres
y las organizaciones los que crean la diferencia. Así, cuando una empresa se
encuentra en dificultades, en realidad, todo se explica mejor si
considerásemos que se trata de un fallo grave de calidad en la gerencia y
que se muestra incapaz de anticipar, de innovar y de motivar a los hombres.
El mundo cambia y los problemas permanecen. Tal es la constatación
que se impone cada vez que nos tropezamos con un problema con el que ya
nos hemos encontrado cinco, diez o incluso quince años antes.
Los hombres tienen la memoria corta: desconocen lo que es el largo
plazo y sus enseñanzas. La historia no se repite pero los comportamientos
se reproducen con el correr del tiempo, los hombres conservan inquietantes
similitudes de comportamiento que les conducen, colocados ante situaciones
comparables, a reaccionar de manera casi idéntica y, en consecuencia, de
una manera previsible.
145
De este modo, es como nos encontramos en el pasado innumerables
lecciones olvidadas, ricas en enseñanzas con respecto al futuro: los ciclos de
escasez y de abundancia relacionados con las anticipaciones sobre la
fijación de precios, la sucesión de largos periodos de inflación seguidos de
otros de deflación, o la todavía inquietante coincidencia entre las evoluciones
demográficas y la expansión o el declive económico y político del país,
testimoniando esta realidad.
Cada generación tiene la impresión de que está viviendo una época de
mutación sin precedentes. Esta desviación es natural: esta época resulta
terriblemente excepcional para cada uno de nosotros puesto que es el único
tiempo que nosotros vivimos. De ahí viene la tendencia, simétrica a la
precedente, de sobreestimar la importancia y la rapidez de los cambios, en
particular en lo concerniente a las nuevas tecnologías.
4.4.6.2 Los actores clave en el punto de bifurcación El mundo real es muchísimo más complejo de lo que nos pensamos y
sería inútil esperar que un buen día alguien diese con la ecuación que nos
descubriese su eventual determinismo escondido. Incluso, caso de que ello
llegara a suceder, la incertidumbre, inherente a toda medición sobre todo
social, mantendría el abanico de los futuros posibles totalmente abierto y
desplegado, al menos en el interior de nuestras almas.
¿Cómo podríamos reconocer los puntos de las bifurcaciones? ¿Qué
acontecimientos, qué innovaciones permanecerán sin originar
consecuencias, cuáles de éstas afectarán a la globalidad del sistema,
trastocándolo, determinando irreversiblemente la elección de una evolución,
cuáles son las áreas donde podría realizarse la elección, cuáles son las
áreas de estabilidad...?. He ahí las cuestiones que plantea Ylya Prigogine
(1990). Estas cuestiones constituyen el menú cotidiano de la prospectiva.
146
Cuando identificamos el abanico de los futuros posibles a través de la
elaboración de escenarios estamos reconociendo el diagrama de las
bifurcaciones. Los parámetros de las bifurcaciones son las sinergias-clave
del análisis prospectivo.
4.4.6.3 Un alto a la complicación de lo complejo ¿Es necesario que nos dotemos de herramientas complejas para leer la
complejidad de la realidad? En contraposición; los grandes seres que han
estado dotados de un pensamiento complejo han sabido, mejor que otros,
dar con leyes relativamente simples a la hora de comprender el universo.
Recordemos los principios de la termodinámica y, ¿Por qué no? la teoría de
la relatividad. Es necesario felicitar la llamada al orden que Maurice Allais
(1989), uno de los economistas matemáticos más grandes de nuestro
tiempo, nos hace: "Una teoría cuyas hipótesis y consecuencias no pueden
ser contrastadas con la realidad carece de todo interés científico". Maurice
Allais añade que nunca tendremos modelos perfectos sino solamente
modelos que se aproximan a la realidad y precisa; "de dos modelos, el
"mejor" será siempre aquél que por aproximación representará de la manera
más sencilla los datos que se derivan de la observación de la realidad". Sería
bueno tranquilizar a los que temían que habíamos perdido el latín y hacer
reaccionar a todos aquellos que confunden complicación con complejidad....
y simétricamente simplicidad con simplismo. El reto está en ser ambicioso
porque si es fácil complicar las cosas, es bien difícil simplificarlas.
4.4.6.4 Plantearse las buenas preguntas y desconfiar de las ideas recibidas
En efecto, a menudo nos olvidamos de interrogarnos sobre si las
preguntas que nos formulamos están bien planteadas y uno se precipita en la
147
búsqueda ilusoria de respuestas a preguntas falsas. Ahora bien, de todos es
sabido que no habrá buenas respuestas allá donde previamente no
establezcamos las preguntas correctas. El problema es el siguiente: ¿Cómo
plantear las buenas preguntas?
La luz crea también la sombra. Si los focos de la actualidad son tan
potentes y se enfocan solamente sobre ciertos problemas, no podremos
evitar que escondamos otros problemas, con frecuencia más graves, entre
las sombras de forma que no los podamos ver. Las ideas y estereotipos que
recibimos y están de moda son los que dominan la actualidad. Deberían ser
contemplados con desconfianza pues estas ideas son, con frecuencia, una
fuente inagotable de errores de análisis y de previsión.
Evidentemente, esta observación no les da ningún crédito suplementario
a las predicciones que sean extravagantes, pero pone en evidencia a un
buen número de conjeturas e ideas recibidas. En este sentido, creemos que
es bueno e indispensable para la prospectiva cuestionar el confort que
guardan nuestros espíritus y despertar las conciencias que están dormidas
soñando con falsas certidumbres.
En el pasado, pudimos tener varias veces razón cuando cuestionábamos
las ideas dominantes de la época. Esta reingeniería mental nos condujo
sobre todo a presentir la superabundancia energética, a denunciar el
espejismo tecnológico y las técnicas de dirección copiadas mimética y
mecanicistamente traídas desde Japón.
4.4.6.5 De la anticipación a la acción a través de la apropiación Tener un visión global es imprescindible para la acción local y cada uno,
a su nivel, debe poder comprender el sentido que tienen sus acciones y
poder resituarlas en el contexto de un proyecto más global en el cual dichas
acciones se insertan. La movilización de la inteligencia resulta tanto más
eficaz a la medida que se inscribe en el marco de un proyecto explícito y
148
definido y conocido por todos. La motivación interna y la estrategia externa
son pues dos objetivos indisociables que no se pueden alcanzar por
separado.
El éxito del proyecto pasa a través de la apropiación. En función de su
transparencia, la movilización colectiva no puede entrar directamente en las
opciones estratégicas que por naturaleza deben ser confidenciales. Por
consiguiente, es la reflexión prospectiva, realizada colectivamente, la que al
centrarse sobre las amenazas y oportunidades del entorno la que le da un
contenido a la movilización y permite, a su vez, la apropiación de la
estrategia.
4.4.6.7 La caja de herramientas de la prospectiva estratégica
Frente a la complejidad de los problemas, los hombres no están
desarmados. Ellos han labrado las herramientas que tan útiles les son hoy en
día. En efecto, si el mundo cambia, también subsisten invariantes y
similitudes en la naturaleza de los problemas con que se tropiezan los
hombres.
4.4.6.8 La planificación estratégica por escenarios La prospectiva estratégica pone la anticipación al servicio de la acción,
difundiéndose en las empresas y las administraciones. Los años 80 y 90 han
estado marcados por el desarrollo de la planificación estratégica por
escenarios especialmente entre las grandes empresas del sector energético
(Shell, EDF, Elf), sin duda debido a los choques petrolíferos pasados y
futuros.
El objetivo de esta metodología es proponer las orientaciones y las
acciones estratégicas apoyándonos en las competencias de la empresa en
función de los escenarios de su entorno general y competitivo.
149
La prospectiva con sus tendencias y riesgos de ruptura revoluciona el
presente e interpela a la estrategia. Por su parte, la estrategia cuestiona
sobre las opciones posibles y los riesgos de irreversibilidad y se refiere desde
los años 80 a los escenarios de la prospectiva como testimonian en especial
los trabajos de Michael Porter (1986).
Un escenario es un conjunto formado por la descripción de una situación
futura y un camino de acontecimientos que permiten pasar de una situación
original a otra futura. La palabra escenario es utilizada abusivamente para
calificar no importa que juego de hipótesis. Recordemos que las hipótesis de
un escenario deben cumplir simultáneamente cinco condiciones: pertinencia,
coherencia, verosimilitud, importancia y transparencia.
Se distinguen de hecho dos grandes tipos de escenarios:
Exploratorios: partiendo de las tendencias pasadas y presentes,
conducen a futuros verosímiles
Anticipación o normativos: construidos a partir de imágenes
alternativas del futuro, podrán ser deseables o por el contrario
rechazables. Son concebidos de forma retroproyectiva.
Recogemos estas etapas en esquema adjunto:
La primera etapa tiene por objetivo analizar el problema expuesto y
delimitar el sistema a estudiar. Se trata, en este momento, de situar el
método prospectivo en su contexto socio-organizacional, a fín de
iniciar y de simular el conjunto del proceso con la ayuda de los talleres
de prospectiva.
La segunda etapa se basa en elaborar una radiografía completa de la
empresa desde el Know-How hasta las líneas de producto,
materializado en el árbol de competencias.
La tercera etapa identifica las variable-claves de la empresa y de su
entorno con la ayuda del análisis estructural.
150
La cuarta etapa intenta comprender la dinámica de la retrospectiva de
la empresa, de su entorno, de su evolución, de sus fuerzas y
debilidades en relación a los principales actores de su entorno
estratégico. El análisis de los campos de batalla y de los retos
estratégicos permite descubrir las cuestiones clave para el futuro.
La quinta etapa busca reducir la incertidumbre que pesa sobre las
cuestiones clave de futuro. Se utilizan eventualmente los métodos de
encuesta a expertos, para poner en evidencia las tendencias de peso,
los riesgos de ruptura y finalmente descubrir los escenarios de entorno
más probables.
La sexta etapa pone en evidencia los proyectos coherentes, es decir,
las opciones estratégicas compatibles a la vez con la identidad de la
empresa y con los escenarios más probables de su entorno.
La séptima etapa se consagra a la evaluación de las opciones
estratégicas; un estudio racional incitaría a apoyarse en un método de
elección multicriterio, pero raramente es este el caso; con esta etapa
finaliza la fase de reflexión previa antes de la decisión y la acción.
La octava etapa del proyecto, es la elección de la estrategia, es la
etapa crucial porque se trata de pasar de la reflexión a la decisión. Las
apuestas estratégicas y la jerarquización de objetivos son resultado de
la decisión de un comité de dirección o de su equivalente.
La novena etapa se dedica enteramente a la puesta en marcha del
plan de acción. Implica los contratos de objetivos (negociados o
suscitados), la puesta en marcha de un sistema de coordinación y de
seguimiento y también del desarrollo de una vigía estratégica
(externa).
Debemos señalar que el desarrollo de esta metodología integrada, no
tiene porque ser totalmente lineal. Comprende varios bucles de
retroalimentación posibles. La puesta en marcha de un plan de acción y los
151
resultados de la vigía estratégica pueden conducir, en ciertos casos, a
reconsiderar la dinámica de la empresa en su entorno.
Cuadro 6: Planificación estratégica por escenarios:
mitología integrada
Fuente Godet (2007)
152
4.4.6.9 Conclusiones Prácticas La palabra escenario se ha utilizado frecuentemente de modo abusivo
para calificar no importa qué juego de hipótesis. Recordemos que para la
prospectiva y la estrategia, las hipótesis de un escenario deben cumplir
simultáneamente cinco condiciones: pertinencia, coherencia, verosimilitud,
importancia y transparencia.
Incluso si escenarios y prospectiva no son sinónimos, la construcción de
escenarios, juega frecuentemente un papel central en la mayoría de los
estudios prospectivos.
Que las diferentes etapas presentadas sean seguidas en su integridad o
que algunos de los módulos sean únicamente los utilizados o incluso que la
presentación de los escenarios quede reducido a combinaciones de
hipótesis, contribuirá a poner en evidencia los principales retos de futuro.
4.4.7 El Ábaco de Regnier El ábaco de Regnier, es un método original de consulta a expertos,
concebido por el Doctor François Régnier, con el fin de interrogar a los
expertos y tratar sus respuestas en tiempo real o por vía postal a partir de
una escala de colores.” Nuevo acercamiento de la comunicación interactiva,
El Ábaco de Régnier utiliza una escala ordinal y coloreada, en el cual los
datos están cartografiados. Esta favoriza la revelación de opiniones y de
representaciones, así como la evolución de individuos y grupos. Percibir los
territorios de consenso y de disensión resulta simple y rápido...” (Régnier.
1989)
Como todos los métodos de expertos, está destinado a reducir la
incertidumbre, confrontar el punto de vista de un grupo con el de otros
153
grupos y a la vez, tomar conciencia de la mayor o menor variedad de
opiniones.
4.4.7.1 Útiles y Límites
El método es eficaz, simple y rápido. Permite a los que divergen
expresarse (y valorar sus opiniones). Se trata de un excelente útil de
comunicación: no es el consenso lo que se busca, sino más bien el
intercambio y el debate entre los individuos.
El ábaco de Régnier, modifica, sin embargo, el funcionamiento habitual
de un grupo, de ahí la dificultad de convencer a los que deben decidir para
su utilización: el jefe puede encontrarse aislado, ya que el método obliga a
todos los miembros del grupo a dar su opinión, a "anunciar su color". El
método va al encuentro de los métodos habituales de reflexión practicados
en las empresas. Es sobre todo aplicado para la evaluación posterior de
seminarios de formación, cuando las elecciones estratégicas no están en
juego.
4.4.7.2 Conclusiones Prácticas
. El ábaco automatizado permite, hoy, el tratamiento instantáneo de la
imagen. La utilización de la trama coloreada permite leer sobre pantalla
(imagen, histograma general, reclasificación del consensus por orden
decreciente de ítems, etc.).Se trata de un útil práctico que permite animar en
directo en poco tiempo grupos de reflexión prospectiva tanto numerosos
como más reducidos (coloquios, seminarios), utilizando el voto a distancia. El
ábaco puede ser utilizado como técnica de votación en combinación con
otras técnicas.
4.4.8 El Diagnóstico Estratégico
154
Conocer las fuerzas y las debilidades de los cinco recursos
fundamentales de la empresa (humanos, financieros, técnicos, productivos y
comerciales): he aquí el objetivo del diagnóstico interno, hay que estimar
también su importancia a través de las amenazas y de las oportunidades que
provienen del entorno estratégico. Esta es la finalidad del diagnóstico
externo.
El enfoque clásico ha conducido demasiadas veces a separar estos dos
diagnósticos, el interno y el externo, que, sin embargo, carecen de sentido si
no se contemplan interrelacionados. Son las amenazas y las oportunidades
lo que dan a esta debilidad o a aquella fuerza toda su importancia.
El diagnóstico interno de la empresa se impone incluso antes del
diagnóstico externo, ya que para preguntarse inteligentemente sobre las
mutaciones del entorno estratégico, es necesario primero conocer bien sus
productos, sus mercados, sus técnicas, sus hombres y su historia, aunque
sólo sea para poder delimitar el entorno útil que debe estudiarse.
Clásicamente, el diagnóstico interno incluye los aspectos financiero,
operativo y funcional, a los que hay que añadir el aspecto tecnológico y el de
calidad. El diagnóstico financiero propiamente dicho conduce generalmente
al empleo de ratios que permiten apreciar la evolución de la empresa
respecto a sí misma y respecto a sus principales competidores.
Clásicamente, se distinguen radios de estructura, de actividad o de gestión y
de resultado.
El diagnóstico operativo y funcional debe no solamente analizar los
recursos, los productos, los mercados, sino también, el tronco de
organización de los recursos en la función de producción. El diagnóstico de
calidad concierne a la totalidad del árbol. La calidad puede definirse como la
conformidad de un producto o de un servicio con las necesidades del cliente
y al precio más justo. No se trata de la búsqueda de la perfección, que, a fin
de cuentas, sería tan inútil como costosa, sino de conseguir una calidad
155
global, instrumento de movilización en torno a objetivos precisos destinados
a mejorar los rendimientos y a garantizar los procesos y los productos.
El diagnóstico de raíces de competencia debe principalmente analizar no
sólo los recursos técnicos, sino también sobre el conjunto del saber-hacer
humano y organizacional que constituye aquello que llamamos los oficios de
la empresa.
La importancia de las fuerzas y de las debilidades puestas de manifiesto
por el diagnóstico interno depende de la naturaleza de las amenazas y de las
oportunidades surgidas del entorno estratégico y competitivo. Es con relación
a este entorno que la empresa tiene que posicionar su cartera de actividades
y sustituir su dinámica de evolución.
Dentro de un mundo en el que se encarna un papel, la empresa debe
considerarse como actor de una interpretación en la que intervienen los
copartícipes de su entorno competitivo. Se trata, por una parte, de los
actores del entorno competitivo inmediato:
Los competidores en un mismo mercado, los proveedores, los clientes,
los entrantes potenciales y los productores de sustitutos para repetir la
terminología de Michael Porter (1982), y por otra parte, están los actores del
entorno general, los poderes públicos, la banca, los medios de comunicación,
los sindicatos, los grupos de presión. La empresa debe tomar posición ante
cada uno de los actores de su entorno estratégico.
En particular, la empresa debe posicionar sus ámbitos de actividades
estratégicas y plantearse cuatro preguntas principales:
¿cuál es su futuro?
¿cuál es mi posición concurrencial?
¿cuáles son los factores clave de éxito?
¿cuáles son las competencias distintivas a mi posición o que debo
adquirir para mejorar mi posición?
Encontramos así las cuatro fases (nacimiento, crecimiento, madurez y
declive). Hay otros factores a tener en cuenta: los factores de
156
aprovisionamiento, factores de producción de comercialización y factores
financieros y tecnológicos.
Más allá de la elección de estrategia y de tecnología, cada vez resulta
más evidente que el principal factor de competitividad y de excelencia es el
factor humano y organizativo.
A la estrategia no le basta un buen rumbo; necesita también un equipaje
preparado y motivado para la maniobra. Por esto, para la empresa, el frente
exterior y el frente interior constituyen un sólo y mismo segmento estratégico.
La batalla no puede ganarse más que en los dos frentes a la vez; de lo
contrario, se pierde en ambos. En otras palabras, frente a los cambios del
entorno estratégico, el futuro de una empresa depende en gran medida de
sus fuerzas y debilidades internas. La brecha gerencial es muchas veces
más importante que la brecha estratégica.
La estrategia y las tácticas de salida a ella asociadas dependen de los
resultados de los diagnósticos precedentes. El alcance de estas
informaciones estratégicas es relativo. La utilidad de las fuerzas y la
desventaja derivada de las debilidades dependen de la naturaleza de las
amenazas y de las oportunidades a las que se enfrenta la empresa. Así por
ejemplo, ante una amenaza adoptará una táctica ofensiva o defensiva según
esté en posición de fuerza o de debilidad.
Aproximando esta información estratégica, la empresa podrá identificar
las posibilidades de acción y definir una táctica. Naturalmente, la estrategia
pertinente impone que estas decisiones para la acción concurran en los
objetivos que la empresa se ha fijado en el marco de su vocación y de
proyecto para el futuro.
4.4.8.1 Útiles y Límites
La elección de opciones estratégicas debe afrontar algunos dilemas que
imponen los arbitrajes. La preocupación del aprovechamiento a corto plazo
157
no debe hacerse en detrimento del desarrollo y crecimiento a largo plazo. No
hay que confundir la diversificación de actividades con el redespliegue
estratégico de ellas. Esto último se hace buscando la sinergia entre las
competencias fundamentales de la empresa. La sola diversificación
productos-mercado la ignoran generalmente y entraña generalmente un
despilfarro de recursos.
No es suficiente con determinar el valor del diagnóstico y su posición
concurrencial sobre cada uno de entre ellos en un momento dado del
presente. Hace falta también colocarse en la perspectiva dinámica de la
evolución de los diagnósticos y de la posición de la empresa en función de
los escenarios del entorno general y concurrencial. Las rupturas técnicas,
políticas, económicas y sociales pueden producirse y modificar la carta de la
cartera de actividades. En estas perspectivas de futuro hay que señalar
cuáles serán los factores clave de éxito del mañana y preguntarse cuáles son
aquellos que mejor corresponden a las competencias fundamentales de la
empresa.
4.4.8.2 Conclusiones Prácticas Este diagnóstico completa los recursos y el entorno de la empresa visto
como un árbol de competencias que puede realizarse en calidad de tal.
Puede también incluirse como una de las etapas esenciales del
acercamiento de la prospectiva estratégica.
4.4.9 Metas de la teoría general de los sistemas
Bertalanffy (1968) afirma que en tanto que antes la ciencia trataba de
explicar los fenómenos observables reduciéndolos al juego de unidades
elementales investigables independientemente una de otra, en la ciencia
contemporánea aparecen actitudes que se ocupan de lo que un tanto
158
vagamente se llama totalidad, es decir, problemas de organización,
fenómenos no descomponibles en acontecimientos locales, interacciones
dinámicas manifiestas en la diferencia de conducta de partes aisladas o en
una configuración superior, etc. en una palabra, sistemas de varios órdenes,
no comprensibles por investigación de sus respectivas partes aisladas.
Concepciones y problemas de tal naturaleza han aparecido en todas las
ramas de la ciencia, sin importa r que el objeto de estudio sean cosas
inanimadas, organismos vivientes o fenómenos sociales.
Esta correspondencia es más llamativa en vista de que cada ciencia
siguió su curso independiente, casi sin contacto con las demás y basándose
todas en hechos diferentes y filosofías contradictorias, las cuales indican un
cambio general en la actitud y las concepciones científicas.
Una teoría general de los sistemas demostrará ser un paso de
consideración hacia la unificación de la ciencia. Quizás esté destinada, en la
ciencia del futuro a desempeñar un papel parecido al de la lógica aristotélica
en la ciencia de la antigüedad. La concepción griega del mundo era estática;
se consideraba que las cosas reflejaban arquetipos eternos o ideas. De ahí
que la clasificación fuese el problema central de la ciencia, cuyo órganon
fundamental era la definición de la subordinación y la superordinación de
conceptos. En la ciencia moderna la interacción dinámica parece ser el
problema central en todos los campos de la realidad. La teoría de los
sistemas definirá sus principios generales.
Una importante consideración es que los diversos enfoques enumerados
no son monopolistas ni deben ser considerados como tales. Uno de los
aspectos importantes de los cambios modernos en el pensamiento científico
es la inexistencia de un sistema universal único y que lo abarque todo. Cada
construcción científica es un modelo que representa determinados aspectos
o panoramas de la realidad. Esto incluso vale para la física teórica: lejos de
ser una presentación metafísica de la realidad última (como proclamaba el
materialismo del pasado y sigue implicando el moderno positivismo), no es
159
sino uno de estos modelos que, Según revelan progresos recientes, no es ni
exhaustivo ni único. Las varias teorías de los sistemas son también modelos
que reflejan diferentes aspectos. No se excluyen mutuamente y a menudo se
aplican combinadas.
Bertalanffy (1940) teoriza que un sistema abierto es definido como
sistema que intercambia materia con el medio circundante, que exhibe
importación y exportación, constitución y degradación de sus componentes
materiales. La teoría de los sistemas abiertos es parte de una teoría general
de los sistemas. Esta doctrina se ocupa de principios aplicables a sistemas
en general, sin importar la naturaleza de sus componentes ni de las fuerzas
que los gobiernen.
Con la teoría general de los sistemas alcanzamos un nivel en el que ya
no se habla de entidades físicas y químicas sino que discutimos totalidades
de naturaleza completamente general. Con todo, habrá principios de los
sistemas abiertos que seguirán valiendo y siendo aplicables en campos más
amplios, desde la geología, geomecánica, ecología, la competencia y el
equilibrio entre especies, hasta la economía humana y otros campos
sociológicos.
Para tener un bosquejo de los basamentos administrativos y legales en
cuanto a las definiciones e incluso escenarios que se manejan en los entes
gubernamentales que rigen y regulan la producción de petróleo y gas dentro
del territorio nacional se esboza una síntesis del manual de reservas.
4.4 Definiciones y clasificaciones de las reservas de hidrocarburos
La Dirección General de Exploración, Reserva y Tierra del Ministerio de
Petróleo y Minería es la responsable de la verificación y aprobación de todo
lo relacionado con las Reservas de Hidrocarburos, por lo que ha elaborado
este Manual con la finalidad de establecer las Definiciones y Normas que
160
deben ser cumplidas por las empresas operadoras al momento de someter
los cambios de Reservas de Hidrocarburos ante el Ministerio del poder
popular de Petróleo y Minería.
4.4.1 Reservas de hidrocarburos
Las Reservas de Hidrocarburos son los volúmenes de petróleo crudo,
condensado, gas natural y líquidos del gas natural que se pueden recuperar
comercialmente de acumulaciones conocidas, desde una fecha determinada
en adelante.
4.4.2 Clasificación de las reservas de hidrocarburos Según la Certidumbre de Ocurrencia, las Facilidades de Producción o el
Método de Recuperación, las reservas se clasifican según se muestra en la
Tabla 3.
Tabla 3. Clasificación de las reservas de hidrocarburos
Fuente: Manual de reservas del Ministerio del Poder popular de Petróleo y Minería
Reservas probadas: son los volúmenes de hidrocarburos estimados
con razonable certeza y recuperables de yacimientos conocidos, de
acuerdo con la información geológica y de ingeniería disponible y bajo
161
condiciones operacionales, económicas y regulaciones
gubernamentales prevalecientes.
El término "razonable certeza" indica un alto grado de confianza de
que las cantidades estimadas serán recuperadas.
Reservas probables: son los volúmenes estimados de hidrocarburos
asociados a acumulaciones conocidas, en los cuales la información
geológica, de ingeniería, contractual y económica, bajo las
condiciones operacionales prevalecientes, indican (con un grado
menor de certeza al de las reservas probadas) que se podrán
recuperar. Estas reservas pueden ser estimadas suponiendo
condiciones económicas futuras diferentes a las utilizadas para las
reservas probadas.
En Venezuela se ha establecido un sistema de series numeradas,
para indicar los casos que califican como Reservas Probables, para
identificar de acuerdo al riesgo y probabilidad de existencia.
Reservas posibles: son los volúmenes de hidrocarburos, asociados a
acumulaciones conocidas, en los cuales la información geológica y de
ingeniería indica (con un grado menor de certeza al de las reservas
probables) que podrían ser recuperados bajo condiciones
operacionales y contractuales prevalecientes. Estas reservas podrían
ser estimadas suponiendo condiciones económicas futuras diferentes
a las utilizadas para las reservas probadas.
En Venezuela se ha establecido un sistema de series numeradas,
para indicar los casos que califican como Reservas Posibles, para
identificarlas de acuerdo al riesgo y probabilidad de existencia.
4.4.3 Clasificación de las reservas de acuerdo al método de recuperación Reservas primarias: Son las cantidades de hidrocarburos que se
pueden recuperar con la energía propia o natural del yacimiento.
162
Reservas suplementarias: Son las cantidades adicionales de
hidrocarburos que se pudieran recuperar, como resultado de la
incorporación de una energía suplementaria al yacimiento a través de
métodos de recuperación suplementaria, tales como inyección de
agua, gas, fluidos miscibles o cualquier otro fluido o energía que
ayude a restituir la presión del yacimiento y/o a desplazar los
hidrocarburos para aumentar la extracción del petróleo.
Tabla 4: Nomenclatura para identificar el tipo de hidrocarburo en la
tabla de contribuciones de reservas probadas
Fuente: Manual de reservas del Ministerio del Poder popular de Petróleo y Minería
4.5 Comprensión de las ciencias de la complejidad.
Maldonado (2003) define que las ciencias de la complejidad no son aun
un tema de amplio reconocimiento dentro de las comunidades académicas y
científicas y mucho menos dentro de la sociedad en general o en las esferas
del Estado, no obstante el hecho de que hay una comunidad académica y
científica crecientemente interesada y trabajando en sistemas complejos,
tanto en el país como en el mundo. Lo que impera todavía es lo que
kuhnianamente hablando se puede designar como "ciencia normal".
4.6 La actuación sobre la complejidad.
163
El estudio de la complejidad comporta una carga teórica y practica a la
vez. Se trata de establecer la manera no solamente como podemos
comprender y explicar los sistemas complejos adaptativos sino, y más
importante aún, la forma en que, consiguientemente, podemos actuar sobre
la complejidad. Desde muchos puntos de vista, los teóricos y científicos con
distintas formaciones matemáticos, biólogos, físicos, químicos, ingenieros,
filósofos ocupados con el estudio de los sistemas complejos adaptativos, han
reconocido la necesidad de los abordajes interdisciplinarios (inter, trans o
multidisciplinarios, para el caso da igual), no solamente como una manera de
comprender la creciente complejización de los sistemas, comportamiento y
fenómenos y, globalmente dicho, la complejización creciente del mundo y de
la realidad, sino además, y fundamentalmente, como un llamado a actuar
sobre esa complejidad. Es ya un lugar común decir que la herramienta que
ha servido de base y guía para esta actuación sobre la complejidad ha sido
el computador, y más específicamente, la creación o aplicación de
programas de simulación (Pagels, 1991).
4.6.1 El dominio de la complejidad Ahora bien, no es suficiente con comprender o estudiar la complejidad; y
tampoco lo es el actuar sobre la complejidad. Si la ciencia moderna nace
vinculada estrechamente a la industria (Bernal, 1969), y si el motto de la
racionalidad científica es formulado por Bacon en el sentido de que el
conocimiento es poder, algo semejante sucede, al final de la modernidad y
en los albores de una nueva forma de la racionalidad humana cuya expresión
son las ciencias de la complejidad. Ciertamente que la esfera en la que se
expresa esta tendencia o este reconocimiento está referido primariamente a
la política o las organizaciones sociales, empresariales, privadas u oficiales.
En una palabra, se trata de las implicaciones organizativas u
164
organizacionales, en la acepción al mismo tiempo más fuerte y amplia, del
estudio, comprensión, explicación y actuación sobre la complejidad (Cohen y
Axelrod, 1999). Desde aquí pueden ser explorados igualmente otros campos.
El título en el que cabe designar el conjunto de estos otros campos es,
notablemente, el de "nueva gobernabilidad", para distinguirla de la
comprensión tradicional y usual de "gobierno" y "gobernabilidad". Una
manera genérica de denominar a estas otras esferas es como filosofía social
y como filosofía política, y el tema de base es el de las relaciones entre la
complejidad y la filosofía social y /o la filosofía política (Maldonado, 2002).
165
4.6.2 Obstáculos del pensamiento sistémico No existe hasta la fecha una teoría de sistemas y debe poder
desarrollarse, para lo cual el trabajo en detalle con isomorfismos
resulta una condición sine qua non
Los enfoques sistémicos, originales de los años 1960, resultan a la
fecha (en 1985; y a fortiori a la fecha) un modelo agotado y que no ha
tenido un relevo generacional. Los jóvenes investigadores,
académicos y teóricos poco han contribuido al campo; a lo sumo
hacen uso de él o lo adoptan como una cosmovisión
Los enfoques sistémicos permanecen como eso: un gama amplia,
pero dispersa de conceptos, herramientas y aproximaciones que, al
cabo, terminan por reducirse a saberes circulantes y a jerga
Predomina crecientemente la jerga sobre el trabajo eminentemente
científico que es, a la postre, el trabajo y la investigación con
demostraciones. Mucho mayor éxito tienen los enfoques sistémicos en
el campo de las ciencias sociales que en el de las ciencias llamadas
naturales o positivas.
4.6.3 La distinción entre ciencias de la complejidad y pensamiento complejo
Para Maldonado (2003) entre los neófitos de la complejidad existe,
igualmente, la confusión o acaso transiciones fáciles entre las ciencias de la
complejidad y el pensamiento complejo. El pensamiento complejo hace
referencia, notablemente, a la obra de E. Morín y a la de sus epígonos. Es,
de lejos, la comprensión más popular acerca de la complejidad entre otras
razones debido al lenguaje, verdaderamente encantador de E. Morín, a sus
lúcidas intuiciones, en fin, incluso al hecho de que no posee un aparato
166
conceptual, matemático, físico o biológico muy fuerte y a que las referencias
al campo computacional o informacional cuando existen, son sumamente
amplias y vagas. En los países hispanohablantes es la comprensión más
extendida sobre la complejidad y ha sido incorporada a ámbitos como la
administración y la economía, la educación y los ámbitos culturales o de la
psicología, incluyendo, naturalmente, a la antropología y la sociología.
Mientras que Las ciencias de la complejidad son ciencia:
En el sentido del rigor: rigor conceptual, metodológico, matemático,
computacional, sintáctico, y demás;
En el sentido griego de la espíteme un término que desborda (o
abarca) a la Ciencia y a la filosofía (como serían conocidas
posteriormente) y que, por tanto, no se reduce ni a la ciencia ni a la
filosofía;
Son ciencia de frontera, fundada en problemas de frontera. Así, no se
trata ya de ciencia disciplinar, de ciencia que se define en el espíritu
medieval, es decir: por género próximo y diferencia específica (se es
médico porque no se es veterinario; se es abogado porque no se es
sociólogo; se es economista porque no se es administrador, por
ejemplo, y así sucesivamente).
En consecuencia, el rasgo diferenciador más claro entre las ciencias de
la complejidad y el pensamiento complejo es precisamente éste, a saber: en
el caso de Morín se trata de intuiciones, ideas, espíritu y propósitos que,
ciertamente, no son rechazables sin más. En el caso de las ciencias de la
complejidad se trata de argumentos, demostraciones, lógica(s), rigor,
experimentos, modelaciones y simulaciones que han enriquecido de manera
fundamental la comprensión del mundo y del universo, y que constituyen, a
todas luces, una auténtica revolución en el conocimiento. Con las ciencias de
la complejidad se trata, evidentemente, de un avance de la ciencia, un
167
progreso del conocimiento humano. Con todo y el señalamiento directo e
inmediato de que hablamos de progreso de la ciencia o del conocimiento
humano o espíteme, no exclusivamente por vía de acumulación sino,
además y principalmente, por vía de rupturas y discontinuidades.
Por así decirlo el mapa esencialmente abierto del mundo de la
complejidad ellos son (el orden no importa): la teoría matemática de la
complejidad más propiamente conocida como el conjunto de los problemas P
versus N-P, las relaciones entre el universo microscópico y el universo
macroscópico, y la teoría de los sistemas dinámicos.
Figura 31: Ejes de trabajo de las ciencias de la complejidad
Fuente: Maldonado (2003) Las ciencias que aparecen en rojo termodinámica del no-equilibrio (TNE),
ciencia de redes y las lógicas no-clásicas son aquellas que dominan, si cabe
la expresión, el trabajo de los complejólogos. Existe una implicación
recíproca muy fuerte entre caos y fractales. Sin embargo, ambas han llegado
a integrarse en la termodinámica del no equilibrio. Es como decir que
actualmente no existen proyectos de investigación o libros serios o artículos
sobre caos. La ciencia del caos, por así decirlo, ya dio lo que podía dar
168
(excepto por un campo aún en exploración, que es el caos no-determinista o
también, el caos cuántico; un área sobre la que se encontraba trabajando I.
Prigogine en el momento de su fallecimiento). Y precisamente por ello ha
llegado a subsumirse en la TNE. Esta afirmación, sin embargo, merece
matizarse cuando se piensa en el caos cuántico y subcuántico, un tema que
permanece abierto hasta la fecha, en espera de una mejor o mayor
cristalización.
La teoría de catástrofes desaparece debido a la fuerza lógica del caos,
tomando lógica en el sentido de la filosofía de la ciencia, y prácticamente ha
desaparecido como teoría matemática. En cuanto lenguaje, sencillamente
llega a integrarse o a subsumirse en las lógicas no-clásicas (LNC) por
razones obvias.
La doble flecha puntuada entre la LNC y la ciencia de redes hace
referencia, en el estado actual de la investigación, a una relación indirecta.
Por el contrario, existe una relación directa entre la TNE y la ciencia de
redes. Por lo demás, una parte de la ciencia del caos y de los fractales han
llegado también a incluirse en la ciencia de redes, como se aprecia, sin
dificultad del estudio de percolaciones, fenómenos de cascadas, y las
relaciones entre teoría de grafos, topología y redes complejas.
En cualquier caso, este esquema debe ser tomado como un mapa de las
ciencias de la complejidad que contiene, en su base, territorios irregulares
tanto como valles, si cabe la metáfora. Las relaciones directas e indirectas en
el marco de las ciencias de la complejidad apuntan precisamente al estado
de la investigación actualmente.
169
Figura 32: Estado actual de las ciencias de la complejidad Fuente: Maldonado (2005)
4.6.4 Complejidad y termodinámica del no equilibrio Cronológicamente, la primera de las ciencias de la complejidad fue la
termodinámica del no-equilibrio, desarrollada por I. Prigogine. En sentido
estricto la termodinámica clásica y la termodinámica del no-equilibrio son una
sola y misma ciencia que comprende dos momentos: el clásico, que pivota
alrededor de la noción de equilibrio y por tanto, ulteriormente, de muerte, y la
nueva cuyo centro es el no-equilibrio, y en consecuencia la vida. Las
contribuciones de la TNE abarcan desde la física y la química a la biología y
los sistemas sociales humanos. Arrojan nuevas y poderosas luces acerca
tanto del origen de la vida como sobre la lógica de los sistemas vivos.
4.6.4.1 Complejidad y caos
170
Históricamente, el caos primero teoría, luego ciencia, fue desarrollada
por E. Lorenz en los años 1962-64. Pero hubieron de pasar muchos años
para que fuera reconocida su importancia. Esta historia está muy bien
narrada por J. Gleick. El estudio central del caos estriba en la identificación
de atractores extraños (un concepto acuñado por D. Ruelle).
Inicialmente el caos permanece como una teoría de sistemas
deterministas. Al cabo del tiempo, su interés se vuelca hacia el caos
indeterminista o subcuántico. En el marco del estudio de los
comportamientos caóticos los atractores fijos y periódicos sirven como
grupos de control, por así decirlo, puesto que la atención se enfoca en los
atractores extraños. Puntualmente dicho, los atractores responden a
sistemas diferenciales.
4.6.4.2 Complejidad y fractales
La geometría de fractales es, históricamente hablando, la tercera de las
ciencias de la complejidad. Existe una fuerte implicación recíproca entre caos
y fractales. La razón es que todo atractor extraño tiene en su base una
dimensión fractal. Los fractales han resultado de inmensa ayuda en la
medición de numerosos sistemas y comportamientos, en geociencias,
ciencias de la salud y economía, en sistemas sociales y en astronomía, por
ejemplo.
4.6.4.3 Complejidad y catástrofes La teoría de catástrofes nace y permanece vinculada durante un tiempo
largo a un campo desarrollado también por R. Thom, el cobordismo. Hay que
decir que en cuanto la teoría matemática, la teoría de catástrofes
prácticamente desaparece. La razón es que, relativamente al caos, resulta
una teoría muy costosa en términos de G. de Ockahm. En efecto, mientras
171
que el caos trabaja los sistemas dinámicos con base en tres conceptos
atractores fijos, atractores periódicos y atractores extraños la teoría de
catástrofes proponía si sencillamente cambios súbitos, imprevistos,
irreversibles. A pesar de que desaparece como una teoría matemática, Thom
mismo expresa que la teoría permanece como un lenguaje, a saber: el
lenguaje que expresa o en el que se estudian cambios súbitos e irreversibles.
4.6.4.4 Complejidad y redes
La ciencia de redes complejas, desarrollada originariamente por D.
Watts, L. Barabasi y S. Strogatz entre los años 2001 y 2003, constituye la
quinta de las ciencias de la complejidad.
Un rasgo fundamental de las ciencias de la complejidad estriba
exactamente en este punto, se aportan diversas respuestas. Lo que es
importante tener en cuenta. Digamos, en passant, que no por ser caotólogo o
por trabajar en redes complejas, por ejemplo, se es entonces
necesariamente complejólogos. Pero al trabajar en complejidad entonces si
es posible atravesar por termodinámica del no-equilibrio, caos, fractales,
catástrofes o redes complejas.
De manera genérica, y sin embargo, muy puntual, la pregunta rectora en
el contexto del estudio de las redes complejas no es ya, por primea vez en la
historia: ¿Qué tan grande y amplio es el mundo?, sino: ¿Cuáles son los
grados de distancia que separan a un punto de partida cualquiera de un
target determinado? Pues bien, la teoría establece que son seis grados de
separación o menos.
172
4.6.4.5 Complejidad y lógicas no-clásicas La ciencia en general siempre ha estado acompañada de, o se ha
fundado, en (la) lógica. Sin embargo, en el contexto de las ciencias de la
complejidad hablamos de y trabajamos con lógicas no-clásicas.
Cabe mencionar que la lógica formal clásica es la lógica matemática o la
lógica simbólica, que nace entre 1847 y 1936, con los trabajos de G. Boole y
A. De Morgan, hasta Tarski, pasando por las contribuciones de Peano y
Frege, entre otras. Antes de esta época, la lógica no existe y permanece
como un apéndice de la metafísica. El nacimiento de la lógica
independientemente del cuerpo de la filosofía da lugar a la lógica como
ciencia autónoma, independiente-. Dicho de manera genérica, las lógicas no-
clásicas nacen, en unos casos, debido a que los procesos de formalización
de la lógica formal eran demasiado estrechos, y en otros, por el contrario,
debido a que eran demasiado laxos.
4.6.5 Emergencia y auto-organización Indudablemente, los conceptos de emergencia y de autoorganización
constituyen pilares fundamentales de las ciencias de la complejidad.
Diversos autores, antes que (pre)suponerlos como conceptos o categorías
de complejidad, se han dado a la tarea de explicar exactamente en qué
consiste la emergencia y cómo surge y qué hace la autoorganización. Los
dos autores más destacados en este sentido son J. Holland y S. Kauffman.
Dicho de manera negativa, las ciencias de la complejidad no trabajan con
base en el principio de causalidad (y ni siquiera de multicausalidad; por
ejemplo, con estudios multivariados). La causalidad permanece como un
patrimonio de la ciencia y la filosofía clásicas.
4.6.6 Complejidad y sistemas cuánticos
173
Los sistemas de complejidad creciente se fundan en la física cuántica en
general y en la mecánica cuántica en particular, y ello por una razón
fundamental, a saber: el modelo clásico Galileo, Copérnico, Kepler y Newton
ya está cerrado y nada nuevo puede ser incluido en él. Esto significa
exactamente que la mecánica clásica ha sido incluida, como un momento
particular en la teoría de la relatividad, de un lado, y además y principalmente
en el modelo cuántico. El conocimiento del mundo físico dirige su mirada
hacia el vórtice en el que, se cree, habrán de confluir la relatividad y la
cuántica, que es en una teoría de la gravitación cuántica.
Permanece el problema del tiempo algo que es fundamental en
complejidad y que en física cuántica, sin embargo, permanece aún como un
tema inconcluso Pero este ya es un problema aparte. Una de las aristas
hacia la que la comunidad de investigadores está volviendo la mirada en este
aspecto es el de la biología cuántica y, por consiguiente, a fortiori, las
ciencias de la complejidad.
4.6.7 Modelamiento y simulación de sistemas complejos El modelamiento y (sobre todo) la simulación son específicos de los
sistemas de complejidad creciente. Esta idea requiere aún una incorporación
y una elaboración por parte de quienes se inician en el estudio y el trabajo en
profundidad con la complejidad.
En el plano tradicional de la ciencia, la construcción de modelos y la
ulterior solución de problemas consistió en la elaboración de un modelo
aproximado, capaz (en apariencia) de simplificar y contener una realidad, al
cual le correspondía siempre, en cada ocasión, una solución única. El
fundamento de este tipo de modelamiento se basó, por ejemplo, en la
mecánica clásica, la lógica formal clásica, el cálculo, las ecuaciones
diferenciales o la geometría euclidiana. Pues bien, pese a que este tipo de
174
modelos suele admitir soluciones precisas (=exactas), estas últimas se
corresponden usualmente con el modelo, pero no con el problema real al que
se refieren. Es así como la ciencia clásica nos llevó, cada vez más, a una
sobre simplificación de la realidad como la forma única de comprensión y
actuación sobre el mundo.
En el marco de las ciencias de la complejidad la idea es completamente
contraria. Se trata de construir un modelo del problema que se tiene entre
manos tan preciso como sea posible, por ejemplo, a través de técnicas tales
como los autómatas celulares, el modelamiento y la simulación basados en
agentes o los modelos bio-inspirados (incluidas las metaheurísticas). Un
modelo semejante permite obtener no una sino varias soluciones referidas no
al modelo (que está ajustado tanto como se puede a la realidad) sino al
problema real que se está abordando. Se habla entonces de múltiples
soluciones o, dicho técnicamente, de un espacio de soluciones. El
modelamiento planteado en estos términos permite abordar fenómenos
complejos sin la necesidad eliminar la incertidumbre ni de linealizarlos.
Figura 33: Modelamiento clásico versus modelamiento en el contexto de
las ciencias de la complejidad Fuente: Maldonado (2005)