Upload
tania-parra
View
699
Download
4
Embed Size (px)
Citation preview
DIDACTICAS PARA LA
ENSEÑANZA Y
APRENDIZAJE DEL
CÁLCULO DIFERENCIAL E
INTEGRAL
INDICE:
1.1.INTRUCCION……………………………………………Pag 1
2.1.CONCEPCIÓN CLÁSICA Y MODERNA EN LA ENSEÑANZA
DE LA MATEMÁTICA……………………………………….Pag 5
2.2.Concepción clásica en la enseñanza del
cálculo…………………………………………..…….Pag 6
3.1.INTENGRANDO CON UN METODO PRACTICO …….Pag 11
3.2.El análisis de obras elementales…………………..Pag 16
3.3.Ciencia y proto-ciencia……………………………………Pag 15
4.1.La síntesis newtoniana del espacio…………………Pag16
5.1.LA UNIFICACIÓN EN LOS MANUALES PARA LA
ENSEÑANZA ………………………………………………pag18
5.2.El problema de las tangentes de barrow…………………….pag18
5.3.La caída de los cuerpos graves de galileo…………………..pag20
5.4.El concepto de límite………………………………………..pag21
5.5.Los principios matemáticos de d. benito bails………………Pag22
5.6.La manipulación del infinito………………………………...pag23
6.1.LOS ELEMENTOS DE ANÁLISIS TRASCENDENTE DE
F. DÍAZ COVARRUBIA………………………………….pag24
6.2.Los cambios de dirección…………………………………………….pag24
6.3.La noción de constancia……………………………………………..pag25
6.4.Las magnitudes auxiliares……………………………………………pag26
7.1.LA POSICIÓN DE G. BARREDA………………………………….pag28
7.2.La síntesis de barreda………………………………………………..pag29
7.3.El debate díaz covarrubias-barreda…………………….………….....pag30.
7.4.Algunos resultados………………………………………….……….pag32
8.1.EN RESUMEN………………………………………………….…..pag33
8.2.Estado de la cuestión: evaluación de objetos y diseños para el
Aprendizaje…………………………………………………………..….pag34
9.1.DIFERENCIACIÓN Y DIFERENCIABILIDAD……………….…..pag35
9.2. Definición de derivada………………………………………………pag36
9.3.Notaciones para la diferenciación……………………………………pag39
9.4.Aplicaciones importantes del cálculo diferencial…………………….pag42
9.5.Uso de las derivadas para realizar gráficos de funciones…………….pag42
9.6.Aproximación local de Taylor………………………………………..pag43
9.7.Puntos singulares…………………………………………………….pag44
9.8.Puntos críticos………………………………………………………..pag44
9.9.Teoremas para el cálculo de la derivada……………………………..pag45
9.10.Extensión del concepto de derivada………………………………..pag47
10.1.CONCLUCIONES…………………………………………………pag48
1.1.INTRODUCCION
El presente estudio tiene como objetivo establecer los procedimientos
didácticos aplicados, tanto en la concepción clásica como en la moderna,
para la enseñanza del cálculo a nivel universitario con el propósito de
promover un escenario educativo que integre la enseñanza algorítmica
propia de la concepción clásica con la enseñanza heurística proveniente
de la praxis docente basada en la solución de problemas. Se propone, así,
el uso de una concepción moderna con la incorporación de estrategias
metacognitivas que regulen la complementariedad de estas concepciones.
Esta investigación de carácter documental encuentra su sustento teórico
en los principios filosóficos asociados con el pensamiento constructivista
de la educación. Por otra parte, se sugiere la promoción de escenarios
educativos para la enseñanza de la matemática que integren, de modo
estratégico, las diferentes concepciones pedagógicas para adecuar la
enseñanza del cálculo a las exigencias que la sociedad actual demanda de
la escuela, pues tal integración redunda en la formación de aprendices
autónomos aptos para manejar los esquemas de razonamiento matemático
en la interpretación de un mundo donde la matemática es esencial para el
ser social..
Concebir el aprendizaje de la matemática como el proceso donde el
docente junto a los estudiantes reelaboran las ideas, principios y
conocimientos que éstos necesitan para desenvolverse en un mundo
fuertemente matematizado, es concebir la enseñanza aprendizaje de esta
disciplina como un acto educativo flexible que exige de los alumnos
intuición y creatividad para que alcancen autonomía en sus aprendizajes
y, de los docentes, el desarrollo de una práctica educativa que garantice el
éxito de esta exigencia.
Algunos de los orígenes de este escenario pueden encontrarse, entre
muchos otros, en los trabajos adelantados por la Comisión Internacional
de Enseñanza de la Matemática surgida en el IV Congreso Internacional
de Matemática celebrado en Roma en 1908. En ese caso, la comisión que
bajo la dirección de Félix Klein, auspició la formación de profesores en el
área de matemática para educación media y seleccionó, de manera
estructurada, los contenidos programáticos que debían enseñarse en este
nivel educativo. Esta acción investigativa se frena con los avatares de las
guerras mundiales produciéndose un letargo que vuelve a despertar en el
congreso de matemática de Royaumont en 1959. Allí, Jean Dieudonné
propuso modificar los programas de matemática que se enseñaban en
bachillerato y excluyó de éstos los contenidos derivados de la geometría
euclídea para sustituirlos por el estudio de la teoría de conjuntos, de la
lógica, el álgebra lineal elemental y algo de cálculo. Estos contenidos
debían ser enseñados desde una perspectiva axiomática para conducir el
trabajo docente a fomentar el rigor matemático en el aprendiz.
Esta manera de presentar la disciplina fue criticada en la voz de René
Thom en el Congreso de Exeter de 1972, quien argumentó que la
propuesta curricular de Dieudonné sin la geometría euclídea, despojaba a
la enseñanza básica de una cantera inagotable de contenidos y problemas
de relevancia en la formación de los jóvenes, para sustituirlo por un
material estructurado de manera axiomática que a su juicio frenaba la
conjetura, no promovía la manipulación operativa del espacio, limitaba la
adquisición de las ideas matemáticas e impedía la formación de las
estructuras del pensamiento que se pretendían desarrollar con la
aplicación de ese currículo. Guzmán (1993), en relación con esta
polémica indica que los problemas ocasionados con la incorporación de
la llamada matemática moderna fueron más que las posibles ventajas que
se había pensado conseguir, tal como el rigor en la fundamentación, el
entendimiento de las estructuras matemáticas, la modernidad y la
proximidad a lo que hacían los matemáticos profesionales. Sin embargo,
conviene destacar la influencia que sobre la enseñanza de la matemática
ejerció la controversia de los principios filosóficos y epistemológicos
discutidos en estos movimientos de reformas curriculares.
Así, en las tres últimas décadas del siglo XX, la referida polémica,
promovió en el panorama educativo internacional, un movimiento de
alerta permanente sobre el avance y desarrollo del quehacer educativo en
matemática a todos los niveles, además de motorizar, según García
(1999), la idea de que una de las actividades básicas de la matemática es
la de organizar y estructurar la información que subyace en un problema,
identificando las relaciones y regularidades de las estructuras
matemáticas inmersas en la situación problemática. Matematización que a
su parecer la escuela ha realizado siguiendo estilos de enseñanza donde
destacan el estructuralismo, el mecanicismo, el empirismo y el realismo.
Por una parte, los estructuralistas conciben la matemática como una
disciplina lógico-deductiva y encaminan su enseñanza a deducir las
verdades dadas en teoremas a partir de una axiomática preestablecida; los
mecanicistas piensan que la matemática consiste en desarrollar
procedimientos que le permitan conocer los conceptos básicos de la
disciplina y en consecuencia, la docencia debe dirigirse a la enseñanza de
reglas que conduzcan al estudiante a la manipulación de fórmulas y
símbolos; los empiristas consideran que los conocimientos matemáticos
provienen de la experiencia y dirigen su práctica docente a explorar y
desarrollar nociones matemáticas sin preocuparse por la formalidad de la
disciplina; quienes se ubican en el realismo comparten con los empiristas
la génesis del saber matemático, pero su enseñanza se fundamenta en la
invención o reconstrucción de la matemática escolar en analogía con el
proceder del matemático en la creación de su ciencia.
Por su parte Carrillo (2000), opina que la actividad matemática en la
escuela se realiza atendiendo a los principios derivados de las
concepciones platónica, instrumentalista y de solución de problemas;
perspectivas que a su parecer generan los estilos tradicional, tecnológico,
espontáneo e investigativo en la enseñanza de la disciplina. Los
platónicos ven la matemática como una ciencia abstracta organizada en
una estructura lógica que le da un carácter objetivo, absoluto y libre de
valores, tal caracterización fundamenta el estilo tradicional de enseñanza
de la matemática basado en el esquema transmisión-recepción; los
instrumentalistas conciben la matemática como un conjunto organizado
de conocimientos preexistentes de carácter utilitario de los cuales se
enseñan reglas y herramientas que sirven de base para el aprendizaje de
otras ciencias, siguiendo una práctica de enseñanza que simula procesos
de construcción apoyados en recursos tecnológicos; quienes derivan el
conocimiento matemático de la solución de problemas ven la disciplina
como un edificio en remodelación permanente que se amolda al contexto
social, cultural y científico donde se realiza la edificación. En esta
perspectiva se enmarcan los estilos espontáneo e investigativo que
conciben la enseñanza como una acción dirigida a promover un
aprendizaje que integra conceptos, procesos y estrategias en la
reconstrucción autónoma de un conocimiento matemático útil.
Desde nuestra perspectiva, estos estilos de enseñanza se enmarcan en dos
concepciones que se afianzan en estrategias didácticas distintas para
potenciar el desarrollo de las estructuras del pensamiento del estudiante y
dotarlo de las herramientas de análisis inherentes al proceso de
matematización escolar. La primera que puede denominarse concepción
clásica, ve la matemática como un saber estructurado con escasa
variabilidad y concibe al docente como un instructor que dirige su
actividad a la exposición de conceptos ilustrados con ejemplos, seguidos
de ejercicios sencillos cuya dificultad va incrementando en la medida que
desarrolla la clase. La segunda, que puede tildarse de concepción
moderna, ve la matemática como un saber hacer que incluye conjeturas,
pruebas y refutaciones de las ideas matemáticas incluidas en la
problemática que se analiza, de modo que la enseñanza que surge de allí,
ve al maestro como un formador que invita a descubrir, inventar y probar
ideas a través de la argumentación y de la reflexión crítica.
La enseñanza de las ideas del cálculo a nivel universitario, no es ajena a
estas concepciones. De un lado se ubican aquellos docentes que bajo la
concepción clásica, limitan su acción educativa a repetir los conceptos
matemáticos tal como aparecen en los libros de texto o en la misma forma
en que le fueron enseñados, reduciendo sus clases a una algoritmización
de los conceptos del cálculo que los estudiantes contemplan, memorizan
y repiten en los exámenes, lo que de acuerdo con Artigue, Douady,
Moreno y Gómez (1995), es una enseñanza marcada por la manipulación
de fórmulas evidenciada en la determinación del límite, derivada o
integral de una función, en lugar del análisis de estos conceptos y su
aplicación en la solución de los problemas del entorno académico y social
del estudiante. Estas observaciones muestran la inclinación de los autores
por las estrategias didácticas que orienten el proceso creador inmerso en
la matemática escolar y que a juicio de éstos se logra con una enseñanza
fundamentada en la solución de problemas, praxis que se corresponde con
la concepción moderna de la enseñanza, la cual según Guzmán (1993), es
el método más invocado para llevar a cabo el principio general del
aprendizaje activo, toda vez que enfatiza en la utilidad de la apropiación
de los contenidos matemáticos tanto en el desarrollo de los procesos del
pensamiento como en los procesos de aprendizaje.
De un lado, estas concepciones dejan ver que el proceso enseñanza
aprendizaje de la matemática es un problema complejo cuyas variables
requieren un estudio que supera los propios conocimientos matemáticos
hasta alcanzar otras disciplinas, más aún a nivel universitario donde se
cree que basta con saber matemática para enseñarla, por ello es común
encontrar un gran porcentaje de profesores de esta disciplina con sólidos
conocimientos matemáticos, lo cual es una condición necesaria, pero no
suficiente para adelantar el proceso de enseñanza aprendizaje de la
matemática. La carencia de formación pedagógica y el desconocimiento
de los métodos de investigación en ciencias sociales conforman una
limitante que impide enfrentar de manera exitosa los problemas que
emergen de los procesos de aprendizaje que plantea la enseñanza de la
matemática.
Del otro lado, imponer una tendencia dirigida a convencer a los
profesores casi sin evidencia empírica, de conducir su praxis docente
apegados a una concepción de enseñanza que dice afianzar su quehacer
docente en procedimientos heurísticos, en detrimento de la concepción
que sustenta su práctica educativa en procedimientos algorítmicos, es
desde nuestra percepción una dirección que puede conducirnos a
situaciones similares a las vividas en los años 60 y 70 del siglo pasado
con la implementación de la llamada matemática moderna. Enderezar el
rumbo es estar a tono con una perspectiva epistemológica reciente, que al
decir de Velasco, 2000, ha asumido que los medios heurísticos deben
concebirse como subordinados a la estructura algorítmica de la ciencia,
razón por la cual estos procedimientos no deben considerarse de manera
aislada, sino como los elementos de un continuo que el maestro puede
utilizar solos o acompañados dependiendo tanto del momento y el
contexto como de los aportes que al respecto realizan las teorías del
aprendizaje.
Asumiendo por una parte, que la enseñanza de la matemática debe ser
una tarea encaminada a suministrar información clara del tópico en
estudio a través de ejemplos y descripciones que promuevan en el
estudiante una práctica reflexiva que dé lugar a la experimentación, a las
aproximaciones sucesivas, a las tentativas exitosas y estériles de las
actividades que conducen al aprendizaje. Por otra, la necesidad de que el
sujeto enfrente lo aprendido ante las demandas exigidas por la escuela
bajo la orientación clara y precisa del docente, de modo que el
aprendizaje de esta disciplina sea una actividad similar a la que sigue el
matemático en la creación de su ciencia, por lo que las acciones deben
encaminarse a organizar y estructurar la información relevante del
problema en estudio para descubrir las relaciones y regularidades que lo
caracterizan.
Este artículo se propone recabar información acerca de los
procedimientos didácticos más frecuentes, inmersos en ese par de
concepciones de la enseñanza del cálculo, a fin de promover una
integración entre estas estrategias, fundamentada en los aportes de las
teorías de la educación. Estos elementos de convergencia deberán
redundar en la creación de escenarios de aprendizaje donde el maestro
retire las ayudas que suministra a los estudiantes en la misma medida que
éstos alcanzan autonomía en la solución de los problemas que se le
plantean en la enseñanza de la matemática.
Se busca, además, destacar el papel instrumental de la matemática que se
refleja tanto en la formación del pensamiento lógico formal como en el
desarrollo de habilidades y destrezas en el manejo de procesos
algorítmicos. Las reflexiones adelantadas en esta investigación,
encuentran su justificación en la potencialidad de las nociones de cambio
manejadas en las ideas del cálculo que se discuten en las aulas
universitarias, ellas forman parte tanto del lenguaje como de los
procedimientos seguidos en la mayoría de las ciencias, lo que hace de
esta rama de la matemática la herramienta clave en el manejo del nivel de
preparación científica y tecnológica de las nuevas generaciones.
2.1.CONCEPCIÓN CLÁSICA Y MODERNA EN LA
ENSEÑANZA DE LA MATEMÁTICA
Parece acertado iniciar la discusión en torno a ese par de concepciones en
la enseñanza del cálculo, destacando la necesidad de poner de lado la
creencia generalizada de que la enseñanza de la matemática es una tarea
fácil, que puede llevar a cabo cualquier persona con carácter y sentido
común que conozca los principios básicos de la disciplina, lo cual
excluye por supuesto a los buenos profesores de todos los tiempos que
aún con escasos conocimientos de los aportes procedentes de la
epistemología y la psicología que enriquecen de manera significativa la
práctica educativa, hacen de la actividad académica un espacio donde la
enseñanza simula las maneras de producir conocimientos matemáticos.
En esta discusión nos anima la idea de incitar un análisis reflexivo acerca
del quehacer diario en esa compleja, pero excitante tarea de promover el
aprendizaje autónomo de la matemática.
En esta tarea es oportuno hacer una distinción entre quienes conciben la
matemática como una ciencia intensamente dinámica y cambiante
proveniente del saber hacer, y los que la perciben como una ciencia que
reúne un conjunto de saberes acabados y rígidos, que de acuerdo con
Guzmán (1993), promueven diferencias en las praxis docentes que
generan aprendizajes diferentes. La primera, incita el desarrollo de los
procesos mentales propios de la matemática y la segunda, a la recepción
de contenidos que esperan la ocasión de ser aplicados y que en opinión
del autor precitado se tornan obsoletos en períodos de tiempo marcados
por el avance tecnológico, así por ejemplo el cálculo de la derivada de
una función que es una actividad a la que suele dedicársele mucho
tiempo, carece de relevancia en la actualidad, pues con la calculadora o la
computación puede determinarse en fracciones de segundo, para este
autor lo que es más o menos permanente en el individuo, son los procesos
cognitivos que le permiten abordar con éxito los problemas presentes en
el entorno, sin embargo no niega el papel de los procesos algorítmicos y
de la automatización en la organización y consolidación de lo aprendido,
razón que justifica el análisis de las características que definen a las
concepciones de la enseñanza a las que nos estamos refiriendo.
2.2.CONCEPCIÓN CLÁSICA EN LA ENSEÑANZA DEL
CÁLCULO
De acuerdo con Vera y Silva (s/f), la visión tradicional de la praxis
docente en matemática donde se enmarca la concepción clásica de la
enseñanza del cálculo, se limita al desarrollo de unas clases que se
reducen a exposiciones de conceptos planteados en situaciones
problemáticas que se ilustran con ejercicios o problemas
descontextualizados, donde el énfasis se coloca en la memorización de
técnicas y reglas que no tienen vinculación con la realidad y dan la
impresión de que la matemática sólo existe en el momento de la clase.
Desde esta óptica, la enseñanza por ejemplo de la noción de la primera
derivada de una función en un punto como la pendiente de la recta
tangente a la curva en ese punto(1)
, partiría del estudio de la
expresión como una situación problemática, que a partir de su evaluación
en un punto xo del dominio de f' permite determinar la pendiente de la
recta, continua con el ejercicio de calcular la primera derivada de algunas
funciones y su evaluación en ciertos puntos del dominio de estas
funciones y culmina con problemas donde se invita al estudiante a
calcular la pendiente de la recta tangente a una curva en un punto dado.
Esta praxis al decir de García (1999), sigue un estilo expositivo en la
transmisión de un conocimiento acabado y abstracto que genera una
enseñanza plagada de definiciones y de procedimientos algorítmicos,
promueve un conocimiento caracterizado por la certidumbre y la carencia
de dudas que limitan la consideración de respuestas alternas.
De este modo, los problemas inmersos en los conceptos del cálculo, que
en el caso citado, para una clase de matemática en un contexto
económico, pudiera referirse al estudio de los fenómenos marginales
(representados en la idea de tangencia) que ocurren al margen de un
proceso de producción (representado en la curva de la función) y que
encierra un conjunto de situaciones sin soluciones evidentes, son
transformados en ejercicios que el profesor resuelve de manera certera y
en forma lineal, sin dar espacio a la discusión, a la conjetura, a la
experimentación. Este estilo de enseñanza que conduce a la
desproblematización de los problemas, al decir de Gil (1993), coloca de
manifiesto las deficiencias de la enseñanza por transmisión, puestas en
evidencia en el hecho de que a lo sumo promueven la solución de
ejercicios similares a los tratados en clase, pero que a su juicio no enseña
como abordar un verdadero problema, por lo que cualquier cambio
respecto a los ejercicios hechos en clase generan dificultades insuperables
en los estudiantes que optan por abandonar la búsqueda de la solución.
En opinión de Beltrán (1993), esta concepción de la enseñanza tiene sus
raíces en la teoría conductista que concibe el aprendizaje como el registro
de una serie de impresiones sensoriales provenientes de los elementos
componentes del fenómeno en estudio, donde el papel decisivo en el
proceso de aprendizaje lo desempeñan las actividades planeadas y
ejecutadas por el maestro en la transmisión de unos conocimientos que el
alumno guarda en su memoria para dar respuesta a las tareas que le
plantea la escuela.
Una visión renovada de la fundamentación teórica de esta concepción se
encuentra en las ideas de Ausubel, Novak y Hanesian (1986) quienes han
resaltado el papel guía del profesor en el control de la dispersión que
puede generar el aprendizaje por descubrimiento y el papel de las
estructuras conceptuales de los estudiantes en la adquisición de los
nuevos conocimientos, dejando en claro la existencia de un modelo
coherente de enseñanza aprendizaje por transmisión recepción que puede
generar un aprendizaje significativo en la medida que la asimilación sea
el producto de un proceso activo que promueva la diferenciación y
reconciliación integradora entre lo que sabe el estudiante y la nueva
información o la de un aprendizaje memorístico si la praxis docente
apunta en dirección contraria, vale decir, si la enseñanza se limita a
describir, ilustrar y manipular los conceptos que se están enseñando, sólo
a través de procesos algorítmicos que nieguen la posibilidad de emitir
juicios y experimentar e incluso de analizar los resultados.
Sin embargo, aún cuando el énfasis de la instrucción se coloca en la
información presentada en temas, tal como la noción de cambio,
expresado en estructuras algebraicas que establecen una relación de
dependencia entre variables, donde se destacan los elementos que
conforman el modelo de relación funcional, el aprendizaje puede tornarse
significativo en el sentido de Ausubel en la medida que el estudiante se
torne cognitivo comprometiéndose con los procesos de entendimiento de
esas partes de la estructura algebraica que le permiten avanzar paso a
paso hacia la comprensión del fenómeno variacional. Esta concepción del
aprendizaje puede considerarse como el punto frontera entre el
aprendizaje que se promueve en la concepción clásica y que Beltrán
(1993), denomina aprendizaje por adquisición de respuestas y el
aprendizaje que se genera en la concepción moderna.
Concepción moderna en la enseñanza del cálculo
Esta concepción habla de un aprendizaje como construcción de
significados para que el estudiante construya el conocimiento basándose
en su bagaje cultural y en las orientaciones provenientes del profesor que
ya no es visto como un transmisor de saberes, sino como el otro
participante del proceso de aprendizaje que junto al alumno construye el
conocimiento, lo cual significa que su actividad se dirige a promover la
organización, interpretación y comprensión del material informativo para
que sea el mismo estudiante el que decida el qué y el cómo de lo que
aprende. El desarrollo de esta actividad supone que los estudiantes
manejan la idea del límite de una función.
Desde esta óptica los saberes matemáticos no se consideran como algo
acabado sino como conocimientos en plena creación que se sustentan en
una práctica pedagógica como la promovida en la concepción moderna,
que por arriba del almacenamiento de conceptos coloca las estructuras
conceptuales que se amplían y potencian a lo largo de toda la vida, de
modo que no es suficiente con las clases expositivas, sino que deben
crearse escenarios donde los alumnos participen en la elaboración de sus
propios aprendizajes. En opinión de Gil (op. cit.), esta concepción de la
enseñanza debe dirigirse a transformar los programas de actividades, en
situaciones problemáticas que carezcan de soluciones obvias, capaces de
inmiscuir a los alumnos en un proceso de investigación dirigido por un
profesor apto para promover el intercambio de los hallazgos realizados en
el aula, a fin de que estos sean reforzados, matizados o cuestionados con
base a los conceptos matemáticos existentes.
En este caso, se trata de propiciar un trabajo colectivo de investigación
que persigue potenciar y enriquecer la actividad individual y esta labor en
opinión de los expertos se desarrolla con una enseñanza de la matemática
a través de la solución de problemas, si en esta actividad, el problema es
entendido como una situación a partir de la cual se quiere llegar a otra,
sin tener un camino seguro para esta travesía, pues esto conduce a la
búsqueda de acciones apropiadas para la consecución de esa meta que no
es alcanzable de manera inmediata. En este accionar no se excluyen las
explicaciones del profesor dirigidas tanto a enriquecer los aportes
realizados por los estudiantes como a la conducción del proceso, pero si
las actividades, que de manera escrita en el pizarrón reduzcan la
participación activa del estudiante y lo coloquen como el receptor de la
información proporcionada por el profesor.
Esta concepción de la enseñanza enfocada en la solución de problemas
matemáticos deja claro que la aplicación de procedimientos rutinarios
para encontrar la solución a un ejercicio, es un proceso distinto a la
heurística que ensaya un conjunto de conjeturas en la búsqueda de
respuestas al problema que se tiene planteado, pero que no niega el aporte
de realizar ejercicios en el aprendizaje de conceptos, propiedades y
procedimientos con los cuales puede enfrentarse la tarea de resolver
problemas y donde además se tiene claro que la distinción entre ejercicio
y problema es una cuestión relativa, pues lo que para una persona
constituye un gran reto para otras es sólo un ejercicio rutinario.
Específicamente, en una clase de cálculo para estudiantes de economía, la
situación de estimar los costos por unidad, para fabricar una pieza cuyo
costo total es C(x) cuando la producción crece de manera desmesurada,
es para algunos un reto notable, mientras que para otros es una situación
que sólo sugiere el ejercicio rutinario de calcular el límite cuando
de la función del costo medio. Desde nuestra perspectiva, son
las estrategias desplegadas por el profesor las que ubican el quehacer de
la clase en una actividad rutinaria o en la creación de un escenario, donde
se aproveche lo que el sujeto ya sabe en la construcción de los
conocimientos que están siendo tratados en los problemas que se le
plantean.
De acuerdo con Guzmán (1993), la forma de enseñar un tema de
matemática siguiendo la estrategia de solución de problemas incluye: una
situación problemática de la que surge el tema (basada en la historia,
aplicaciones, modelos, juegos…), manipulación por parte de los alumnos,
identificación de la situación y sus dificultades, formulación de
estrategias posibles, conjeturas diversas de los estudiantes, ataque y
resolución del problema, análisis del proceso de solución, prueba de la
solución encontrada, generalización hacia nuevos problemas y
transferencias de resultados, métodos e ideas.
El maestro que orienta la enseñanza del cálculo en la solución de
problemas como herramienta para construir el conocimiento, debe utilizar
esta estrategia tanto para justificar y motivar el estudio de un contenido
determinado, como para promover el desarrollo de habilidades superiores
como consecuencia de haber incitado la resolución de problemas
rutinarios que se resuelven a su vez a partir del aprendizaje de conceptos
y destrezas matemáticas presentes en los contenidos del tema que se
analiza. Por ejemplo, el estudio de los máximos y mínimos en una
relación funcional en la clase de economía a la que se ha hecho
referencia, puede motivarse invitando a los estudiantes a construir un
envase cilíndrico para almacenar una determinada cantidad de líquido a
partir de una lámina rectangular, de manera que en su fabricación se
utilice la menor cantidad posible de material. Este clásico problema del
cálculo, además de convertirse en el escenario heurístico que motive y
justifique el estudio del contenido y que en la búsqueda de la solución
muestre la necesidad de construir la función que se ajuste a las
condiciones del problema y el uso de la derivada como la herramienta
que indica la forma de cortar la lámina sin que se desperdicie material en
la fabricación del recipiente, enfrenta al estudiante a un proceso parecido
al que sigue el matemático activo en la creación de su ciencia y es por
tanto el ambiente propicio para fomentar el desarrollo de los procesos
mentales que le permitirán desenvolverse en el entorno social.
La enseñanza de la matemática a partir de la solución de problemas, de
acuerdo con García (1999), fue planteada en el III Congreso Internacional
en Educación Matemática celebrado en Berkeley en 1980, a raíz de las
ideas de Freudenthal relacionadas con el estudio de los problemas que se
derivan de la enseñanza de la matemática y con la atención de los
aprendizajes individuales donde a su parecer se hallan las soluciones a los
aparentes fracasos de los estudiantes, junto a las observaciones de Polya
quien solicita a los profesores encaminar su actividad docente a mejorar
las capacidades intelectuales de sus estudiantes.
Sin embargo, los aportes de Polya ya habían sido presentados en su libro
cómo plantear y resolver problemas publicado por Princeton University
Press, U.S.A. en 1945, a partir del cual se desarrolla una teoría heurística
para la solución de problemas matemáticos, que en un principio se dirigió
a la enseñanza básica pero que en la actualidad abarca todos los niveles
educativos. Esta teoría se fundamenta en una serie de preguntas e
instrucciones que orientan la búsqueda de la solución del problema, en
ella se parte de la comprensión del problema dirigida a identificar tanto
las incógnitas como las condiciones y la suficiencia de éstas en la
búsqueda de la solución, para lo que puede ser útil realizar un posible
dibujo o rescribir en otros términos el problema. Continua con la
concepción de un plan para resolverlo, donde se incluye las diferencias y
analogías de las incógnitas del problema dado con las de otros problemas
que se hayan resuelto previamente a fin de poder concebir una estrategia
de solución. La ejecución del plan, incluye revisar cada paso de la
estrategia para clarificarlos y ver si se pueden probar y, finalmente, se
realiza una revisión retrospectiva del problema que además de garantizar
la certeza de la solución encontrada abra la posibilidad de encontrar una
manera diferente de resolverlo y de aplicarlo a la solución de nuevos
problemas. Velasco (2000), describe esta metodología en los términos
siguientes una vez que las circunstancias del problema están totalmente
claras se proponen varias estrategias, con base en analogía
principalmente, en el replanteamiento del problema y en la solución de
problemas relacionados que ayuden a resolver el principal. Seguidamente
se lleva a cabo el plan seleccionado y se verifica. Finalmente, se analiza
la solución para averiguar si se puede obtener de otra forma, y se estudia
su utilidad y la del método en la solución de otros problemas.
Entre las ventajas de esta estrategia pedagógica que permite al estudiante
manipular los objetos matemáticos para que ejerciten su capacidad mental
y adquieran confianza en su propio proceso de aprendizaje, destaca
Guzmán (op. cit), el desarrollo de la autonomía de los estudiantes para
resolver sus propios problemas, el promover la realización de un trabajo
atrayente, divertido, satisfactorio, autorrealizador y creativo, el generar la
consolidación de hábitos que van más allá del quehacer matemático y el
propiciar una actividad que puede realizarse durante toda la vida.
La fundamentación teórica de la enseñanza a través de la solución de
problemas donde se inserta la concepción moderna para la enseñanza del
cálculo, puede encontrarse en los aportes del enfoque cognitivo del
aprendizaje tanto en la visión norteamericana como en la estructuralista
de la psicología europea y en las ideas de Vygotsky (1981) en torno a la
forma en que se produce el conocimiento. El primero, en analogía con los
modelos de procesamiento de información trata de explicar la forma
como las personas procesan la información que reciben del medio de
acuerdo a los esquemas mentales existentes en su interior, los cuales le
permiten articular la información a través de un proceso de
retroalimentación. El segundo, de carácter organicista proveniente de la
teoría piagetiana promueve la idea de que el aprendizaje es un proceso de
construcción personal que ocurre como consecuencia de la interacción
recíproca entre el sujeto y el objeto, en la cual el individuo con sus
acciones físicas y cognitivas transforma al objeto y lo organiza en sus
marcos conceptuales en un proceso de reconstrucción permanente y la
visión de Vygotsky que ve el crecimiento del conocimiento como la
interrelación entre el eje del desarrollo orgánico y el eje cultural, que basa
el aprendizaje en el proceso de mediación, entendida como la
cuantificación de la interacción que se establece entre el sujeto que
aprende y el contexto sociocultural que incluye a los organizadores
externos, quienes actúan como guías capaces de regular y controlar las
actividades o tareas que debe realizar el aprendiz, esto es, la construcción
de andamios que lo ayuden a moverse desde lo que sabe hacer hasta el
nivel requerido para resolver exitosamente el problema con el que se
enfrenta.
3.1.INTENGRANDO CON UN METODO PRACTICO
Los aportes de los enfoques del aprendizaje y las reflexiones acerca de la
enseñanza fundamentada en la solución de problemas no niega el papel
decisivo de los procesos algorítmicos y de la ejercitación en la
consolidación del conocimiento matemático. Por ello, está presente la
necesidad de idear escenarios para la enseñanza de la matemática donde
se integre competencia, comprensión y estrategia. Ser competente
significa poseer destrezas manipulativas o procedimentales para calcular
límites, derivadas, integrales o construir la curva de una función;
comprender implica establecer las relaciones entre los contenidos y los
procesos matemáticos colocados en juego y ser estratégico es poder
establecer un auto-gobierno que organice, elabore, repita, controle y
evalúe la complementariedad entre la competencia y la comprensión.
Este escenario de acuerdo con Godino (2002), propone una enseñanza de
la matemática acorde con los supuestos filosóficos falibilistas que
admiten la falibilidad de las ideas que sustentan el conocimiento
matemático y se asocian con el pensamiento constructivista de la
educación. En tal escenario se distingue el componente práctico que
incluye ejercicios, problemas y técnicas de solución; el componente
discursivo relacional que hace uso del conocimiento conceptual y
argumentativo para generar reglas y justificaciones que encaminen la
acción matemática; el componente que integra competencia y
comprensión a través de los recursos lingüísticos que se derivan del
lenguaje matemático.
Estos ambientes educativos que de manera explícita orientan las
actividades que permiten a los estudiantes transformar los materiales de
estudio en conocimientos útiles, apuntan hacia la enseñanza estratégica,
que en opinión de Monereo (2004), es una praxis docente encaminada a
transferir o ceder de manera progresiva a los estudiantes, procesos
mentales que les permitan regular sus aprendizajes a través de un
conjunto de decisiones, que deben ser ׳intencionales para que no se
aparten del objetivo perseguido, conscientes a fin de que los procesos que
conducen a la meta perseguida sean objeto de supervisión y regulación
continua y sensibles, a las formas en que los estudiantes responden a esos
aprendizajes dentro de un contexto donde se incluyen sus conocimientos
y las exigencias del proceso de enseñanza. Praxis que a nuestro entender
es convergente con el escenario de complementariedad entre el
conocimiento para ejecutar operaciones y los procesos heurísticos
seguidos en la solución de problemas, que da pie al proceso reflexivo del
por qué y para qué se construye del conocimiento matemático en el aula.
Las dificultades presentadas en el aprendizaje del cálculo integral están enmarcadas en la
complejidad de los objetivos y en las que se asocian a la conceptualización de los temas y
aplicaciones; el presente artículo se dirige a los maestros para concientizar la necesidad
imperante de introducir una nueva dirección en la planeación, administración y evaluación del
acto educativo; otro aspecto que pudiera generar el horror ante las integrales es el orden
cognitivo del alumno y su ruptura con la matemática clásica algebraico-geométrico, el dar
paso a una matemática totalmente nueva para ellos, teniendo en cuenta que el concepto de la
integral es un tema que no conocen y que antes de intentar una conexión con esta, presentan
un rechazo total, entrar en este campo significa para el alumno reprobación, puesto que es
difícil de concebir porlo complejo de los temas.
Se pretende encontrar los métodos didácticos adecuados para abordar los temas en su
totalidad durante el curso, es importante ofrecer al alumno la oportunidad de estar en contacto
frecuente con los conocimientos a medida que progresa en el nuevo conocimiento,
adaptándolos al grado de madurez y a los diferentes ritmos de trabajo, sin perder de
vista los contenidos. Ante una preocupación por atender la calidad educativa, se intenta
aportar una alternativa para la mejora cualitativa de la enseñanza, esto como una propuesta
didáctica que conduzca a diseñarun plan de acción de asesoramiento para el aprendizaje del
cálculo con la finalidad de lograr la compresión de los contenidos de la materia.
“Sería pertinente proponer que las actividades en el salón se adapten para que los alumnos
dejen de ser receptores pasivos de lo que explica el maestro en el pizarrón”
Es relevante, reconocer que todo aprendizaje tiene un origen y que este parte del interés
individual, el tener una fundamentación teórica clara de lo que se va a enseñar ayudar a
identificar de dónde debemos partir. Con estos antecedentes he reconocido que todos tenemos
la capacidad de crear estrategias de aprendizaje aplicables con base en lo que suceda en el
grupo escolar; otros problemas concernientes al aprendizaje de la integralque se desea superar
se presentan cuando los alumnos se enfrentan a la resolución e interpretación de
planteamientos geométricos, como parte de la enseñanza de las ciencias básicas de la
enseñanza media superior. Un reflejo de esta situación es que los estudiantes no profundizan
en los conceptos generales de la materia, de ahí surge el horror a la resolución de problemas
que no logran interpretar ymucho menos comprender.
No se puede perder de vista que se ha considerado que uno de los errores más graves de la
educación tradicional es fomentar que los alumnos aprendan los productos finales, en vez de
propiciar en ellos el proceso de la investigación misma; de ahí es que surge la idea de diseñar,
instrumentar y evaluar un programa de asesoramiento continuo dentro de la materia de
calculo, implementando diferentes técnicas didácticas (aprendizaje colaborativo basado en
problemas, método de proyectos),y enseñarles a usar software matemáticos como el Derive,
MathCad, Graphmatica,entre otros; aplicando las TICS mediante plataformas virtuales que
conlleven asesoramiento continuo en línea.
Es así como surge esta propuesta de trabajo grupal, buscar que el horror ante la integral se
vuelva una actividad creativa, dinámica y útil, se pretende que el maestro elijay organicelas
actividades del curso más convenientes para lograr el aprendizaje en los alumnos, erradicando
el temor ante la idea de resolver integrales, apoyándose en sus conocimientos y experiencia
sin limitarse a los contenidos programáticos.
Se propone diseñar ambientes de aprendizaje óptimos, espacios quepermitan al alumno
interactuar, interpretar, observar y desarrollar habilidades específicas y generales, partiendo
de lo anteriores necesario considerar la elaboración de un plan de trabajo donde se aborden los
temas de la integral, apoyados en el uso de software computacionales para optimizar el tiempo
y los recursos con mira a erradicar las dificultades que se presentan al resolver este tipo de
planeamientos.Así pues se siguiere que al ser las matemáticas un proceso gradual de
conocimientos, se considere pertinente proponer que las actividades en el salón se adapten
para que los alumnos dejen de ser receptores pasivos de lo que explica el maestro en el
pizarrón, al mismo tiempo de que se apropien gradualmente del vocabulario, laexpresión
simbólica que proporciona el cálculo y el uso de símbolos en integrales, lo cual ayudará al
alumno a aprender significativamente dándole la capacidad de crear nuevos conocimientos y
relacionarlos con las diversas áreas de aprendizaje futuro.
Se puede concluir que ante la necesidad de lograr aprendizajes significativos yerradicar el
horror ante las integrales, surge la necesidad por parte de los maestros de matemáticas de
contar con elementos teóricos y metodológicos que ayuden a modificar la práctica docente,
por un lado a comprender mejor los conceptos implicados en el desarrollo del pensamiento
matemático y por otro a implementar acciones didácticas pertinentes para favorecer este
aspecto (matemático) en la formación de los alumno.Para finalizar y ante la preocupación por
erradicar el temor que algunos alumnos llegan a experimentar por las integrales, nace el
interés por realizar una propuesta didáctica que conduzca a abordar el programa mediante un
trabajo de asesoramiento continuo, se intenta aportar una alternativa didáctica para la mejora
cualitativa de la enseñanza efectiva de la integral.
Un argumento de inicio será fundamental para introducir esta temática, es la siguiente
pregunta: ¿Cómo se puede analizar una obra elemental?
Las obras elementales fueron manuales de matemáticas y otras disciplinas, que bajo esa
denominación se usaron a lo largo de los siglos XVII al XIX para la enseñanza. La cuestión
surge importante debido a que durante los últimos diez años, dicha pregunta ha estado
inmersa en el contexto de investigación de nuestro grupo de Matemática Educativa y en
diversos congresos que asumen esta orientación. El enfoque mediático que justifica el análisis
de los manuales para la enseñanza de la matemática, ha sido la búsqueda en la historia de las
reformulaciones de los conceptos matemáticos que nos han guiado en la definición de
nuestros proyectos de investigación, dentro del concurso de las dimensiones social,
conceptual y epistemológica, y en el diseño de un buen número de situaciones didácticas que
han tenido amplia acogida e impacto en la enseñanza de conceptos matemáticos que
recurrentemente nos causan problemas de aprendizaje en el salón de clase.
Para los estudiosos de la historia de la ciencia la pregunta ha sido central. Al finalizar el siglo
XIX y a lo largo del siglo XX los historiadores de la ciencia vieron con profundidad la
importancia de la investigación textual. L. Brunshvicg realizó en Francia a principios del siglo
XX, una disertación extensa de la historia de las matemáticas que partía de los clásicos
griegos hasta finalizar con la matemática expuesta en las respectivas obras de Comte, Cauchy,
Lagrange y Fresnel (Vid. Brunshvicg, 1922). Un discípulo suyo, G. Bachelard, propuso a
mediados del siglo dos nociones imprescindibles para el estudio de la historia de la ciencia:
aquella de obstáculo epistemológico y la otra, de acto epistemológico. El primero de estos
ampliamente reconocido, es por hoy un pilar de nuestra disciplina. El segundo corresponde a
las sacudidas del genio que aporta impulsos inesperados en transcurso del desarrollo
científico. Esta dialéctica entre obstáculo y acto deja ver con transparencia como los impulsos
del pensamiento científico refieren las reformulaciones o epistemologías sufridas por el
conocimiento a lo largo del tiempo (Cfr. Bachelard, 1971). El punto de vista de Bachelard
sugería que en el estudio de la historia de las ciencias, a partir de el análisis documental, se
debía distinguir el error y la verdad, lo inerte y lo activo, lo perjudicial y lo fecundo
siguiendo la huella de las diferentes rupturas y discontinuidades del conocimiento y no
solamente la continuidad de la historia de los conocimientos mismos. En 1962 T. Kuhn, al
tratar de encontrar las diferencias sobre los fundamentos de la historia de las ciencias,
reconoció la importancia del papel que desempeña el concepto de paradigma, vio estos como
síntesis históricas del conocimiento que han desencadenado cambios que afectan la estructura
de las revoluciones científicas. A diferencia de Bachelard, Kuhn consideraba las
transformaciones del conocimiento a partir de un saber ya constituido o bien como la mejor
imagen que la historia de la ciencia ofrece de este último, el cual enmarca el paradigma en
cuestión, toda vez que estos archivan el paso de una teoría a otra. A finales de los setenta,
Koyré impulso la idea de analizar la evolución del pensamiento científico a través de
estrechar las concepciones trans-científicas de disciplinas antiguas como la filosofía,
metafísica y religión, ello dio para un estudio del paso del espacio finito griego hacia una
concepción geométrica del espacio infinito que merecía la modernidad del siglo XVII. La ruta
de investigación que siguió la noción de ruptura y paradigma a lo largo del siglo XX, orientó
la visión de las diferentes disertaciones que al respecto se han obtenido desde los años sesenta
en adelante.
En esencia, el objeto de la tarea de los investigadores de la ciencia a través del análisis textual,
ha sido a lo largo del siglo pasado y en lo que va del presente, el restablecimiento de
tradiciones científicas. Una tradición científica significa la acción de transmitir a lo largo de
cierto período de tiempo un saber. Este último puede ser colocado en las obras en forma de
proposición, de teorema, como resultado de una práctica, como protocolos que indican los
modos en que se deben enseñar ciertos conceptos, como una definición manipulada, etc. La
labor del especialista será, en una primera etapa, la de entender dicho material para, con ello,
se dice fácil, concurrir a la reconstitución de la tradición textual, la cual es sustentada por el
discurso conceptual del saber.
3.2.EL ANÁLISIS DE OBRAS ELEMENTALES
En torno al estudio de los manuales para la enseñanza de la matemática de los siglos XVII al
XIX, Shubring propuso en los ochenta un enfoque holístico comprendido en un diseño
tridimensional que involucraba analizar los cambios de las varias ediciones de los textos, la
verificación de los cambios en otros libros correspondientes a la misma oeuvre, y la
observación de los cambios en el contexto: planes y programas de estudio, decretos
ministeriales, epistemologías, etc. Al finalizar el siglo (Belhoste, Dalmedico, et, al, 1994), se
dirigió un estudio en tres partes de la école polytechnique. Ha sido ésta la primera obra sobre
historia de la enseñanza de las matemáticas y de la formación en la escuela desde su
fundación hasta nuestros días. Es el fruto de un examen crítico, apoyado por una investigación
histórica de los fondos documentales y textuales de la escuela, de la que desgranan
historiografías, conocimientos, tradición científica y enseñanza a partir de su vocación militar.
Un año antes, en Dalmedico (1993) se estudió la obra de Cauchy, tomando como eje central
una escala en el tiempo observada como un fractal que llevó a poner en evidencia elementos
suplementarios de la vida del autor: vacilaciones, influencias, rivalidades, etc.
Por nuestra parte, a lo largo del último lustro del siglo XX, y hasta el año 2000, el enfoque
que utilizamos en Camacho (2000) para el análisis de los manuales fue establecido a través
del conocimiento matemático que aparece en dichos documentos, el cual fue vehiculado por
flujos de difusión de conocimientos que emergieron de Europa desde finales del siglo XVIII y
a lo largo del siglo XIX, fundamentalmente de España y Francia, y que tuvieron
consecuencias poco favorables en la enseñanza de la matemática de los colegios mexicanos,
por las prácticas de transculturación acontecidas al conocimiento en los textos: obras
compendiadas, cortes, inserciones, traslación de ideologías, sujeción cultural, etc.
3.3.CIENCIA Y PROTO-CIENCIA
Para el 2001, R. Rashed, presidente de la International Union of History and Philosophy of
Science, hizo distinción entre lo proto-científico y lo científico, ofreciéndole como una
distinción exclusiva que domina enteramente la historia de las ciencias (Vid. Rashed, 2001).
Esta oposición debe ser entendida como histórica y lógica a la vez, permitiendo por
consecuencia distinguir una obra de ciencia de otra en la que se pretenda tratar el mismo
objeto. No obstante, Rashed sustrajo las matemáticas de esta oposición debido a que las
piezas exclusivas de la proto-matemática pertenecen a la matemática misma: los indivisibles,
las consideraciones sobre la noción de límite a lo largo del siglo XVIII, etc. Esto último no
ocurre con las otras disciplinas en las que lo proto-científico les cubre de diversas maneras.
Para mejor comprender el pensamiento de Rashed, evoquemos aquí los casos de los
fundamentos de dos tradiciones preocupadas por un mismo objetivo. La definición del cálculo
de las fluxiones de Newton, tomó sentido a partir de engendrar las cantidades por la
permisibilidad que da su naturaleza, cual es la de aumentar o disminuir con movimiento
uniforme. Por su parte Leibniz, incorporó a las cantidades una convención de naturaleza no-
real, las cantidades infinitamente pequeñas.
A pesar de las diferencias en los dominios, en Newton las cantidades se engendran a partir del
movimiento uniforme dando lugar a un modelo geométrico, en tanto que en Leibniz esta
posibilidad ocurre por los infinitamente pequeños, configurando una propuesta algorítmica, se
puede decir que cada uno habla el lenguaje del otro y pareciera que ambos proyectos sólo son
traducibles en la estructura notacional del análisis estándar contemporáneo. La posible
traducción es el punto de vista de Rashed. Bajo esta óptica el cálculo estándar marca un
principio de orden, una noción de distancia que rectifica no sólo a los proto-conocimientos
sino, además, al sinnúmero de epistemologías que le sostienen.
4.1.LA SÍNTESIS NEWTONIANA DEL ESPACIO
No obstante, y como es sabido, la conciliación de estos dominios del cálculo llevó a una
tradición que duró varios siglos. Los primeros acercamientos tuvieron en su inicio
contradicciones en las formas del conocimiento que engendraron, pudiéndose explicar estos
últimos con el adjetivo de meta-conceptos; es decir, conocimientos abstractos u oscuros,
situados en una etapa primitiva o en una proto-matemática, siguiendo a Rashed, difíciles de
determinar en el dominio de lo real.
Estas expresiones fueron resultado de una deliberación del pensamiento, el cual fue sujeto a la
noción universal de espacio y a sus cualidades de extensión establecidas por los primeros
analistas, como Newton. Este concibió el espacio absoluto sin definirle como siempre similar
e inmóvil. Empero la contingencia, el espacio relativo fue pensado como cierta dimensión
móvil o medida de los espacios absolutos. Consecuentemente su extensión, y particularmente
las cantidades, fueron pensadas como crecientes o decrecientes con movimiento continuo, a la
manera del espacio que describe un cuerpo en movimiento.
A tal definición llegó a partir de suprimir de la noción de espacio una o varias
determinaciones, a excepción de la idea de extensión, lo cual le originó una idea genérica a la
que ya no respondió el espacio en lo real. Este corte le hizo a determinaciones que
conservaban un carácter finito, las cuales al ser suprimidas hicieron que la extensión deviniera
infinita. Ello le permitió reconsiderar el espacio a partir de un atributo de éste, cual es la
noción de cantidad.
En su caso la noción de cantidad representaba recintos del espacio, y era el concepto en juego.
La definición de esa noción antes de Newton era: Cantidad es todo aquello que aumenta o
disminuye. La reformulación de Newton a través de su concepción geométrico-espacial fue:
Cantidades son crecientes o decrecientes con movimiento continuo. De esta forma la noción
original y su accesoria pueden conectarse y formar la proposición sintética siguiente: Todo lo
que es capaz de aumentar o disminuir es descrito con movimiento continuo.
Esta última reformulación es una unificación o síntesis del pensamiento newtoniano con el
pensamiento clásico de su época, a la que se pudo remontar gracias a la trascendencia o
universalidad de la noción de espacio; particularmente a su atributo más representativo, la
noción de cantidad. Con este primer axioma Newton fue capaz en 1665-66 de dar una
explicación matemática, a partir de las series que surgen del teorema binomio, de los
fenómenos físicos y astronómicos que estudió, y considerarle eje medular de la estructura de
los Principia. No obstante, con la síntesis no se pretendía resolver problemas particulares,
sino, en principio, ordenar la totalidad de la ciencia en un sistema textual. Quien desconozca
la obra de Newton tiene en ese primer axioma un argumento fundamental para estudiarle.
4.2.SÍNTESIS Y SINTETIZADORES
En este contexto, y siguiendo el modelo de sintetización de Newton, la cantidad se ancló
como noción de orden cuyas posibilidades de implicación rebasaron a cualquier otro
concepto, llevando a los analistas y geómetras a escribir bajo esa perspectiva las primeras
Obras de conocimientos avanzados. En el caso de L´ Hôpital, arrogando del cálculo de
Leibniz, transfirió en 1696, (Vid. L´ Hôpital, 1696), la noción de cantidad extrapolándole del
espacio como porciones infinitamente pequeñas de cantidades variables que aumentan y
disminuyen continuamente. Esta síntesis fue definida diferencia y es el fundamento que
permea el Analyse des infiniment petits. Euler hizo algo semejante en 1755 para escribir los
Principes de calcul différentiel, extendió la noción de cantidad al infinito percibiéndole en
una sola proposición como: Las cantidades pueden por su propia naturaleza aumentar o
disminuir al infinito (Cfr. Euler, 1755).
Dicha práctica, aunque parezca, no se refiere solamente al diseño de obras de conocimientos
avanzados que tengan que ver con el cálculo diferencial. Lobatchevski construyó su
Géométrie imaginaire con argumentos semejantes. Pascal expresó que la geometría tomaba su
fundamento a partir de generalizar la noción de extensión en términos de establecer sus
límites entre la nada o sea el cero, y el infinito. Laplace hizo uso del principio de la razón
suficiente, de Leibniz, axioma evidente a priori, basado en el principio de que una cosa no
puede comenzar a existir sin una causa que le produzca. Hecho empírico que le llevó a
sustentar los Essai philosophique sur les probabilités, considerando el estado actual del
universo como el efecto del estado anterior y como la causa del que ha de seguirle.
En Descartes, durante el siglo XVII, los principios que se exigían para fundamentar la ciencia
en documentos textuales debieran ser evidencias apodícticas, es decir, axiomas convincentes
a priori que de principio no admitieran contradicción. Este último acuñó la noción de
elemento, como aquellos componentes inmanentes de una cosa. Si seguimos este punto de
vista, en L´ Hôpital la diferencia es el elemento constitutivo y es el resultado formal de la
síntesis de pensamientos. En Newton los elementos serían las primeras y últimas razones de
cantidades llamadas inicialmente fluxiones, o mejor aún en el contexto de la síntesis,
velocidades de crecimiento.
Vista así, la unificación de conocimientos conduce por sí misma a la adquisición de un
conocimiento nuevo. Kant llamó en 1785 proposiciones sintéticas a la suma de las
proposiciones primitiva y su accesoria. El ejemplo clásico kantiano es el de la proposición
sintética 7+5=12; fue comentada en (De Rémusat, 1849; Russell, 1950 y Meyerson y
Lefebvre 1969). En el centro de la proposición ni el concepto de 5, ni el concepto de 7,
indican que su suma sea divisible por 3 y 4. Con ello Kant, Rémusat y Meyerson concluyeron
en la síntesis afirmando que ahí se ha creado algo nuevo. Otro ejemplo cotidiano, de entre
muchos otros, fue el de: la línea recta es la más corta entre dos puntos. Evidentemente el
sujeto recta no está comprendido en el atributo, este último, la más corta entre dos puntos, es
la proposición accesoria que sintetiza la primera.
Hasta aquí hemos podido bosquejar como la síntesis fundó una tradición en la construcción de
obras de ciencias sujeta a los siguientes argumentos: 1) La unificación de pensamientos, 2) La
definición proposicional del elemento, y 3) La consagración de la obra. ¿Pero qué alcance
tuvieron esas perspectivas en el diseño de los manuales?
5.1.LA UNIFICACIÓN EN LOS MANUALES PARA LA ENSEÑANZA
Desde principios del siglo XVIII los elementos se concebían como aquella parte que
denotaba las componentes originales de un cuerpo. Reynaud, en su texto de cálculo llamado
Analyse demontrée, (Vid. Reynaud, 1708) y Bèzout en sus Principios de cálculo infinitesimal
de mediados del siglo XVIII (Cfr. Bèzout, 1760 aprox.), llamaban elemento a la extensión
infinitesimal o diferencial que se tomaba en las figuras geométricas con las cuales es posible
determinar la cantidad de área, longitud o volumen correspondiente. En este sentido el
diferencial de área dA, es un elemento distintivo que unifica y hereda sus fundamentos al área
total.
El hecho analítico en el Traité du calcul différentiel et integral de S. F Lacroix
En la escritura del Traité du calcul différentiel et integral, por cantidad Lacroix había
concebido todo aquello cuya magnitud por su naturaleza es comparable con otra de su misma
especie (Cfr. Lacroix, 1797). La comparación sólo era posible, como en Newton, con el
auxilio de los números, y se lograba a partir de establecer la dependencia entre cantidades.
Para justificar el paso de las cantidades en juego por sus diferentes estados de magnitud, sean
estos infinitamente pequeños o infinitos, Lacroix hubo de reducir esta operación a un hecho
analítico reposado sobre nociones consistentes que esperaba llegaran a responder a las
aplicaciones geométricas de la mecánica, asignatura central en la enseñanza de la école
polytechnique al iniciar funciones en 1794, y de la cual el cálculo infinitesimal era parte
fundamental. El hecho analítico fue su intento por sintetizar el concepto de límite newtoniano
para con ello tener un argumento o proposición medular en el diseño del Traité.
La posición de Lacroix hacia el concepto de límite se colocaba en la postura en esa dirección
de los escritos de Euler, D´Alembert y Cousin y era totalmente opuesta a la de Lagrange,
incluyendo su negación a la notación propuesta por este último. Dos problemas sirvieron para
la justificación, aquel de las tangentes analizado algebraicamente por Barrow, y la caída de
los cuerpos graves tomado de la experiencia de Galileo.
La transparencia del objetivo era dejar ver que ambos problemas, resueltos en su momento sin
la concepción de los límites, son consustanciales con éste. Ello probaría el origen apodíctico
del concepto a partir de unificar las concepciones de Barrow y Galileo con las propias ideas
que Lacroix tenía del concepto de límite.
Para el efecto hizo uso del método de reducción al absurdo, o sea, no suponer aquello que se
encuentra en la proposición inicial, dejando ver que ello surge natural, en este caso el
concepto de límite (Vid. Lacroix, 1819, nota A al final de la obra).
5.2.EL PROBLEMA DE LAS TANGENTES DE BARROW
En el problema de las tangentes de Barrow, inició con la parábola ordinaria
.
Cortándole con una secante hizo:
AP=x, PM=y, PP´=h, M´Q=k, A´P=x+h, P´M=y+k.
Comparando los triángulos semejantes
M´Q: MQ :: PM: PS, es decir k: h :: y: PS,
llegó a la expresión
PS=P .
Desarrollando
,
y restándole la primitiva
,
le quedó:
,
de donde resulta el cociente
.
Sustituyendo esta última en:
PS=P , llegó a:
PS= ,
la cual es llamada subsecante.
Para hacer ver que en esta parte del problema el concepto de límite aparece, el argumento de
Lacroix fue el siguiente: Una primera observación se ofrece, es esta que, a pesar del
evanecimiento de las cantidades h, k, la fracción que sugiere su relación continua existiendo;
o bien tiene un valor apreciable, o ella se reduce a , valor donde la cantidad PS=
, se aproxima a medida a medida que k disminuye, y donde ella puede diferir tan
poco como queramos.
La fracción , muestra la existencia del límite en la variación de la expresión original.
La proposición, o elemento final de esta argumentación, fue colocada por Lacroix en las
Notions préliminaires del Traité, como una definición en los siguientes términos: Así, luego
que las variaciones respectivas de una función y su variable se envanecen, esto no ocurre con
su relación; la cual tiende hacia un límite aproximándose a él por diversos grados,
existiendo, entre este límite y la función, una dependencia mutua quien determina a una por
la otra (Vid. Lacroix, 1819, en premiére partie de calcul différentiel)
A partir de este argumento le fue expedito ir formulando la estructura proposicional del
Traité. Como es el caso del ejemplo siguiente: (Sea) , pongamos x+h en lugar de x,
quedando , y restando la primera ecuación de la segunda
, dividiendo los dos miembros por h, se tiene , hasta aquí
la relación de variación de la función y de la variable es compuesta de dos partes. Una
depende del valor particular de la variación, y la otra es afecta por h. Si concebimos que esta
última cantidad disminuya, el resultado se aproximará sin cesar a 2ax y sólo le alcanzará
suponiendo h=0; de suerte que 2ax es el límite de la relación , es decir el valor hacia el
cual esta relación tiende a medida que la cantidad h disminuye, y a la que se puede
aproximar tanto como se quiera.
No obstante, aun cuando Lacroix sólo afirmaba que h, k son pequeñas, el orden en que
Barrow les estimó fue viéndoles como infinitamente pequeños. Barrow tomaba la hipotenusa
del triángulo que asumen estos valores como un arco infinitamente pequeño, que más tarde se
llamaría triángulo característico, y desarrolló el mismo trabajo que Lacroix para evanecer h y
k ; pero es obvio que en los cocientes que resultan del proceso, y por el contexto
infinitesimalista a que se sujeta, se encuentra implícita la derivada como pendiente de la recta
tangente, trabajo que no convence, en tanto desear ver el resultado como anterior a cualquier
hipótesis posterior al concepto de límite. Lacroix debió pensar en esta ambigüedad al
proponer el ejemplo de la caída libre de los cuerpos.
5.3.LA CAÍDA DE LOS CUERPOS GRAVES DE GALILEO
El argumento de Galileo, es decir que los cuerpos recorren espacios cada vez más grandes en
intervalos de tiempo iguales, en virtud de la gravedad que actúa sobre ellos, fue usada por
Lacroix para determinar el paso al límite. Designó por h la altura que recorre el cuerpo desde
el inicio de su movimiento hasta su caída. Representó por 1 (uno) el espacio recorrido en el
primer segundo, en el 2º 3, en el 3º 5 y así sucesivamente.
Estimó la gravedad como constante, llamó a ésta fuerza de impulsión designándole como ,
la cual fue tomada como unidad de tiempo. Consecuentemente el cuerpo recibiría m de tales
acciones donde los efectos, que se asumen los unos a los otros, le imprimirían al término de
ese tiempo una velocidad total p.
Luego, la velocidad que resulta de una sola acción es ; así, durante la fracción , el cuerpo
no recorrerá más que el espacio , (dado que ). Considerando los intervalos
consecutivos: , se tiene que para las acciones que ejerce la fuerza p al inicio de
cada intervalo: . Y para todos los espacios recorridos al final de los mismos
intervalos: .
De aquí que la suma de todos los espacios nos debe dar el espacio total recorrido por el
cuerpo, quedando
: . O sea: . O bien
: . Más, considerando que un número cualquiera de t segundos,
contiene un número mt de intervalos iguales a , y haciendo , a efecto de aplicar el
límite, quedará
: . Es decir: .
5.4.EL CONCEPTO DE LÍMITE
Con este resultado Lacroix reivindicó su idea. La aplicación del límite es de una naturaleza
distinta al problema de las tangentes; este involucra al infinito, y su solución da lugar para que
exponga, incluso, una primer noción o elemento del principio de transición o continuidad:
Vemos que entre más aumentamos m, las acciones de la fuerza se reaproximan, en tanto la
cantidad difiere de t, y que ella misma subsiste luego que se anula la fracción , esto
aniquila el intervalo supuesto entre dos acciones sucesivas de la fuerza. Este estado de cosas
es el límite hacia el cual tiende sin cesar la sucesión de movimiento considerada arriba; y por
consecuencia es la acción continua de la fuerza, el espacio recorrido es
El paso al límite aniquila el intervalo supuesto entre dos acciones sucesivas, las cuales,
haciéndose evanecer, dan por resultado que haya continuidad. De aquí que la existencia del
intervalo sólo haya sido única en su género, como una cantidad auxiliar, y haya servido de
puente para determinar Esta última expresión relaciona a h y k, es sólo así que se puede
llegar a ella, sugiriéndole, no por su relación, más por su límite.
La metafísica que precede, sugerida a partir de los ejemplos en la nota A indicada al final de
la obra, pareciera suficiente en lo que concierne a su filosofía del cálculo diferencial, tanto en
lo geométrico como en el movimiento de los cuerpos, a partir de que en ambos casos las
funciones correspondientes a las cantidades son susceptibles de límites y consecuentemente
sus puntos capaces de ser unidos por la ley de continuidad, para justificar en ese contexto la
escritura del Traité.
5.5.LOS PRINCIPIOS MATEMÁTICOS DE D. BENITO BAILS
Antes que Lacroix, el geómetra español B. Bails escribió entre 1772-76 sus Principios
matemáticos, sistema compilado de conocimientos científicos redactado en diez tomos que se
utilizaría para la enseñanza tanto en los colegios militares españoles, así como desde la
apertura del Seminario de Minería mexicano a principios de 1792. Compendiado en cuatro
tomos en 1790 los Principios contenían, para el tomo I aritmética y geometría, el tomo II
involucra álgebra, secciones cónicas, series, cálculo diferencial y cálculo integral; el tomo III
sitúa dinámica, estática, hidrodinámica, óptica, y astronomía; finalmente el tomo IV
principios de geografía, gnomónica, arquitectura, arquitectura civil, arquitectura hidráulica,
perspectiva y tablas de logaritmos. El objetivo de la escritura obedecía a la búsqueda de
generalizar los conocimientos planteándolos de manera concisa y tratando de abordar los más
posibles.
Por su evidencia, Bails concebía la matemática de su época como un gran axioma a priori,
previendo que éstas, dentro del mundo real, no tenían la necesidad de una justificación de sus
principios elementales (Cfr. Bails, 1790). En ese sentido, la síntesis asumida por Bails
manipula el espacio como una extensión finita, al estilo de Newton, desprendiéndole de los
límites que la ciñen y dejando a la contingencia la dimensión del espacio infinito: (...) sólo
por este medio podemos formar conceptos de una extensión, duración, &, infinita.
5.6.LA MANIPULACIÓN DEL INFINITO
La extensión infinita es un espacio geométrico que tiene por límites al infinito. Término
potencial al que podemos encaminarnos sin alcanzarle jamás. Puesto que a los matemáticos
de su época no les interesaba tanto verificar la existencia en la naturaleza de cantidades
infinitas que puedan existir: (...) esto no tiene que ver con el infinito matemático, el cual no es
más que el límite de lo finito, de cuyo límite no necesita el matemático suponer su existencia,
le basta que lo finito nunca llegue a alcanzarle.
La manera de probar esta proposición la dio Bails a partir de determinar la suma de una
sucesión infinita de términos, en la forma:
Dado que es una sucesión decreciente y continuada al infinito, su último término, o sea el
límite, será infinitamente pequeño y nulo: pues la última de estas muchas cantidades finitas
que todas van menguando, infinitas en número, ha de ser infinitamente menos que la primera,
o nula. La diferencia entre la primera de las cantidades y la última es nula, de manera que al
cabo de que sea menor que cualquier cantidad apreciable, las cantidades sean por último
iguales, versión de las primeras y últimas razones de Newton: Puesto que si no fueran
iguales, se podría señalar su diferencia ó su diferencia será una cantidad señalable, cuya
consecuencia repugna con el supuesto.
De aquí Bails desprendió las siguientes conclusiones involucrando en el contexto cantidades
diferenciales:
Si x es finita, es lo mismo que x+dx. Porque dx es la diferencia finita de x, cuya diferencia ha
menguado hasta ser menor que toda cantidad señalable.
Que siendo x infinita, y , cuando b va menguando hasta hacerse nulo. Veamos el argumento:
Sea , de modo que b exprese el cociente de a partido por b; claro está que cuando más
mengue b, tanto mayor será q, el grado máximo de decremento á que puede llegar b es o
(cero), luego es el límite de todos los incrementos de q.
La justificación es que, conforme b crece se va acercando al grado máximo de sus
incrementos, es decir llegaría al límite de sus aumentos, el cual nunca podrá alcanzar ya que
dejaría de ser una cantidad.
Lo que resta es establecer una proposición que de nombre o defina la unificación: Este límite
de los aumentos es lo que los matemáticos llaman el infinito, cuya expresión es , y el
signo con el que le señalan.
Dicho resultado , cuando x mengua, es pedestre en el sentido de su cercanía con la
forma de sintetizar el espacio. Curiosamente una cantidad que va decreciendo y tiene por
límite al cero, al llegar a éste deja de ser cantidad, en ese sentido nunca llega. Luego para
Bails, ni el infinito ni el cero son cantidades, son límites geográficos a los cuales las
cantidades se pueden acercar sin llegar a ellos.
Las justificaciones hacia la sintetización de Bails toman sentido por el consenso en que la
comunidad de matemáticos de mediados del siglo XVIII habían concebido las magnitudes
infinitas, es decir como el límite de lo finito. El propio D´Alembert en 1759, aseguraba que el
concepto de número infinito no existía: No es más que una idea abstracta, que sugiere
solamente un límite intelectual, al cual todo número finito no llega jamás (Cfr. D´Alembert,
1759, pp. 239 a 244).
De ello se resumía que el carácter metafísico que presentaba el límite infinito era, a los ojos
de la matemática, poco exacto. No obstante: debe verse como maneras abreviadas de
sugerirle, que los matemáticos han inventado para enunciar una verdad.
Ante esto, D´Alembert propuso su propia definición, la cual es aproximada y rectifica a la de
Bails: Decimos que una magnitud es el límite de otra magnitud, cuando la segunda puede
aproximarse de la primera tanto como una magnitud dada, por pequeña que esta pueda
suponerse, en tanto que la magnitud que se aproxima, pueda jamás sobre pasar la magnitud
a la que se aproxima, de modo que la diferencia de semejante cantidad y su límite sea
absolutamente indistinguible.
No obstante, si bien Bails justifica la sintetización a través del concepto de límite, el cual
frena a este último evitando la contingencia, no le presenta como una herramienta
metodológica que sirva para deducir las proposiciones del cálculo infinitesimal en el texto.
Bails supone la noción de límite como sujeta o intrínseca al último de los aumentos dx, sin
asumirle o siquiera mencionarlo en las demostraciones. Véase por ejemplo el caso de la
proposición 521 : Sea
;
pongamos x+dx en lugar de x, de lo que saldrá
; luego
, luego
. Pero
,
luego el término es infinitamente menor que 2xdx, luego puede ó debe desecharse,
luego finalmente .
6.1.LOS ELEMENTOS DE ANÁLISIS TRASCENDENTE DE F. DÍAZ
COVARRUBIAS
En el año de 1873, aparecieron en México Los elementos de análisis trascendente del
ingeniero mexicano Francisco Díaz Covarrubias, el texto fue preparado para su uso en la
segunda clase de matemáticas al iniciar funciones la Escuela Nacional Preparatoria en 1868.
En el texto, Díaz Covarrubias usa el término variable en lugar de cantidad y consideraba las
funciones en la misma categoría de las variables. Como en el caso de Lacroix, Díaz
Covarrubias no dudó al expresar el término cantidad por el de variable. Todavía en su época
las cantidades denotaban variables, en tanto eran vistas como aquello que aumenta o
disminuye. Para la enseñanza del Cálculo en la preparatoria, haría una reformulación de
carácter geométrico más accesible para los alumnos.
6.2.LOS CAMBIOS DE DIRECCIÓN
Aprovechando la coyuntura de la representación gráfica de las funciones, dada en la
definición de función, estableció un argumento geométrico y mecánico, perceptible
fácilmente para el lector debido al movimiento que se impone a un punto generador de la
propia trayectoria que dibuja la curva: Toda línea curva puede suponerse originada por el
movimiento de un punto que varía continuamente de dirección según cierta ley, que
dependerá de la naturaleza de la curva. El punto que la describe se llama generador de la
curva. De este modo de concebir la generación de estas líneas se infiere que si bien el cambio
de dirección del punto generador es necesariamente diverso de una curva a otra, todas ellas
tienen por propiedad común la variabilidad de esa dirección. (Díaz Covarrubias F, 1873, p.
17, art. 10)
Los cambios de dirección por los que pasa el punto generador sobre la curva, tienen sentido
en lo discreto y sobre una sucesión poligonal de líneas rectas, de lados muy pequeños, no
infinitesimales, que le configuran y que tienen por propiedad la variabilidad de sus diversas
direcciones. Empero, la concepción elemental de la variabilidad del generador sobre las líneas
rectas puede llevarse todavía más allá. En forma discreta, dice Díaz Covarrubias: Admitamos
(...) que al llegar el generador a determinado punto de su curso, cese la causa que hace
variar su dirección de acuerdo con la ley propia de la curva (...) sin que a pesar de esto se
paralice su movimiento. El generador seguirá moviéndose en la dirección que tenía en ese
punto de su trayecto, y describirá por tanto, la recta tangente a la curva en ese mismo punto.
Pasar de ese estado concreto de las líneas rectas en la construcción gráfica de la curva a su
estado continuo, es como pasar del estado constante al estado variable. Realizar esa transición
lleva a introducir en los cálculos ciertas cantidades auxiliares, con el fin de facilitar el
establecimiento de las ecuaciones entre los diversos elementos de una cuestión, con lo cual se
matematiza la concepción geométrica. ¿Más qué significa esto último?
Esta idea concibe la curvatura de la curva como la representación de la variabilidad de las
direcciones, y la recta tangente como la dirección del generador en el punto de contacto;
generaliza la sustitución de líneas rectas por líneas curvas; es sencilla, afirma el autor: por
introducir la noción de constancia en lugar de otra más compleja, cual es la variabilidad.
Empero, con ello es posible deducir esta última y pasar al estado continuo.
La justificación hacia la enseñanza es que la noción de constancia es fácilmente adoptada por
los jóvenes a diferencia de la complejidad de la variabilidad, puesto que: No hacemos más
que obedecer a una necesidad imperiosa del espíritu humano, nacida de la estrechez natural
de nuestra inteligencia. Este gran artificio (...) nos induce espontáneamente a estudiar las
direcciones curvilíneas, representantes de la idea de variabilidad, por medio de su
comparación con las rectilíneas, imágenes geométricas las mas naturales de las noción de
constancia”.
De aquí surgen otras preguntas ¿cómo se transita del estado constante al continuo? y ¿cómo se
incorporan estas ideas en el ambiente algebraico y algorítmico?
6.3.LA NOCIÓN DE CONSTANCIA
En un primer momento, el de las consideraciones puramente geométricas, Díaz Covarrubias
pretendía que los estudiantes preparatorianos se apropiaran del conocimiento a partir de
solamente nociones concretas, como la de constancia, de suerte que, en lo abstracto, ello les
de ideas generales para entender la variabilidad de los fenómenos, y en consecuencia el estado
continuo de éstos. Empero, la clave de los argumentos se centran en el entendimiento
algebraico de la noción de variabilidad.
Puesto que en lo concreto la curvatura es definida a través de la representación rectilínea de
los cambios de dirección del generador; en lo continuo, las variables son cantidades
susceptibles de adquirir ciertos valores. Una variación determinada de una cierta cantidad en
posición geométrica -a través de sus coordenadas- es definida como una diferencia entre dos
estados de magnitud de la misma cantidad. La sucesión de tales posiciones o cambios de
estado, suministran la forma de la curva al presuponerle continua. Pero tal continuidad, afirma
Díaz Covarrubias: No puede admitirse más que como una verdad subjetiva, e imposible de
realizarse objetivamente; pues por muy próximos entre sí que se supongan los valores
asignados a las variables x e y, nunca producirán más que una serie de puntos, tan
inmediatos unos a otros como se quiera, pero que jamás determinarán rigurosamente una
curva continua.
Además, la continuidad debe potenciarse a partir de la variabilidad de las funciones: (No)
enlazadas por valores proporcionalmente variables en lo abstracto, o por rectas en lo
concreto; (sino), las posiciones que estas determinan, se las debe suponer unidas por valores
o por líneas sujetos unos a otras a la ley de variabilidad de la función misma.
Lo rectilíneo, en este sentido, se asume a la variabilidad, así como ésta última a la
continuidad. La continuidad de las curvas se establece a partir de la contigüidad o vecindad de
dos estados geométricamente separados sin importar tanto la magnitud de la separación, y sí
la variación que ocurre en dicha separación a la cantidad.
Pasar al estudio de la variabilidad de su entendimiento geométrico a su concepción algebraica
o analítica, sólo es posible a partir de involucrar en ese estado magnitudes auxiliares que
lleven a su definición analítica.
6.4.LAS MAGNITUDES AUXILIARES
El argumento de cantidades auxiliares, planteado inicialmente como una necesidad por Díaz
Covarrubias, deviene al establecido por Comte en la Philosophia Mathématique (Cfr.
Camacho, A, 2000). Incorporó a los Elementos la proposición comtiana percibiéndole así: El
análisis llamado trascendente o infinitesimal tiene por objeto introducir en los cálculos
ciertas cantidades auxiliares, con el fin de facilitar el establecimiento de las ecuaciones entre
los diversos elementos de una cuestión, dando enseguida métodos para eliminar las
auxiliares, a fin de obtener las relaciones que se buscan entre las cantidades principales del
problema (Díaz Covarrubias, 1873, op, cit, p. 19).
La introducción de cantidades auxiliares en los cálculos algebraicos, como h en el caso de
Comte en las ecuaciones de la forma , hacen que surjan las propias
funciones derivadas propuestas por Lagrange en la serie:
Por ofrecer grandes dificultades en su aplicación (...) y presentar el análisis como una simple
extensión del álgebra, Díaz Covarrubias no recurrió -como Comte- a la utilidad o aplicación
de la notación de las derivadas, como , del cálculo de Lagrange. Asumió la serie y el
modelo lagrangiano vía el razonamiento geométrico de Fermat donde la recta secante tiende a
la tangente al hacer variar el punto donde la secante corta a la curva hasta la coincidencia o
punto común de ambas. Llegó a esta serie determinando la cotangente del ángulo en dirección
de la secante respecto del eje de las ordenadas y del triángulo rectángulo, no infinitesimal,
formado geométricamente por los cambios de estado y la secante:
cot. T= .
Despejando y haciendo expansión en serie de , obtuvo:
O bien, haciendo y volviendo al esquema original se tiene la diferencia entre los
estados de magnitud:
De esta última A, B. C, etc., fueron denominados al estilo de Leibniz, como ya mencionamos,
coeficientes diferenciales. Los coeficientes diferenciales de la serie forman parte en lo
analítico de la variabilidad del punto generador esquematizado en lo geométrico. Son nuevas
funciones de la variable x y adquieren diversos valores de un punto a otro de la curva:
Representan la ley según la cual varían las cotangentes trigonométricas de las direcciones en
que se va colocando el punto generador al describir el lugar geométrico primitivo (Ibid, p.
28, c. II).
6.5.LA SÍNTESIS DE DÍAZ COVARRUBIAS
A pesar de que los resultados variacionales en la serie son los mismos que en Lagrange, la
naturaleza del incremento h difiere en ambos. Para Lagrange y Comte, ésta es una cantidad
cuya naturaleza destacaba por carácter geométrico dado a la recta tangente: Es una recta tal
que entre ella y la curva no puede pasar otra en su punto común de contacto. Para Díaz
Covarrubias la declaración de h como magnitud auxiliar, constante, era indistinta de la
determinación de la variabilidad de la función ; genéricamente h podía tomar cualquier
acepción numérica y de todas formas pasar al estado continuo. Es esta su pretendida síntesis.
Por conveniencia, y sujetándose a la tendencia de la época, Díaz Covarrubias asumió la
notación leibniciana al despejar el valor de A en la serie, es decir
: .
En la que
,
lo cual no revierte importancia. Haciendo h=0 y definiendo A como , estableció:
.
En este contexto el cociente de diferenciales no envolvía en su modelo de cálculo idea alguna
de determinada magnitud, puesto que dy y dx, pueden ser tan grandes o tan pequeñas como se
quiera, con tal que guarden entre sí la relación:
.
De esta forma, la auxiliar A asume el valor del cociente de diferenciales para pasar al estado
continuo. Es decir, . Si ello es cierto, entonces la función ,
tendrá por cociente de diferenciales a . Lo cual es patente en su desarrollo algebraico:
,
Como resultado de la síntesis anterior estableció la proposición para encontrar la diferencial
de cualquier tipo de funciones: La diferencial de una función es igual a su coeficiente
diferencial, multiplicado por la diferencial de la variable.
Para deslindarse de Lagrange, analizó los coeficientes diferenciales -en el mejor de los casos
el primero de ellos- en lugar de las derivadas e incrementos de las funciones. En la parte
analítica del modelo de Díaz Covarrubias, la variabilidad de la función incrementada surge
independientemente de la constancia de la magnitud h. Para el autor es indistinto utilizar la
función tangente como análoga al coeficiente diferencial, en su lugar utilizó la cotangente. La
síntesis importante de su modelo se centra en la naturaleza de la auxiliar h, puesto que como
constante se contrapone a los modelos infinitesimalistas contemporáneos al suyo.
7.1.LA POSICIÓN DE G. BARREDA
En su Examen del Cálculo Infinitesimal, G. Barreda, creador de la Escuela Nacional
Preparatoria, sabio y filósofo, criticó profusamente las posturas filosóficas tomadas hacia el
modelo de cálculo lagrangiano por Comte y Díaz Covarrubias (Vid. Barreda, G, 1908). Su
punto de vista era que: El carácter excepcional dado por estos últimos al artificio lógico en la
introducción de las cantidades auxiliares, es hacer creer que es exclusivo del cálculo
diferencial. Lo cual resulta un grave inconveniente para toda pretendida fundamentación
filosófica de esta disciplina.
Desde su punto de vista las magnitudes auxiliares sólo desempeñan un papel transitorio. Su
esencia consiste en sustituir estos elementos en lugar del todo, con el objeto de inferir sus
propiedades: Sólo sirven para encontrar la ecuación que se busca, pero no deben formar
parte de ella (Ibid, p. 20).
A partir de estas reflexiones asumió una posición positivista hacia el sistema leibniciano del
que hizo una defensa a través de las ideas conceptuales imbuidas en las verdades necesarias
de la Logique de Stuart Mill (Cfr. Mill, J. S, 1866).
En el centro de estas ideas se coloca el siguiente párrafo del que Barreda se plegó para
discernir y reflexionar sobre los fundamentos del cálculo infinitesimal: El carácter asignado a
las verdades matemáticas, y particularmente la certeza que les atribuimos, se conserva
solamente suponiendo que esas verdades se relacionan con los objetos y sus propiedades,
aunque objetos puramente imaginarios. (Ibid, p. 255).
A partir de ello Barreda apuntaría: Si se quita a los teoremas ese carácter hipotético, si se
supone que ellos representan verdades absolutas y aplicables exactamente y sin restricción a
la práctica, entonces dichos teoremas, lejos de deber presentarse como el tipo de la verdad y
de la exactitud, no serían sino una colección de errores y de delirios (Barreda, op, cit, p. 31).
Para Barreda y Mill la precisión exacta entre los fenómenos físicos y su idealización no
existe, de aquí que sólo sea posible inferir hacia ellos a partir de las hipótesis de las que se
parte. Hipótesis -como es de suponer- alejadas de la certeza matemática, pero cercanas a la
realidad física: La geometría infinitesimal; no aspira a otra certeza más que a la inferencia;
ella no pretende que sus resultados hayan de tenerse como verdades absolutas, ni mucho
menos como la expresión fiel y exacta de los hechos reales; lo único que exige, es que esos
resultados a los que llega, sean tenidos como consecuencias legítimas de las premisas
hipotéticas de que parte (Ibid, p. 31).
El reducir la geometría trascendente a sólo operaciones algebraicas -como en Díaz
Covarrubias y Lagrange- resulta completamente falso. La inducción no puede ser evadida por
un sucedáneo de naturaleza absoluta; puesto que esta metodología juega aquí un papel
determinante y es que la inteligencia no tiene otro procedimiento para pasar de un medio
parcial a otro global. ¿De dónde?, se pregunta Barreda, ¿las cantidades de radicales
imaginarios? O ¿por qué inferimos expresiones no conocidas como a=0X¥, o 1=0X¥, etc.?
Expresiones absurdas como éstas son el resultado de una generalización hecha a través de
operaciones conocidas de los números reales. Leibniz, como Barreda, hacía ver que la
matemática se encontraba llena de tales enigmas, que surgen a través del análisis e impactan
en la síntesis. Es decir son el resultado de despreciar las cantidades infinitesimales en las
series y analizar el conjunto de lo que ello deja: (...) el único modo de salir de este resultado
de pura aproximación, progresiva pero indefinida, es elevarse, luego que la ley de la serie se
deja ver con toda claridad, por medio de una síntesis a la consideración de la totalidad de los
términos de la progresión (...)
7.2.LA SÍNTESIS DE BARREDA
La síntesis para esta generalización tiene que ver con una ley de causación general planteada
por Stuart Mill y pragmatizada por Barreda. La ley, llamada por Mill de las variaciones
concomitantes (Mill, op, cit, p. 442), se refería a la relación de dependencia entre la variación
de dos fenómenos; de suerte que a una variación, causa en el primero, ocurre un efecto o
causación en el segundo. Si se tiene un fenómeno A, el cual produce un evento a; se sigue que
para cada variación en las diferentes relaciones de A, siempre ocurre una variación en la
cantidad a.
Barreda hizo distinción de esta ley para determinar el valor al que tiende -disminuyendo
incesantemente- la función ; a medida que x, se va acercando a cero: Si suponemos: , de
manera que x vaya disminuyendo incesantemente, irá creciendo en proporción a medida
que x, se vaya acercando a 0. De esta constante relación entre la disminución de x y el
aumento de , inferimos por inducción de variaciones concomitantes, que si x llegara a
igualarse con 0, o si tocase su límite, como se dice, sería=¥ (Barreda, op, cit, p. 54).
Tal es la unificación, expuesta en forma de definición, que Barreda propuso para justificar el
cálculo de Leibniz a partir de la ley de las variaciones concomitantes. Su argumento final
tenía que ver con aquellas proporciones que al diferir en una cantidad infinitesimal entre ellas,
se aproximan simultáneamente a sus límites: dos magnitudes, cuya diferencia puede
disminuirse hasta ser menor que cualquier cantidad dada, son rigurosamente iguales.
Esta concepción -congénita con la definición newtoniana del método llamado de las primeras
y últimas razones- es un modelo en el que la aproximación, en tanto la ley de variaciones
concomitantes, vía la inducción, persuade al calculista para llegar al límite.
El convencimiento inmediato en el investigador depende de sus concepciones hacia el
fenómeno, y a la certeza de las verdades matemáticas involucradas inicialmente al análisis.
De aquí la inferencia hacia el límite.
En resumen, Barreda tomó para sí una postura en extremo empirista y encuadrada en la citada
obra de Mill. Sus resultados, y propuesta de fundamentación del cálculo infinitesimal
leibniciano, cobran sentido por el método de la inducción y deducción a través del germen
variacional contenido en la naturaleza de los fenómenos físicos que con el modelo de las
variaciones concomitantes de Mill pueden ser analizados; en la extrema importancia dada a la
inducción, en tanto método científico -o positivo- que parte de la observación y
experimentación y que permite racionalmente al espíritu llegar al conocimiento de la verdad;
en el abandono oportuno del análisis para pasar a la inferencia y a la consideración, tanto en
lo concreto y abstracto, de que dos magnitudes cuya diferencia puede disminuirse hasta ser
cualquier cantidad dada, son rigurosamente iguales.
Pero el modelo de Cálculo de Barreda es riguroso por los argumentos que incorpora y no es
fácilmente asequible a la enseñanza preparatoria de su época.
7.3.EL DEBATE DÍAZ COVARRUBIAS-BARREDA
Semejante a la concepción actual, la propuesta infinitesimalista de Barreda sólo se acepta en
la práctica al entenderse como un modelo de aproximación hacia la cantidad que la función
tiene por límite: Las justificaciones de este género, asegura Díaz Covarrubias, tienden a dar
al análisis el carácter de un método de pura aproximación, y las que están fundadas en la
noción de infinito lo cubren casi con un manto sobrenatural (...)” (1).
Para reafirmar la fortaleza del carácter de las magnitudes auxiliares en su modelo, y
respondiendo a Barreda, Díaz Covarrubias planteó un par de ejemplos sencillos que
involucran cantidades físicas y en los que el objetivo es precisar en la auxiliar, pues tiene que
ver con las magnitudes involucradas cuando se viaja en ferrocarril, en tanto que el segundo
adolece de esquema geométrico alguno, es el caso de los réditos que produce un capital a un
interés r por ciento en un tiempo dado.
En el primer problema dice: Supongamos que su velocidad -del ferrocarril- es de 50 Km. -por
hora-, nadie entiende qué se quiso afirmar que después de transcurrida la hora la locomotiva
habrá conducido a los viajeros precisamente esa distancia (...) lo que todos comprenden es
que si las condiciones de la máquina, las de la vía y cuando se tienda a modificar la
velocidad, se hicieran constantes, desde el momento de su apreciación, se recorrería aquella
distancia al cabo de una hora.
Las diversas posiciones que asume la velocidad del ferrocarril dependen, desde luego, de los
tiempos respectivos en que la locomotora acelera, se hace constante y desacelera.
De esta manera, la ubicación total de la velocidad no puede representarse a partir de una sola
posición de la curva: La forma de esta curva, cuya ecuación es , será próximamente
la que indica la figura (...) pequeña aunque creciente en las inmediaciones del origen del
tiempo, y decreciente en su fin B, cuando se haya recorrido el espacio BC comprendido entre
las dos estaciones.
Desde el momento en que el tren adquiere su velocidad
habitual, hasta el (momento) en que comienza a
disminuirla para detenerse en la segunda estación, la
curva ofrecerá a una parte FG casi rectilínea”. (Díaz
Covarrubias, op, cit, p. 79)
El intento de Díaz Covarrubias es hacer patente el artificio espontáneo con que nuestra
cognición recurre a la noción de constancia para apreciar en un punto dado la variación de un
fenómeno. Este recurso le supone innato en el ser humano a partir de considerarnos capaces
de reducir los fenómenos a eventos más sencillos o discretos para su estudio. En el caso del
ejemplo, a pesar de que se supone la velocidad del ferrocarril como una constante, las
singularidades que le llevan a tal estado dejan ver que su variabiliadad sólo puede ser
concebida a partir de ellas. Estos detalles finos de los fenómenos físicos no pueden ser
apreciados por una formulación general de los mismos.
En el segundo ejemplo, consideró que el rédito producido en n unidades de tiempo está dado
por la expresión: cuya variabilidad es supuestamente continua a partir de los
atributos del fenómeno. En este caso, la noción de constancia es presente para cualquier valor
determinado en n. Para obtener la variación de la razón del rédito con respecto al tiempo
bastará, con su método, sustituir en R, n+h unidades en lugar de n, determinar la ecuación que
contiene las variaciones, hacer la diferencia de estados de ambos réditos para las h unidades
de tiempo y elegir la primera auxiliar. Es decir, considerando que la ecuación de variaciones
es: . Y la diferencia de estados de los réditos:
. Elegimos de esta última la auxiliar o primer coeficiente diferencial
que es el que nos interesa. Luego:
.
Relación que indica el aumento del capital y por consiguiente el del rédito durante un
determinado número de unidades. Esta nueva función es en realidad un producto, en el
sentido del aumento de capital que se genera, de modo que le podemos denotar como:
:
Vemos que por este razonamiento, independiente de toda consideración geométrica, hemos
llegado al mismo resultado que si hubiéramos diferenciado a R con relación a n en la
ecuación primitiva; pero la supresión del término ah no se ha hecho porque se considere h
infinitamente pequeño, ni tampoco porque el valor restante
se suponga el límite de la razón entre el producto y el tiempo, o porque sea la derivada de la
función primitiva; sino simplemente porque su conservación en el resultado desnaturalizaría
el objeto de la cuestión, que es el de calcular el producto del capital con respecto del tiempo
en un momento dado, o de manera más general, el de medir en determinado instante la
variabilidad de un fenómeno (Ibid, p. 71)
Al definir la función producto como:
se hace innecesario el cociente de diferenciales . La forma o propiedades que este
producto hereda de la función primitiva no varían porque la magnitud h le quede asociado -
nos referimos a la desnaturalización que menciona Díaz Covarrubias. En la práctica, ello es
posible si se consideran para su análisis separadamente cada uno de los sumandos o
coeficientes que integran la serie:
.
Viéndose la auxiliar C(2an+c) como una clara proporción entre los elementos del problema y
prescindiendo, en caso necesario, de aquellos de cualquier grado en h, no para envanecerles o
aplicarles un límite, sino por su inutilidad práctica dentro del problema real o físico.
Tomar del esquema variacional de la serie el o los coeficientes diferenciales cuyo análisis nos
lleve a la solución del problema real sin considerar h.
7.4.ALGUNOS RESULTADOS
Con su curso de cálculo para la preparatoria, Díaz Covarrubias fundó claramente una
tradición que señala la existencia de métodos y estilos para la matematización de los
fenómenos físicos y de la elementarización de conocimientos que repercutiría en los diseños
de otras obras que alternativamente se escribirían para la enseñanza de este nivel. Este modelo
adquiere importancia por su incorporación como parte de la enseñanza de la ingeniería y toma
un sentido diferente respecto de los modelos infinitesimalistas contemporáneos que se
dedicaron a la enseñanza de la matemática.
El entendimiento del concepto de variación es fundado sobre consideraciones geométricas
elementales. La geometría es la parte de la matemática que en principio matematiza la
extensión de los fenómenos físicos en movimiento a partir de nociones generales constantes
como son volúmenes, áreas, ángulos, distancias y puntos: Mi manera de concebir y plantear
los principios del análisis trascendente (...) no es más que la expresión de un artificio
racional y espontáneo a que recurre nuestra inteligencia siempre que intentamos valorizar,
en determinado punto de su producción, un fenómeno variable (Díaz Covarrubias, op, cit, p.
73)
Por otra parte, la crítica de Barreda hacia la propuesta de Díaz Covarrubias, fue la de mostrar
con el método positivo la falta de precisión matemática en la definición de las reglas del
Cálculo establecidas por el segundo. El intento de Barreda fue un síntoma con el que se buscó
una posición de rigor matemático a partir de su intento por sintetizar el infinito, dispuesta para
defender y reconstruir el cálculo leibniciano, para así garantizar su fundamentación.
Juicios opuestos, el de Díaz Covarrubias y Barreda, entre la sencillez del primero y el rigor
impuesto por el segundo, tenían como finalidad común no sólo la preocupación de la
sintetización de sus respectivos discursos sino, también, la previsión del aprendizaje de los
conceptos del cálculo por parte de sus alumnos. Empero, la distancia conceptual que separa
ambos acercamientos deja ver el inicio de los problemas epistemológicos que hoy nos
preocupan en la enseñanza de ésta disciplina.
8.1.EN RESUMEN
Ir a los elementos del conocimiento a partir de unificar o sintetizar, consistía en enlazar el
conocimiento anterior con el pensamiento que resultaba de geometrizar el espacio. En la
práctica procedimental al geómetra le bastaba con unas cuantas observaciones, relativamente
sencillas, como el movimiento de los astros, para sentar las bases empíricas suficientes para la
elaboración de reglas, definiciones y hasta teorías.
En sentido contrario a la rectificación de la proto-ciencia de Rashed, donde la ciencia actual
debe marcar su orden o principio, la síntesis del espacio formula el pensamiento resultante
como un sistema estructurado de obras textuales, cuya unidad proposicional rebasa al
conjunto. Epistemológicamente las rupturas y discontinuidades son mínimas, el pensamiento
antiguo tiene por plataforma el pensamiento del geómetra, el cual sirve de puente a la
continuidad del conocimiento nuevo.
En resumen, la trascendencia de los resultados anteriores tanto en Lacroix, Bails, Díaz
Covarrubias, etc., constituyeron sistemas sintéticos integrados en corpus de conocimiento que
matematizaban toda la ciencia de las épocas referidas. En este sentido, un sistema sintético
hace referencia a un conjunto ordenado y coherente de conocimientos constituido en un
corpus textual, en el cual los conocimientos y el sistema son integrados a partir de un primer
axioma o principio que les organiza y, como vimos, les es común; además, el conocimiento y
el sistema debían pretender ser objetivos y corresponder a la realidad de su objeto, es decir la
verdad.
Luego, el trabajo previo al diseño de un sistema textual refiere a una lógica trascendental que
se dividía en dos partes: 1º La enfocada a los problemas concernientes a la unificación de
conocimientos a través de establecer la verdad de la primera proposición, y 2º Aquella
avocada a la sistematización de los conocimientos en la obra a partir de la primera
proposición en la forma de: definiciones, problemas, corolarios, postulados, lemas, escolios,
casos, pruebas, hipótesis, tesis, etc.
La aplicación de tecnologías de la información y las comunicaciones (TIC) como ayuda al
desarrollo de procesos de enseñanza/aprendizaje es un lugar común que suele contemplarse
desde dos puntos de vista complementarios. Desde la pedagogía y el diseño instruccional se
han considerado a las TIC como un mero apoyo al propósito fundamental, que es la
realización de descripciones pedagógicas rigurosas y, a la par, flexibles, de los procesos de
enseñanza/aprendizaje.
Bien es verdad que, para poder unir pedagogía y tecnología, ha de encontrarse un nexo
común, un punto de compartición entre ambos campos. Para que tal fusión tenga éxito, los
practicantes de cada campo deben hacer las concesiones oportunas a los del otro lado, sin por
ello perder su identidad ni los objetivos fundamentales de cada disciplina. Además, cada
campo debe aportar a la unión aquello que se considere su punto fuerte. De un lado, los
tecnólogos no deben perder de vista que el objetivo fundamental de cualquier sistema de
Enseñanza/Aprendizaje (E/A) asistido por las tecnologías es tan elemental como complicado
de implementar: facilitar el aprendizaje de los usuarios. Por lo tanto, la tecnología debe
adaptarse a todas aquellas circunstancias donde, la aplicación de la sola tecnología, sin tener
en cuenta consideración pedagógica alguna, podría dejar de contribuir al aprendizaje de los
usuarios. De otro lado, los pedagogos deben ser conscientes de las posibilidades de la
tecnología, de la exigencia de rigurosidad que conlleva, y del carácter metódico de las
acciones que las tecnologías facilitan. Estos principios serán los que nos conduzcan a evaluar
finalmente las tecnologías estudiadas como proveedoras de la asistencia que los procesos
pedagógicos requieren. También servirán para medir hasta qué punto un proceso pegagógico
está preparado y suficientemente descrito como para poder aplicarle tecnología alguna.
Las TIC pueden aplicarse no sólo en la educación, sino en cualquier campo de la sociedad de
la información. En cualquier caso, éstas pueden clasificarse en tecnologías informáticas y
tecnologías de comunicaciones. Las tecnologías de comunicaciones incluyen todas aquellas
(v.g. protocolos básicos de transferencia de la familia TCP/IP como HTTP y SMTP;
comunicaciones seguras sobre TLS o similar; etc.) sobre las que se fundamentan una serie de
servicios telemáticos de más alto nivel. Nos centramos aquí en las tecnologías informáticas,
aunque muchas tienen una gran componente telemática y pueden llegar a contemplarse dentro
del terreno de la ingeniería telemática (v.g. los servicios web), a medio camino entre la
informática y las telecomunicaciones. No es nuestro propósito discutir en qué terreno pisa
más fuerte cada tecnología, sino hacer una revisión de todas aquéllas que aporten algo al
desarrollo de procesos de E/A asistidos por la tecnología.
8.2.ESTADO DE LA CUESTIÓN: EVALUACIÓN DE OBJETOS Y
DISEÑOS PARA EL APRENDIZAJE
La evolución de la Web hacia la semántica constituye un nuevo paradigma para la gestión del
conocimiento en e-learning. La aparición del concepto de objeto de aprendizaje OA permite
considerar los recursos educativos como unidades independientes que puedan ser reutilizadas
en distintas situaciones de aprendizaje. Gracias a los estándares educativos esas unidades
pueden ser empleadas en distintas plataformas sin problemas de interoperabilidad. Sin
embargo, la posibilidad de tener acceso a información de interés no significa que su contenido
sea de calidad.
Los contenidos educativos son un elemento primordial en cualquier sistema educativo, sin
embargo para un sistema e-learning constituye uno de los principales apoyos para la
adquisición de nuevos conocimientos, por tanto es importante que este tipo de entornos
disponga de sistemas para gestionar el conocimiento que garanticen la existencia de un
repositorio de contenidos de calidad para los usuarios.
La mayoría de los esfuerzos por estandarizar los OA se han enfocado en estructurar los datos
para su creación, empaquetamiento, identificación, organización con sentido pedagógico, etc.
Sin embargo no existe un patrón que ayude a determinar la calidad del contenido de estos
objetos. Actualmente los esfuerzos en este ámbito se centran en la definición de medidas de
valoración de carácter implícito a través de instrumentos y estrategias de trabajo colaborativo
como también medidas de carácter explícito a través de las acciones que realizan los usuarios
sobre los recursos tanto en su búsqueda como en la navegación. Sobre esta base, en este
capítulo se pretende dar a conocer las actuales investigaciones sobre el tema tanto de carácter
implícito como explícito.
Para comenzar, la sección 2 introduce el concepto de OA y repositorios de almacenamiento,
luego presenta y compara tres repositorios de OA que aparte de una herramienta de
evaluación han aplicado la metodología de revisión por iguales (peer review) para aumentar la
confiabilidad en las valoraciones. En la sección 3 se presentan dos instrumentos de evaluación
de objetos, el primero de ellos se ha utilizado en algunas experiencias para evaluar el
contenido de OA a través de criterios de valoración explícitos, el segundo forma parte de una
investigación en desarrollo.
Para complementar esta valoración la sección 4 destaca la importancia de una estrategia
colaborativa para evaluar OA, representada a través de un modelo de participación
convergente. Para garantizar la calidad de los contenidos se analiza una propuesta que
promueve un sistema de gestión que evalúe los contenidos constantemente. En la sección 5 se
analiza una visión para evaluar OA que potencia la colaboración ejemplificado con eLera, un
modelo para soportar comunidades en sistemas e-learning que potencia la participación,
colaboración y flujo de información entre los participantes, por otra parte, se presenta una
propuesta que enfatiza la importancia de la participación de los usuarios en la evaluación a
través de un sistema de recomendación.
A modo de ejemplo la sección 6 se destaca dos experiencias en la evaluación de OA. Para
finalizar, la sección 7 presenta las conclusiones del capítulo y direcciones Web de interés.
9.1.DIFERENCIACIÓN Y DIFERENCIABILIDAD
La Diferenciación puede ser usada para determinar el cambio que se produce como resultado de otro cambio, si está determinada una relación matemática entre dos objetos.
Una función es diferenciable en un punto si su derivada existe en ese punto; una función es
diferenciable en un intervalo si lo es en cada punto perteneciente al intervalo. Si una función no
es continua en c, entonces no puede ser diferenciable en c; sin embargo, aunque una función sea
continua en c, puede no ser diferenciable. Es decir, toda función diferenciable en un punto C es
continua en C, pero no toda función continua en C es diferenciable en C (como f(x) = |x| es
continua pero no diferenciable en x = 0).
9.2. DEFINICIÓN DE DERIVADA
Las derivadas se definen tomando el límite de la pendiente de las rectas secantes conforme se van aproximando a la recta tangente.
Es difícil hallar directamente la pendiente de la recta tangente de una función porque sólo
conocemos un punto de ésta, el punto donde ha de ser tangente a la función. Por ello,
aproximaremos la recta tangente por rectas secantes. Cuando tomemos el límite de las pendientes
de las secantes próximas, obtendremos la pendiente de la recta tangente.
Para obtener estas pendientes, tomemos un número arbitrariamente pequeño que llamaremos h. h
representa una pequeña variación en x, y puede ser tanto positivo como negativo. La pendiente de la recta entre los puntos
y es
Esta expresión es un Cociente Diferencial de Newton. La derivada de f en x es el límite del valor del cociente diferencial conforme las líneas secantes se acercan más a la tangente:
Si la derivada de f existe en cada punto x, podemos definir la derivada de f como la función cuyo
valor en el punto x es la derivada de f en x.
Puesto que la inmediata sustitución de h por 0 da como resultado una división por cero, calcular la
derivada directamente puede ser poco intuitivo. Una técnica es simplificar el numerador de modo
que la h del denominador pueda ser cancelada. Esto resulta muy sencillo con funciones
polinómicas, pero para la mayoría de las funciones resulta demasiado complicado.
Afortunadamente, hay reglas generales que facilitan la diferenciación de la mayoría de las
funciones descritas; ver abajo.
Algunos ejemplos de cómo utilizar este cociente:
Ejemplo 1
Consideremos la siguiente función:
Entonces:
Esta función es constante, para cualquier punto de su dominio vale 5 (por eso f(x+h)=5). Nótese el
último paso, donde h tiende a cero pero nunca lo alcanza. Si pensamos un poco, observaremos que
la derivada además de ser la pendiente de la recta tangente a la curva, es a la vez, la recta secante a la misma curva.
Ejemplo 2
Consideremos la gráfica de . Esta recta tiene una pendiente igual a 2.0 en cada
punto. Utilizando el cociente mostrado arriba (junto a los conceptos de límite, secante, y tangente)
podremos determinar las pendientes en los puntos 4 y 5:
Entonces:
Y vemos que se cumple para cualquier número n:
Por tanto, se deduce que el valor de la función derivada de una recta es igual a la pendiente de la
misma.
Ejemplo 3
Mediante esta diferenciación, se puede calcular la pendiente de una curva. Consideremos que:
Entonces:
Para cualquier punto x, la pendiente de la función es .
El Cociente Diferencial Alternativo
La derivada de f(x) (tal como la definió Newton) se describió como el límite, conforme h se
aproxima a cero. Una explicación alternativa de la derivada puede ser interpretada a partir del
cociente de Newton. Si se utiliza la fórmula anterior, la derivada en c es igual al límite conforme h
se aproxima a cero de [f(c + h) - f(c)] / h. Si se deja que h = x - c (por ende c + h = x), entonces x
se aproxima a c (conforme h tiende a cero). Así, la derivada es igual al límite conforme x se
aproxima a c, de [f(x) - f(c)] / (x - c). Esta definición se utiliza para una demostración parcial de la regla de la cadena.
9.3.NOTACIONES PARA LA DIFERENCIACIÓN
La derivada de una función puede a su vez ser diferenciable, hablándose entonces de segunda
derivada de la función como la derivada de la derivada de ésta. Análogamente, la derivada de la segunda derivada recibe el nombre de tercera derivada, y así sucesivamente.
A partir de la segunda derivada : hasta la enésima derivada : reciben el nombre de Derivada de Orden Superior.
La notación más simple para la diferenciación que se utiliza en la actualidad se debe a Lagrange y
utiliza un apóstrofo o comilla: ′. De esta manera se expresan las derivadas de la función en
el punto , se escribe:
para la primera derivada,
para la segunda derivada,
para la tercera derivada, y luego de forma general,
para la n-ésima derivada (donde normalmente se da que n > 3).
Para la función cuyo valor en cada es la derivada de , se escribe . De forma similar,
para la segunda derivada de se escribe , y así sucesivamente.
La otra notación común para la diferenciación se debe a Leibniz. Para la función cuyo valor en
es la derivada de en , se escribe:
Se puede escribir la derivada de f en el punto a de dos formas distintas:
Si la resultante de f(x) es otra variable, por ejemplo, si y=f(x), se puede escribir la derivada como:
Las derivadas de orden superior se expresan así
o
para la n-ésima derivada de f(x) o y respectivamente. Históricamente, esto proviene del hecho de que, por ejemplo, la tercera derivada es:
que se puede escribir sin mucho rigor como:
Eliminando las llaves nos da la notación que está arriba.
La notación de Leibniz es tan versátil que permite especificar la variable que se utilizará para la
diferenciación (en el denominador). Esto es específicamente relevante para la diferenciación
parcial. Y también hace más fácil de recordar la regla de la cadena, debido a que los términos "d" se cancelan simbólicamente:
.
Sin embargo, es importante recordar que los términos "d" no se pueden cancelar literalmente,
debido a que son un operador diferencial. Sólo se utilizan cuando se usan en conjunto para expresar una derivada.
La notación de Newton para la diferenciación consiste en poner un punto sobre el nombre de la función:
y así sucesivamente.
La notación de Newton se utiliza principalmente en la mecánica, normalmente para las derivadas
con respecto al tiempo tales como la velocidad y la aceleración y en la teoría de ecuaciones diferenciales ordinarias. Normalmente sólo se utilizan para la primera y segunda derivadas.
Otra notación consiste en colocar una letra 'D' mayúscula para indicar la operación de diferenciación con un subíndice que indica la variable sobre la que se derivará:
,
que es equivalente a la expresión:
En ese contexto se considera a la diferenciación como una operación sobre funciones, de modo
que los símbolos y son llamados operadores diferenciales.
9.4.APLICACIONES IMPORTANTES DEL CÁLCULO DIFERENCIAL
Recta tangente a una función en un punto
La recta tangente a una función f(nafia) es como se ha visto el límite de las rectas secantes cuando
uno de los puntos de corte de la secante con la función se hace tender hacia el otro punto de corte.
También puede definirse a la recta tangente como la mejor aproximación lineal a la función en su
punto de tangencia, esto es, la recta tangente es la función polinómica de primer grado que mejor
aproxima a la función localmente en el punto de tangencia que consideremos.
Si conocemos la ecuación de la recta tangente ta(x) a la función f(x) en el punto "a" podemos
tomar ta(x) como una aproximación razonablemente buena de f(x) en las proximidades del punto
"a". Esto quiere decir que si tomamos un punto "a + h" y lo evaluamos tanto en la función como
en la recta tangente, la diferencia será despreciable frente a "h" en valor
absoluto si "h" tiende a cero. Cuanto más cerca estemos del punto "a" tanto más precisa será nuestra aproximación de f(x).
Para una función f(x) derivable localmente en el punto "a", la recta tangente a f(x) por el punto "a" es:
ta(x)= f(a) + f '(a)(x-a)
9.5.USO DE LAS DERIVADAS PARA REALIZAR GRÁFICOS DE
FUNCIONES
Las derivadas son una útil herramienta para examinar las gráficas de funciones. En particular, los
puntos en el interior de un dominio de una función de valores reales que llevan a dicha función a
un extremo local tendrán una primera derivada de cero. Sin embargo, no todos los puntos críticos
son extremos locales. Por ejemplo, f(x)=x³ tiene un punto crítico en x=0, pero en ese punto no hay
un máximo ni un mínimo. La prueba de la primera derivada y la prueba de la segunda derivada
permiten determinar si los puntos críticos son máximos, mínimos o ninguno.
En el caso de dominios multidimensionales, la función tendrá una derivada parcial de cero con
respecto a cada dimensión en un extremo local. En este caso, la prueba de la segunda derivada se
puede seguir utilizando para caracterizar a los puntos críticos, considerando el eigenvalor de la
matriz Hessiana de las segundas derivadas parciales de la función en el punto crítico. Si todos los
eigenvalores son positivos, entonces el punto es un mínimo local; si todos son negativos es un
máximo local. Si hay algunos eigenvalores positivos y algunos negativos, entonces el punto
crítico es un punto silla, y si no se cumple ninguno de estos casos, la prueba es no concluyente (e.g., los engeivalores son 0 y 3).
Una vez que se encuentran los extremos locales, es mucho más fácil hacerse de una burda idea de
la gráfica general de la función, ya que (en el caso del dominio mono dimensional) se
incrementará o decrementará uniformemente excepto en los puntos críticos, y por ello
(suponiendo su continuidad) tendrá valores intermedios entre los valores en los puntos críticos de
cada lado.
9.6.APROXIMACIÓN LOCAL DE TAYLOR
Hemos visto que podemos aproximar mediante su recta tangente a una función derivable
localmente en un punto. Si se cumple que la función es suficientemente suave en el punto o
dominio de estudio (esto es, la función es de clase ) cabe la posibilidad de intentar aproximar
a la función no por polinomios de grado uno, sino por polinomios de grado dos, tres, cuatro y
sucesivamente. Esta aproximación recibe el nombre de "desarrollo polinómico de Taylor" y se define de la siguiente manera:
Donde P(x) es el polinomio de grado n que mejor aproxima a la función en el punto x=a. Nótese
que si evaluamos P(x) en x=a todos los términos salvo el f(a) se anulan, luego P(a) = f(a). Nótese
también que la ecuación de la recta tangente del apartado anterior corresponde al caso en el que n=1.
El polinomio de Taylor es un polinomio "osculador". De entre todos los polinomios de orden no
mayor que "n" y que pasan por f(a) el desarrollo polinómico de Taylor de f(x) en x=a es el que
posee el contacto de mayor orden con f(x)en "a". Se basa en la idea de que si dos funciones
comparten en x=a el mismo valor, la misma primera derivada, la misma segunda derivada etc, la
misma i-ésima derivada, (lo que brevemente se expresa diciendo que las dos funciones tienen un
contacto de orden "i") entonces dichas funciones serán muy parecidas cerca de x=a, queriendo
decir por parecidas que podemos aproximar a una de las dos por la otra cometiendo un error despreciable.
Cuando a=0 el desarrollo se denomina "desarrollo de MacLaurin". En la práctica la mayoría de las
veces se emplean desarrollos de MacLaurin. Ejemplos de desarrollos importantes de MacLaurin son:
Nótese el símbolo que denota aproximación que no igualdad. Si la función a aproximar es
infinitamente derivable y agregamos infinitos términos al desarrollo entonces el se convierte en
un .
Este último paso de agregar infinitos términos no se puede tomar a la ligera. Hemos dicho que la
aproximación de grado uno, dos, tres etc es una aproximación local en el punto en que se evalúa la
función, esto es, si nos alejamos mucho del punto la aproximación dejará de ser precisa. Cuantos
más términos agreguemos al desarrollo en serie de Taylor tanto más precisa será nuestra
aproximación si estamos en un entorno del punto. Podríamos pensar pues que al añadir infinitos
términos podemos evaluar la función aproximada en cualquier punto de su dominio de definición
con precisión absoluta. Esto no siempre es cierto, pues dependerá del carácter de la serie de Taylor en el punto en que la evaluamos.
El estudio del carácter de una serie es un problema frecuentemente complejo. Se trata de definir
los valores para los cuales la serie es convergente, esto es, determinar el radio de convergencia de
la misma. Dentro del intervalo de convergencia de la serie sí que podemos tomar infinitos
términos y admitir que la serie nos da el valor "exacto" de la función en el punto. Sin embargo,
fuera del intervalo de convergencia la serie no proporcionará el valor exacto de la función aunque agreguemos infinitos términos.
Los desarrollos en serie de Taylor presentan grandes ventajas a la hora de operar funciones cuyas
ecuaciones involucran expresiones complicadas tales como funciones trascendentes (senos,
logaritmos, etc). Sin embargo también presentan ciertos inconvenientes. Un inconveniente
importante es que el número de términos necesarios para aproximar con precisión razonable a la
función en un punto alejado del evaluado (pero siempre dentro del intervalo de convergencia de la
serie) se dispara al infinito. Otro inconveniente es que la expresión polinómica de la función
puede hacer difícil detectar sus propiedades elementales, por ejemplo, no es obvio deducir del desarrollo del seno que se trata de una función periódica.
Conociendo el desarrollo en serie de una función f(x) en x=a es inmediato obtener sus derivadas
sucesivas etc . Según se desprende de la definición, sin más que
multiplicar el i-ésimo coeficiente (correspondiente al término de grado i) por obtenemos la
derivada i-ésima en el punto "a" de la función. Asimismo calcular una integral definida sobre un
intervalo perteneciente a un entorno del punto "a" es también inmediato, pues la función primitiva
se obtiene fácilmente integrando cada término del desarrollo. Si bien cabe señalar que dicha
integral no será exacta, sino aproximada, y será tanto más precisa cuanto más pequeño sea el intervalo de integración y cuanto más centrado esté dicho intervalo en el punto x=a.
Los desarrollos en serie son una potente herramienta en el cálculo de límites. Un límite
aparentemente complejo puede convertirse en trivial sin más que sustituir cada función por su desarrollo en serie y realizar las operaciones correspondientes de simplificación.
9.7.PUNTOS SINGULARES
Se denominan puntos singulares ó estacionarios a los valores de la variable en los que se anula la
derivada f'(x) de una función f(x), es decir, si f ´(x)=0 en x1, x2, x3, . . . , xn, entonces x1, x2, x3, .
. . , xn son puntos singulares de f(x). Los valores f(x1), f(x2), f(x3), . . . , f(xn), se llaman valores singulares.
9.8.PUNTOS CRÍTICOS
Por punto crítico se entiende: un punto singular, un punto donde no exista la derivada o un punto extremo a o b del dominio [a,b] de definición de la función.
Si la segunda derivada es positiva en un punto crítico, se dice que el punto es un mínimo local; si
es negativa, se dice que el punto es un máximo local; si vale cero, puede ser tanto un mínimo,
como un máximo o un punto de inflexión. Derivar y resolver en los puntos críticos es a menudo
una forma simple de encontrar máximos y mínimos locales, que pueden ser empleados en optimización. Aunque nunca hay que despreciar los extremos en dichos problemas
9.9.TEOREMAS PARA EL CÁLCULO DE LA DERIVADA
La definición de la derivada en términos de límites se emplea para demostrar las reglas de
diferenciación. Dichas reglas sirven para calcular la derivada de una función a través de una
manipulación algebraica en vez de recurrir a la aplicación directa del cociente diferencial de Newton.
Regla de la constante: La derivada de cualquier constante es cero.
Regla de la multiplicación por una constante:
Si c es cualquier número real, entonces la derivada de es igual a c multiplicado por la
derivada de f(x). Esto es una consecuencia de la linealidad, que se verá más adelante.
Linealidad:
para todas las funciones f y g y todos los números reales a y b.
Regla general de la potencia (Regla del polinomio):
Si , para todo r real,
entonces
Regla del producto:
para todas las funciones f y g.
Regla del cociente:
si g es diferente de cero.
regla de la cadena:
Si ,
entonces .
Funciones inversas y diferenciación:
Si ,
entonces ,
y si y su inversa son diferenciables,
entonces para los casos en que y cuando ,
Derivada de una variable con respecto a otra cuando ambas son funciones de una tercera variable:
Sea y .
entonces
Diferenciación implícita:
Si es una función implícita,
se tiene que:
De forma adicional, es útil conocer las derivadas de algunas funciones comunes. (Vea la tabla de
derivadas).
Como ejemplo, la derivada de
es
.
Para las funciones logarítmicas:
La derivada de e elevado a x es e elevado a x
La derivada del logaritmo natural (ln) de x es 1 dividido entre x
Para las funciones trigonométricas
La derivada del seno de x es el coseno de x.
La derivada del coseno x es menos seno de x.
La derivada de la tangente de x es la secante al cuadrado de x.
La derivada de cotangente de x es menos cosecante al cuadrado de x.
La derivada de la secante de x es el producto de la secante de x por la tangente de x.
La derivada de la cosecante de x es el producto de menos cosecante de x por la cotangente
de x.
Para las funciones trigonométricas hiperbólicas
La derivada del seno hiperbólico de x es el coseno hiperbólico de x.
9.10.EXTENSIÓN DEL CONCEPTO DE DERIVADA
Cuando una función depende de más de una variable, se utiliza el concepto de derivada parcial.
Las derivadas parciales se pueden pensar informalmente como tomar la derivada de una función
con respecto a una de ellas, manteniendo las demás variables constantes. Las derivadas parciales
se representan como (en donde ; es una 'd' redondeada conocida como 'símbolo de la
derivada parcial').
El concepto de derivada puede ser extendido de forma más general. El hilo común es que la
derivada en un punto sirve como una aproximación lineal a la función en dicho punto. Quizá la
situación más natural es que las funciones sean diferenciables en las variedades. La derivada en un
cierto punto entonces se convierte en una transformación lineal entre los correspondientes
espacios tangenciales y la derivada de la función se convierte en un mapeo entre los grupos
tangenciales.
Para diferenciar todas las funciones continuas y mucho más, se puede definir el concepto de
distribución.
Para las funciones complejas de una variable compleja, la diferenciabilidad es una condición
mucho más fuerte que la simple parte real e imaginaria de la función diferenciada con respecto a
la parte real e imaginaria del argumento. Por ejemplo, la función
satisface lo segundo, pero no lo primero. Vea también Función holomórfica.
Vea también: diferintegral. óptimo de una función real de dos variables sujeta a restricciones
Dadas las funciones, de valor real, y ambas con dominio, el problema consiste en hallar los
valores máximos o mínimos (valores extremos) de cuando se restringe a tomar valores en el conjunto.
10.1.CONCLUCIONES
Recursos didácticos. Son un conjunto de elementos que facilitan la realización del proceso de
enseñanza y aprendizaje. Proporcionan experiencias significativas acerca de un determinado
conocimiento. Contribuyen a que los estudiantes construyan un conocimiento determinado,
enriqueciendo la tarea educativa. Al utilizarlo los recursos didácticos habrá que considerar:
¿para qué?, ¿cuándo?, ¿cómo?, ¿quién? y ¿para quién? (Prieto, 2008).
En base a ello, los recursos didácticos que se utilizaron para la presente estrategia alternativa
se justifican en lo siguiente:
La elección de los recursos didácticos que se implementaron en este proyecto de investigación
fue acorde a las necesidades de los educandos y los materiales disponibles con los que se
podía contar, así pues los recursos didácticos empleados fueron:
Manipulables (tarjetas): Su uso se empleó para que el educando interactuara, experimentara y
relacionara los diversos tipos de factorización. Se utilizaron para realimentar y mejorar la
comprensión de los educandos.
Memoramas: Se utilizaron para realimentar los contenidos de Trinomios de la forma x2 + bx
+ c y Trinomios de la forma ax2 + bx + c.
Loterías: Se utilizó para que los alumnos relacionaran los conceptos y los procedimientos para
factorizar.
Cañón: Se usó para realimentar los seis casos de factorización mediante exposiciones, además
para que los educandos obtuvieran visualizaciones y aclaración de dudas generales.
Internet: Fue útil para el uso de investigaciones y manipulables de internet (ligas relacionadas
con los contenidos de factorización).
Libros: Activación del pensamiento y enseñamos a aprender: Se utilizaron como fuentes de
información y estímulos para el desarrollo de habilidades cognitivas matemáticas.
Material visual de Matemáticas (CD): Como eje de comprensión de conocimientos
significativos, transferencias y realimentación general.
Diagnóstico del contenido temático: Factorización: Para analizar la situación de los
educandos, así como para analizar los niveles cognitivos de los alumnos y crear el ambiente
de trabajo.
Diagnóstico estilos de aprendizaje: análisis de las preferencias de aprendizaje de los alumnos.
Hojas de trabajo: Se usaron para el empleo de actividades de los contenidos de factorización.
Cuaderno: Los educandos lo utilizaron como recurso de análisis y síntesis, para su
comprensión y como objeto de apuntes de ideas principales. Y en esencia como una evidencia
de la elaboración de sus trabajos.
Folleto: Se utilizó para dar un panorama general de los contenidos de factorización a los
educandos y ellos lo utilizaron como síntesis de comprensión y realimentación.
La justificación de la elección de estos recursos didácticos se basó primordialmente en el
deseo de apoyar a los educandos para que lograran desarrollar competencias, habilidades
cognitivas matemáticas y aprendizajes significativos, sobre todo que dominaran el contenido
de factorización y lograran aplicarlo en cuestiones diversas.
Técnica didáctica. Es el procedimiento lógico y con fundamento psicológico destinado a
orientar el aprendizaje del estudiante. Es el recurso particular de que se vale el docente para
llevar a efecto los propósitos planeados desde la estrategia (UPN, 2010).
Las técnicas didácticas elegidas para llevar a cabo la presente estrategia alternativa fueron:
Exposición, Método de preguntas, simulación y juego, Aprendizaje basado en problemas, y
lluvia de ideas.
La exposición se eligió porque estimula la interacción entre los integrantes del grupo. El
profesor debe desarrollar habilidades para interesar y motivar al grupo en su exposición. En
cuanto al método de preguntas el docente debe desarrollar habilidades para el diseño y
planteamiento de las preguntas. En este se debe evitar ser repetitivo en el uso de la técnica. En
cuanto a simulación y juego se eligió porque el docente desarrolla experiencia para controlar
al grupo y para hacer un buen análisis de la experiencia. Los juegos y simulaciones en que se
participará deben ser congruentes con los contenidos del curso, aquí los roles de los
participantes deben ser claramente definidos y se debe de promover su rotación. En el
aprendizaje basado en problemas el docente debe desarrollar las habilidades para la
facilitación, generar en los estudiantes disposición para trabajar de esta forma, retroalimentar
constantemente a los estudiantes sobre su participación en la solución del problema,
reflexionar con el grupo sobre las habilidades, actitudes y valores estimulados por la forma de
trabajo. Y finalmente la lluvia de ideas se eligió porque delimita los alcances del proceso de
toma de decisiones, el docente reflexiona con los estudiantes sobre lo que aprenden al
participar en un ejercicio matemnático.
Material didáctico. Es cualquier soporte o recurso que contenga mensajes audio-escrito-
visuales con una estructura didáctica. En los materiales didácticos están soportados los
diferentes tipos de contenidos del programa educativo, cuyo propósito es que el estudiante
adquiera determinados conocimientos. A través del material didáctico se establece la
interacción entre los contenidos, el profesor y el estudiante. Un material didáctico es el medio
que ha sido diseñado con todos los elementos para ser autosuficiente (UNAM, 2008).
Secuencia didáctica. De acuerdo con las estrategias educativas centradas en el aprendizaje, se
ha preparado un documento de apoyo que contiene tres momentos básicos referidos a
actividades de apertura, desarrollo y cierre, una secuencia didáctica es aquel documento que
permite ir más allá de una planeación, en ella se consideran el tema primordial y los
contenidos subsidiarios del contenido a tratar, además implica el empleo y consideración de
competencias genéricas y disciplinares, así como los valores, estrategias, técnicas y
actividades que van acordes a un determinado tiempo y que deben de ser evaluadas, todo ello,
sin olvidar el objetivo primordial que se desea alcanzar. En una secuencia didáctica se debe
establecer tanto el objetivo como los criterios y formas de evaluar, así como los aprendizajes
o productos esperados de los alumnos.
Factorización. Es un proceso mediante el cual se agrupan problemas grandes para reducirlos
en algunos más pequeños y poder así solucionarlos de una manera más fácil. Desde esta
perspectiva se puede afirmar que todas las personas hacen uso de la factorización a lo largo de
su vida sin darse cuenta; por ejemplo, cuando memorizan un número de cuenta bancaria, o la
curp, e incluso el número de un celular o alguna dirección; lo suelen agrupar en decenas (de
dos en dos), centenas (de tres en tres), etc. para que su memorización sea más fácil. Y en
conclusión, siempre que se reduce un problema grande en pequeños problemas fáciles de
resolver se está factorizando.
Factorización algebraica. Es un proceso que consiste en aplicar las operaciones básicas
algebraicas para descomponer en factores una expresión algebraica y determinar a partir de
ello una solución; es el proceso inverso de realizar un producto notable, es decir, es encontrar
los factores que dieron origen a la expresión que se trata de factorizar.
La Factorización; que es muy importante en el álgebra, no sólo se aprende para expresar un
polinomio como un producto de factores también se utiliza para: simplificar expresiones
racionales, efectuar operaciones (suma, resta, multiplicación y división) de expresiones
racionales y resolver ecuaciones que contienen expresiones racionales, ecuaciones e
inecuaciones cuadráticas. Los contenidos más vistos en factorización algebraica son:
Trinomio Cuadrado Perfecto, Trinomio de la forma X2 + Bx + C, Trinomio de la forma AX2
+ Bx + C, Factor Común, Diferencia de Cuadrados, y Suma o diferencia de Cubos.
Y es que hablar de Factorización en Matemáticas, no es algo sencillo, se tratan de múltiples
procesos y del hecho de haber dominado correctamente las operaciones básicas algebraicas, es
por ello que la presente estrategia alternativa se basa en una forma de aprendizaje
constructivista, socioconstructivista y de aprendizaje significativo.
En esta razón, se hace referencia a J. Piaget (Marqués, 1999), con su teoría del
constructivismo donde se determinan las fases del desarrollo cognitivo y el desarrollo de la
inteligencia. Además J. Piaget fundamenta que la construcción del propio conocimiento es
mediante la interacción constante con el medio, lo que significa que los educandos
comprenden mejor los contenidos temáticos cuando las actividades que realicen, así como las
tareas son de motivación para ellos.
Por otra parte, el presente trabajo comparte las ideas de Vigotsky, sobre el
socioconstructivismo, puesto que a partir de los saberes previos inicia el proceso de
construcción de nuevos conocimientos, y es dependiente de la situación y el medio en que se
de ese aprendizaje. El contexto es muy importante, y el educando puede aprender de y con los
otros compañeros.
Por esas razones, el aprendizaje de Matemáticas de los educandos se debe situar en un
ambiente de aprendizaje agradable, en un ambiente de interacción, donde el docente se
convierte en un compartidor de conocimientos, en un guía y los educandos en partícipes de su
propio aprendizaje.
Siguiendo la nueva propuesta metodológica del bachillerato de acuerdo con la Reforma
Integral de Educación Media Superior (RIEMS), se concreta a partir de estrategias didácticas
centradas en el aprendizaje, mediante las cuales se busca la formación de competencias
genéricas y propias de la disciplina que le permitan al estudiante un desempeño acorde a su
nivel de formación; que desarrolle su pensamiento categorial mediante el uso de sus
capacidades y habilidades, conocimientos y actitudes. Además, que sea consciente de que
pertenece a una sociedad globalizada donde su presupuesto fundamental es el conocimiento.
Asimismo, que considere el conocimiento como un proceso mediante el cual reencuentre la
relación de la Matemática con otras disciplinas y con su entorno.
Las estrategias didácticas centradas en el aprendizaje parten de las experiencias que tiene el
educando y no solo de los conceptos abstractos o del dominio de los algoritmos, que no son el
todo en las vivencias de los alumnos; esto permitirá que se apropien del conocimiento, que
aprendan a aprender, a razonar y a pensar. Esto es, que transiten de decir "permíteme
recordar" a "permíteme pensar", cuando se les presente un problema. El papel del profesor
será, entonces, de mediador del aprendizaje, un facilitador en ese proceso para guiar a los
alumnos hacia la construcción de su conocimiento.
El propósito de la asignatura de álgebra se ha establecido considerando las competencias
genéricas y competencias disciplinares de la matemática, contenidas en el Marco Curricular
Común del Sistema Nacional de Bachillerato, con las que se trabajó la siguiente estrategia
alternativa de Factorización.
Álgebra: Desarrollar la capacidad del razonamiento matemático haciendo uso del lenguaje
algebraico, a partir de la resolución de problemas de la vida cotidiana, dentro y fuera del
contexto matemático, representados en modelos donde se aplican conocimientos y conceptos
algebraicos, en un clima de colaboración y respeto.
En cuanto a las competencias que se pretenden desarrollar en este trabajo son:
Competencia genérica: 1. Se conoce y valora a sí mismo y aborda problemas y retos teniendo
en cuenta los objetivos que persigue.
Atributos:
Enfrenta las dificultades que se le presentan y es consciente de sus valores, fortalezas y
debilidades.
Asume las consecuencias de sus comportamientos y decisiones.
Competencia genérica 4. Escucha, interpreta y emite mensajes pertinentes en distintos
contextos mediante la utilización de medios, códigos y herramientas apropiados.
Expresa ideas y conceptos mediante representaciones lingüísticas, matemáticas o gráficas.
Aplica distintas estrategias comunicativas según quienes sean sus interlocutores, el contexto
en el que se encuentra y los objetivos que persigue.
Identifica las ideas clave en un texto o discurso oral e infiere conclusiones a partir de ellas.
Competencia genérica 5. Desarrolla innovaciones y propone soluciones a problemas a partir
de métodos establecidos.
Sigue instrucciones y procedimientos de manera reflexiva, comprendiendo como cada uno de
sus pasos contribuye al alcance de un objetivo.
Ordena información de acuerdo a categorías, jerarquías y relaciones.
Identifica los sistemas y reglas o principios medulares que subyacen a una serie de
fenómenos.
Competencia genérica 8. Participa y colabora de manera efectiva en equipos diversos:
Propone maneras de solucionar un problema o desarrollar un proyecto en equipo, definiendo
un curso de acción con pasos específicos.
Aporta puntos de vista con apertura y considera los de otras personas de manera reflexiva.
Competencias Básicas:
Propone explicaciones de los resultados obtenidos mediante procedimientos matemáticos y
los contrasta con modelos establecidos o situaciones reales.
Argumenta la solución obtenida de un problema, con métodos numéricos, gráficos, analíticos
y variacionales, mediante el lenguaje verbal y matemático.
Interpreta tablas, gráficas, mapas, diagramas y textos con símbolos matemáticos y científicos.
Las competencias genéricas que se eligieron para la propuesta de esta estrategia didáctica de
apoyo a la enseñanza- aprendizaje de las Matemáticas tienen una estrecha relación para que el
alumno se concentre en sus actividades de trabajo en el aula, para que pueda lograr un
verdadero aprendizaje significativo, para que observe sus alcances y sus avances. Se eligieron
estas competencias genéricas porque el alumno debe de saber enfrentar sus problemas
personales y conllevar a sí a la motivación por el estudio de las Matemáticas.
En cuanto a las competencias disciplinares, se relacionan con los educandos para que puedan
aplicar los procedimientos matemáticos adecuadamente, y logren comprender los enunciados
matemáticos en la resolución de problemas llegando así a una verdadera toma de consciencia
en las decisiones.