Buscar este blog

jueves, 8 de septiembre de 2022

 

COMPUTADORA PERSONAL, CAMBIO TECNOLÓGICO

Y ESTRATEGIAS EMPRESARIAS, EN EL MARCO DE UNA

HISTORIA SOCIAL

 

Dr. Carlos A. J. Molinari

 

I.- Introducción

 

El objetivo de este trabajo es explorar, en un marco histórico, la genealogía de la computadora personal y como, este proceso, no solo produjo un radical cambio en los artefactos tecnológicos y su masificación, sino también en el conjunto de las relaciones sociales.

Asimismo, se trata de relacionar esta historia, con las relaciones de poder en la sociedad y, por lo tanto, en las actividades de las organizaciones empresarias que lideraban o, formaban parte de este proceso.

Pero reconstruir una historia de la computadora personal, implica advertir que la génesis de este producto no puede analizarse, sino en el marco de una historia más general de las computadoras, donde la PC –así como sus derivados posteriores, que llegan hasta el Smartphone, una auténtica computadora “de bolsillo” y móvil-, representan la derivación de una cierta evolución tecnológica.

No se pretende en este trabajo, estructurar una historia detallada de este producto, sino marcar algunos hitos que nos posibiliten delinear, como se fue construyendo este desarrollo tecnológico, así como las relaciones que se fueron estableciendo con el campo de lo social.

De alguna manera, descentrarse de los análisis técnicos puros, para poder observar como éxitos, fracasos y vías muertas, constituyeron y constituyen redes de causas, efectos, acciones, interacciones y retroalimentaciones, en los que no solo interviene lo tecnológico, sino también las acciones de gobiernos, de empresas productoras, de usuarios, de empresas competidoras de otras áreas tecnológicas, así como la cultura de las sociedades, en las cuales este proceso se ha desarrollado.

No es una tarea sencilla seleccionar lo que previamente hemos denominado como hitos, ya que el lugar ocupado por los mismos en la historia de la tecnología, difieren según los análisis de las empresas y organismos intervinientes, de los distintos historiadores o de los interesados en establecer la cronología de este proceso, de los criterios personales de quienes participaron en este desarrollo, o de los campos disciplinares de donde provengan los análisis críticos.

Se ha intentado en este sentido, aplicar un criterio de máxima rigurosidad en la selección de acuerdo a los objetivos del trabajo, pero remarcando que no se trata de una historia exhaustiva desde lo técnico, sino que se trata de rescatar los indicios que nos permitan reconstruir una historia.

También debemos señalar, que no se trata solamente de una evolución del artefacto, sino que la misma comprende software y hardware, analizados como un conjunto indivisible, ya que los cambios en una de las dimensiones, involucran a la otra, en una interacción permanente.

 

 

 

II.- Análisis histórico del desarrollo de la computadora

 

Ningún desarrollo técnico o tecnológico, puede estudiarse al margen de la sociedad que los contiene, así como de las relaciones de producción en esa sociedad, el nivel del conocimiento científico, o su sistema político, legal y cultural.

En el siglo I, Hierón de Alejandría, desarrolló un artefacto que puede considerarse máquina de vapor y turbina, de la misma manera que a lo largo de la historia, se diseñaron o construyeron diversos artefactos que pueden considerarse antecesores de máquinas modernas, como el caso de los autómatas en el siglo XVIII europeo.

Sin embargo, en su momento, estas máquinas no tuvieron aceptación desde el punto de vista productivo en la sociedad, o fueron adoptadas como juegos. Por ejemplo, en el caso de la máquina de vapor de Hierón, “Era necesaria la confluencia de los avances técnicos, el crecimiento de la población, su traslado a las ciudades, la utilización de combustibles fósiles, los descubrimientos geográficos y otras variables, que iban a impulsar el desarrollo del capitalismo, para que la tecnología pudiera desempeñar su papel destacado…” (Molinari, 2011, pp. 146-147); lo que es decir, para que el siglo XVIII alumbrara la máquina de vapor, dando impulso al desarrollo de un nuevo sistema social.  

A pesar de que se podrían citar antecedentes muy antiguos, como el caso del mecanismo de Antikhitera, del siglo I a.n.e., estudiar la evolución de las computadoras, toma sentido a partir del siglo XVII, en el desarrollo del capitalismo, donde los cambios en las relaciones de producción, los avances en la ciencia, la técnica y la tecnología, así como el crecimiento de las fuerzas productivas –en interacción con otras variables que por razones de objetivos no vamos a considerar aquí-, estaban construyendo un nuevo sistema económico social. Es en él, donde se manifiesta la necesidad de nuevas máquinas y tecnologías que lo impulsaran.

Y es en 1623, que el alemán Wilhelm Schickard (1592-1635), construyó un reloj calculador, que sumaba y restaba 6 dígitos; lo hacía con una manivela que giraba y los números cambiaban. Este hecho, a nuestro criterio, es el que podemos considerar el momento cero de las computadoras, en el sentido que le damos al término en nuestra contemporaneidad.

En 1673, Gotfried Leibniz (1646-1716) presentó una máquina calculadora, que había estado construyendo desde 1670, siendo la primera que podía ejecutar las cuatro operaciones aritméticas básicas.

Por la misma época, en 1642, Blaise Pascal (1623-1662) inventó y construyó la “Pascalina”, una máquina sumadora. Si bien el artefacto no se pudo comercializar por su costo, se transformó en un juguete para las clases pudientes de Europa.

Se puede observar como los primeros intentos de construir una máquina que pudiera realizar operaciones, que hasta entonces solo realizaba el ser humano, era el resultado de una invención surgida en un momento en que la ciencia y la tecnología impulsaban y, a la vez eran impulsadas, por el naciente capitalismo, aunque todavía no encontraban su aplicación en la producción.

Pero el primer antecedente del matrimonio entre automatización y producción, se produce en 1801, cuando el francés Joseph Jacquard (1752-1834), desarrolló el telar automático; una máquina con entrada de datos por tarjetas perforadas, para controlar la impresión de tejidos y sus dibujos.

El que es considerado uno de los padres de la informática, el inglés Charles Babbage (1791-1871), diseñó entre 1833 y 1842, una máquina analítica, que poseía dispositivos de entrada basados en tarjetas y memoria y podía ser programada por el usuario. Los planos incluían una impresora, que pesaría aproximadamente 2,5 toneladas, siendo capaz de imprimir automáticamente los resultados de un cálculo. Pero la máquina no pudo ser construida por su inventor, por no existir la tecnología disponible para hacerlo.

Pero esta historia estaría incompleta, sin los aportes de Ada Byron (1815-1852), hija del poeta romántico Lord Byron, quien conoció a Babbage a los 18 años y trabajó con él gran parte de su vida.

Con una importante formación en matemáticas, Ada sugirió usar tarjetas en forma repetida y predijo que una máquina de este tipo, podría en el futuro componer música, producir gráficos y que se utilizaría, tanto a nivel científico como en la vida cotidiana. Pero lo más relevante, escribió con lápiz y papel programas para hacer cálculos matemáticos con la máquina analítica (Moledo y Kukso, 2004), por lo que se la considera la precursora de la programación.

Ada publicó trabajos científicos, entre ellos el que Moledo y Kukso (2004) denominan manual ideológico del aparato, luego tomado por Turing en 1937 y von Neumann en 1946.

En 1890, en los EE.UU., Herman Hollerith, que fue el fundador de la Tabulating Machine Co., posteriormente denominada IBM, construyó una máquina con tarjetas perforadas, destinada a procesar el censo en ese país.

Igual que en el caso de Jacquard, las máquinas de Hollerith, ya no tenían solamente una finalidad de prueba y experimentación, sino que comienzan a confluir con los procesos económicos y sociales.

Hasta el momento del invento de Hollerith, el proceso de desarrollo de la computadora, como hemos visto, había sido lento, lo que cambia radicalmente en el siglo XX, debido a la conjunción de una serie de fenómenos.

Uno de ellos era el salto cualitativo que se había producido en los sistemas de producción en el sistema capitalista desde fines del siglo XIX, con el consiguiente impacto en los procesos de invención, no solo de nuevos productos, sino también de maquinarias y sistemas tecnológicos que interactuaban en ese salto.

Por otra parte, el avance en las ciencias, que aportaban nuevas bases al desarrollo productivo y su vinculación con el universo creciente de las empresas. También inciden otros fenómenos, como el crecimiento de los sistemas educativos, que posibilitan el acceso al conocimiento, ya no solo de una élite aristocrática, sino de la burguesía y sectores de la pequeña burguesía[1].

De la misma manera, que la creciente incorporación de grandes masas a la producción y, por lo tanto, al consumo, generaban la necesidad de mayor cantidad de productos, a la vez que nuevos productos y servicios.

Y por último podemos citar, las necesidades del aparato militar ante el crecimiento de los conflictos, tanto regionales como internacionales, cuya máxima representación fueron las dos guerras denominadas mundiales.

Lo que se ha expuesto, iba a impactar sin duda en el desarrollo de las computadoras, por las nuevas necesidades que iban surgiendo desde la dimensión empresarial y gubernamental.

En 1927, el estadounidense Vannevar Bush desarrolla en el MIT (Masachussets Institute of Technology) un Analizador Diferencial, que era una computadora analógica que permitía solucionar ecuaciones diferenciales, trabajo que llevó adelante con quien era su estudiante, Harold Locke Hazen y su compañero Hugh Spencer[2].

Muy pocos años después, en 1936, en el país que era considerado el “gran enemigo” del capitalismo, la U.R.S.S., Vladimir Lukyanov, desarrolla el que denominó el Integrador de Agua, una computadora que funcionaba con agua en lugar de electricidad.

Lukyanov tenía un problema, que era calcular la estabilidad de las estructuras de hormigón para los ferrocarriles de la U.R.S.S. y, en ese momento, su creación fue capaz de resolver ecuaciones diferenciales parciales.

Posteriormente, esta computadora fue utilizada en instituciones académicas y realizó parte de los cálculos en la carrera espacial soviética; inclusive se siguió utilizando hasta la década de 1980.

A un problema similar se enfrentó el alemán Konrad Zuse (1910-1995), quien debía resolver grandes cálculos matemáticos para su trabajo en la fábrica de aviones Henschel. Su solución fue construir, sin conocimientos previos, una computadora electromecánica, que denominó Z1, finalizándola en 1938. La máquina, podía ser programada por tarjetas perforadas.

Luego inició la construcción de la Z2, para mejorar su anterior modelo, trabajo que quedó interrumpido al estallar la Segunda Guerra Mundial; pero logró interesar al ejército alemán quien lo financió para finalizar este modelo. Posteriormente construyo la Z3, que fue utilizada por la industria aeronáutica alemana durante la guerra; la máquina, fue destruida en bombardeos aliados sobre Berlín. Inclusive en 1945, desarrolló su propio lenguaje de computación. A partir de 1949 fundó su propia empresa, que fue la primera en Alemania en fabricar en cantidad computadoras, aunque finalmente debió venderla a la Siemens por problemas económicos.

Paralelamente a Zuse, los ingleses también construyeron una computadora en el año 1943, diseñada por Alan Turing, en el proyecto Colossus, cuya denominación fue Mark I, cuyo fin era descifrar los mensajes alemanes. Se fueron construyendo otros equipos, pero al final de la guerra fueron todos destruidos.

Debemos mencionar igualmente, otros importantes hitos en todo este proceso, que conducirían al desarrollo de una nueva genealogía en las computadoras.

Uno es la ENIAC –Electronic numerical integrator and computer-, construida hacia fines de 1946, totalmente digital y con la característica de que se podía programar para resolver diversas tareas. Su finalidad era calcular las trayectorias de los proyectiles, para el ejército de los EE.UU.

Otro momento relevante, es el patentamiento de los transistores en 1948, producidos en los Laboratorios Bell, en EE.UU., que permitirían la apertura de todo un campo de desarrollo para la electrónica, entre ellos la industria informática.

Y también podemos citar la UNIVAC –Universal Automatic Computer-, cuyas primeras unidades fueron vendidas al gobierno de los EE.UU. –en 1951 fue adquirida para el censo-, y era fabricada por la compañía Remington Rand. En 1954 General Electric adquirió una unidad, con lo cual se puede pensar como el inicio del proceso donde estos equipos, ya estaban orientados para la utilización en las empresas.

En Japón, en 1954, la empresa Fujitsu, construyó la FACOM 100, su computadora automática. Lo hizo utilizando un conmutador telefónico, el “relé”, que lo estaba utilizando para sus sistemas de conmutación telefónica; apelaron a una tecnología que ya la compañía conocía, a partir de sus competencias en el campo de las comunicaciones.

Y por último, queremos mencionar la Olivetti Elea 9003 de 1959, el primer producto de este tipo del fabricante italiano de máquinas de escribir. Fue la primera computadora comercial que funcionaba totalmente con transistores, de al cual se vendieron unos 40 equipos. Posteriormente la empresa vendió esta línea a General Electric, para concentrarse en las computadoras personales, que se vislumbraban como el futuro en esa industria[3].

Un análisis del proceso que hemos descripto, nos conduce a unas primeras conclusiones, en relación a los objetivos de este trabajo.

En primera instancia, se puede observar como los cambios tecnológicos[4], no son el resultado de una transformación inesperada que ocurre en tiempos imprevisibles, sino que ocurren, como el caso de las computadoras, en procesos de larga duración[5]; procesos que a su vez interactúan con otras variables sociales, como las culturales, las económicas, las legales, las relaciones de poder en una sociedad, generando entonces las condiciones de posibilidad para que esos cambios produzcan un salto cualitativo.

Hemos visto como en el caso de las computadoras, las condiciones económicas que iban potenciando el desarrollo del capitalismo, posibilitaron la construcción y consolidación de esa nueva tecnología, constituida por artefactos y programas.

Pero si bien la línea de desarrollo debe ser situada a partir de las condiciones creadas por el capitalismo, hemos señalado como también en un país como la U.R.S.S., que intentaba desarrollar un proyecto de sociedad socialista[6], fue necesario impulsar la construcción de una máquina que resolviera determinado tipo de problemas, que hacían más al desarrollo de las fuerzas productivas, que a la propiedad de los medios de producción.

Lo expuesto nos permite observar también, que la tecnología es acumulativa y combinatoria –cuestión que se verificará en todo el desarrollo de este trabajo-, en el sentido que no basta con la innovación, sino que la misma debe poder ser combinada acumulativamente con otras técnicas, tecnologías artefactuales y tecnologías organizativas, en mutua interacción y, a su vez, este encuentro se debe producir en un determinado estado de las relaciones sociales, para generar un impacto en la producción de bienes y servicios.

Y también se puede observar el funcionamiento de un sector industrial en construcción y desarrollo, en constante reconfiguración –lo que se aceleraría con la computadora personal-, donde van surgiendo opciones en diferentes países y con diferentes desarrollos tecnológicos, lo que también se iba a transformar velozmente con el avance del proceso de globalización, a partir de la segunda mitad del siglo XX.

De la misma manera, no hay que descartar el impulso del complejo militar-empresarial, donde intervienen objetivos de los gobiernos, pero también de las propias empresas participantes en ese complejo.

Si bien los grandes equipos, que analizamos sintéticamente hasta ahora, se fueron perfeccionando, orientándose ya efectivamente al mundo empresarial –sin desestimar a los gobiernos como grandes usuarios-, una serie de acontecimientos, derivados de los desarrollos que hemos estado describiendo darían lugar, como hemos expresado, a una nueva genealogía.

 

III.- La computadora personal

 

En la década de 1960, se produce un hecho que a nuestro criterio, es el disparador del proceso de desarrollo de la computadora personal; en 1964.  Douglas Engelbart junto a Hill English, construyen el primer mouse, sobre un diseño del primero[7].

Este punto de partida, se relaciona con lo que hemos expresado acerca de la cualidad acumulativa y combinatoria de toda tecnología. Entonces, hemos optado por no considerar el solo surgimiento de los artefactos, sino sus pasos previos y convergentes, tanto en técnicas como en otros artefactos complementarios o las tecnologías organizativas, como el inicio de un largo proceso que llega hasta nuestro presente.

El mismo Engelbart, en el año 1968, en una convención en San Francisco, EE.UU., realiza una demostración, donde expone el mouse, enlaces virtuales entre archivos, correo electrónico, procesamiento de textos y video conferencia, sentando las bases de lo que es hoy el software de nuestros dispositivos, cualquiera sea la forma que estos adopten.

Previamente a estos hitos, en el año 1945, Vannevar Bush (1890-1974), publicó un influyente artículo titulado As we may think, donde proponía organizar la información de acuerdo a como trabaja la mente, por asociación de ideas.

Estas ideas fueron retomadas por Theodor Nelson en 1965, en una conferencia en la Association of Computer Machiney en los EE.UU., cuando acuñó el concepto de hipertexto, como una estructura no secuencial para organizar la información.

A partir de estos hechos que hemos fijado como el momento cero de desarrollo de la computadora personal, veremos como la tasa de difusión de los cambios[8] se acelera, siendo esta una característica de esta etapa.

En 1965, la italiana Olivetti lanza al mercado la Programma 101, más parecida a una calculadora electrónica que a lo que hoy entendemos por computadora personal, que realizaba operaciones aritméticas, raíces cuadradas y fracciones (López, 2019). Los programas se grababan en una tarjeta de plástico con una banda magnética y tenía integrada una impresora de carrete y un teclado básicamente numérico. Se vendieron 44.000 unidades de este modelo, principalmente en los EE.UU., hecho que posibilita detectar que se estaba configurando un mercado, producto de la necesidad de resolver problemas que el desarrollo económico estaba generando; como es el caso del procesamiento de información cada vez más compleja y a partir de equipos de uso más sencillos que las grandes computadoras; lo que también refleja el potencial de acceso a las máquinas, representado por una diversidad de usuarios en cuanto al tipo de empresas consumidoras.

Esta empresa, abandonó la fabricación de computadoras personales en 1997, con la venta de esta división, ante la imposibilidad de competir en costos con los clones provenientes del sudeste asiático. Hecho que nos revela como la globalización productiva, fue reconfigurando ese mercado en desarrollo, más que las capacidades tecnológicas en un determinado país o en determinadas empresas.

En el año 1971, la compañía Intel, puso a la venta el primer microprocesador, el 4004, lo cual provocaría un cambio sustancial en la fabricación de computadoras, al integrar todo el proceso en un chip. El mismo fue diseñado para utilizar en una calculadora y constituyó la apertura, para la fabricación de toda una generación de microprocesadores, que a su vez actuó como la plataforma de baja de costos y mejora de productividad, que impulsaría una industria y un cambio tecnológico, que afectarían desde ese momento el conjunto de las relaciones sociales.

En el mismo año de 1971, John Blankenbaker, diseñó y construyó la Kenbak-I, considerada la primera computadora personal de la historia[9]. Era una máquina de 256 bytes de memoria, no utilizaba un microprocesador, y después de vender unas 40 unidades, la compañía, Kenbak Corp. cerró.

Dos años después, en 1973, comenzó la fabricación en Francia, de la Micral N, que es considerada la primera computadora personal disponible comercialmente, basada en un microprocesador. La empresa responsable, se denominaba Réalisation d’Études Électroniques y este sistema había sido desarrollado en el Institut National de la Recherche Agronomique, para resolver problemas vinculados a mediciones higronométricas. El equipo, tenía su propio sistema operativo denominado Sysmic. Posteriormente, la empresa fue adquirida por el Grupo Bull, quien continuó la fabricación de estos equipos pero  orientados a los peajes de autopistas, pues este conglomerado no estaba interesado en las computadoras personales.   

En los EE.UU., en Palo Alto, California, la empresa Xerox, en ese momento líder mundial en fotocopiadoras, creó un centro de investigación, destinado a desarrollar la tecnología de la oficina del futuro.

En ese centro, en 1973, se construyó un prototipo de computadora personal, denominada Alto, que a juicio del autor de este artículo, debe considerarse la primera computadora personal en el sentido que en el presente la entendemos; si bien no fue comercializada, sino fabricada para ser distribuida en universidades e institutos de investigación.

Poseía monitor, procesador de texto, el WYSIWYG (What you see is what you get[10]), mouse de tres botones e interfaz gráfica.

También en 1973, desarrollaron el Super Paint, un programa informático para dibujar y Robert Metcalfe diseñó Ethernet, un método para conexión en red.  En 1976, en el mismo laboratorio, desarrollaron la NoteTaker, que fue la primera computadora portátil, pero tampoco se comercializó, sino que solo fabricaron diez prototipos. Esta máquina pesaba 22 kg., poseía un mouse, interfase gráfica, teclado, modem, monitor y floppy disk drive.

Recién en el año 1981, el equipo Alto fue comercializado, con el nombre Star, como estación de trabajo, pero a un precio muy superior a la IBM PC compatible, lo que evidentemente impidió que el mismo se transformara en un éxito de mercado. Este modelo poseía interfase gráfica basada en ventanas, carpetas, mouse, plaqueta de red Ethernet y correo electrónico; un equipo como los que luego se impondrían como estándar en el mercado.

La pregunta aquí es que sucedió con una empresa, que se había adelantado tantos años a lo que sería la computadora personal, tanto en hardware como en software, para quedar fuera de este mercado naciente.

Debemos pensar, que fue una víctima de su propio éxito. Pues se trataba de una compañía, que a partir de 1959, cuando inició la comercialización de su primera fotocopiadora, creó y revolucionó un mercado.

Pero no hay que olvidar que ya en 1980, fue perdiendo sus patentes en tecnología de fotocopiado, lo cual abrió el campo a competidores de menor costo y calidad. Aun así, en 1995, desarrollaron una tecnología de pantalla táctil, que posibilitaba introducir datos en computadoras del tamaño de una mano.

Pero sus directivos, quizás compenetrados con otra tecnología y otro tipo de empresa y de sociedad, pensaron evidentemente que se trataba de productos no rentables; o por lo menos, no tanto como las fotocopiadoras. En definitiva, aunque no sabemos que pasaba por la mente de quienes dirigían la compañía, podemos conjeturar, que tenían una historia de éxito con su tecnología de copiado de documentos. Nos podemos preguntar: ¿cuándo desarrollaban sus estrategias, no construían escenarios futuros, que les hubiera permitido observar las potencialidades de las máquinas que ellos mismos habían anticipado?

Aquí también se observa, como siempre se trata, tantos en los éxitos como en los fracasos, de una conjunción de variables; pues ser innovador y poseer la delantera tecnológica, no implicó que fuera aprovechada por esta empresa.

En 1975, la empresa MITS comenzó a fabricar la Altair 8800. Se trataba de una caja sin teclado ni pantalla; los datos se ingresaban vía interruptores y el resultado, se interpretaba en un tablero de luces o en una impresora de cinta. El teclado o el lector de papel eran periféricos y se vendían como adicionales; utilizaba un procesador Intel 8080. Su venta se realizaba como un kit para aficionados, a través de la revista Popular Electronics, que fue la que lo publicó por primera vez en enero de ese año; o sea que no se trataba de un producto dirigido a un mercado masivo, sino solo al nicho de especialistas o nuevos entusiastas de la informática. De hecho, no era un producto sencillo de utilizar, pero señaló el camino a toda una nueva industria[11].

El software que utilizaba, fue diseñado por Bill Gates y Paul Allen, que lo desarrollaron para estos equipos. Cuando vieron la tapa de Popular Electronics, ofrecieron a la empresa escribir un software a partir del Basic, compatible con la Altair. De esta manera, utilizando ese lenguaje, cualquiera podría crear programas para este equipo.

La alta demanda generada –esperaban vender 200 el primer año y vendieron 2000 al final del primer mes-, sorprendió a la empresa, que después de algunos problemas para cumplir con las entregas, terminó vendiendo el diseño.

Hasta ese momento histórico, se puede observar cómo se produce, aunque todavía de forma lenta y difusa, la confluencia de distintos procesos, así como de aprendizaje sobre la práctica y el propio uso, en el diseño, fabricación y venta de los nuevos equipos. Pero lo que aparece como relevante, es que los nuevos artefactos, no van dirigidos todavía a los consumidores hogareños, sino que se orientan más a los especialistas, pues se necesitan ciertos conocimientos al efecto de abordar las cuestiones técnicas indispensables, para que las máquinas funcionen.

No hay que olvidar, que en ese momento, todavía el mercado corporativo, estaba concentrado en la utilización de equipos centrales, pues el tiempo de la computación distribuida, sería el resultado de cambios que se encontraban en tránsito.  

Aún faltaban algunos pasos, para hacer confluir los procesos, técnicas y tecnologías necesarias, para dar vida a lo que se llegaría a denominar computadora personal.

En ese mismo año de 1975, un 29 de junio según relata Steve Wozniak (2013), a través de un teclado introducía datos en una memoria y pudo visualizarlos en la pantalla de un monitor; se trataba de la primera vez que tecleando, se podía visualizar el resultado. Era el nacimiento de la Apple I, que a su vez representaba el punto de partida de una de las empresas más emblemáticas de como la informática, iba a transformar la vida de las personas.

La máquina resultante la vendía Steve Jobs en tiendas de computación de Palo Alto, California, a un precio original de U$S 666.- y se vendieron unas 200 en un año[12].

Una de las frases de la publicidad de la nueva máquina, daba cuenta de alguna manera del significado de esta transformación –la unión de un monitor de TV con un teclado-: “no más interruptores…”. Se iniciaba un nuevo momento en el desarrollo de la computadora personal.

Poco tiempo después, en 1977, se lanza al mercado la Apple II, que representa la primera computadora personal que podía ser adquirida por los consumidores hogareños.

Podía ser utilizada para video juegos, para escribir textos, y tenía incorporada una planilla de cálculo –Visicalc, que fue la primera hoja de cálculo del mercado-, lo que le abrió la posibilidad de la venta para empresas.

Otro dato importante, es que a través de sus ranuras de expansión, posibilitaba ampliar las capacidades de la máquina, con dispositivos de terceros.  

En ese mismo año de 1977, la empresa propietaria de la cadena de tiendas Radio Schak en los EE.UU., presentó la Tandy TRS-80, su propuesta en este mercado.

El primer modelo incluía teclado, CPU con procesador, una TV blanco y negro modificada para la computadora y una grabadora de casetes de audio, para la lectura y almacenamiento de datos; el paquete incluía el software Basic.

La venta de estos equipos, se realizaba a través de la cadena de negocios de la empresa, lo cual comunica acerca de la importancia de la integración vertical, así como del poder de los grandes puntos de contacto con el consumidor, que permitió la penetración del producto en el naciente mercado de las computadoras personales.

Si bien la fabricación continuó hasta el año 1981 y, a pesar que desde los inicios de la década de 1980 comenzaron a producir computadoras más o menos compatibles con las nuevas PC, el surgimiento de los clones, con la consiguiente baja de los márgenes de ganancia, les impidió continuar en el mercado.

Aquí también se observa, como en otros casos citados, como la globalización económica, que se estaba llevando a cabo a pasos acelerados, incidió no solo en el desarrollo de los equipos y su tecnología, sino también en incorporar y descartar, a los distintos actores que participaban y participarían en ese mercado.

También en 1977, la compañía Commodore lanza al mercado el Commodore PETPersonal Electronic Transactor-, con lo cual se completa la trilogía de este año, que estaba marcado por la confluencia tecnológica, hecho que a su vez estaba señalando el camino hacia un creciente proceso de estandarización[13] de las computadoras personales, necesario para transformar definitivamente un mercado de empresas y especialistas, en un mercado masivo; que consecuentemente, cambiaría la comunicación, el trabajo, la investigación y el entretenimiento a partir de ese momento histórico.

Este lanzamiento, es producto de la previa compra por parte de Commodore –que estaba en el negocio de las calculadoras-, de la empresa MOS Technology, que fabricaba y vendía una computadora en kit, la MOS KIM-1; pero también fabricaba su procesador, que a su vez había sido utilizado en la Apple II.

El equipo consistía en un chasis, que incorporaba todos los componentes en uno –monitor, teclado y unidad de cinta-, dirigido a un público de empresas y hogares. Luego de lanzado al mercado, los pedidos crecieron rápidamente y la lista de espera para los compradores, era de meses.

Evidentemente, junto a la necesidad de las empresas fabricantes de masificar la utilización de estos nuevos equipos, existía otra paralela de los consumidores, de encarar la resolución de tareas, mecanizando las mismas; así como de repensar la forma de reorganizar su tiempo, sus datos y su esparcimiento.

Hay que destacar que esta computadora y sus sucesoras, fueron las más utilizadas en escuelas y universidades en los EE.UU., a fines de la década de 1970 y comienzos de la de 1980.

Pero en el año 1981, se produciría el que podemos denominar, el auténtico punto de inflexión en la historia de la computadora personal, con la comunicación por parte de la empresa IBM –en ese entonces el gran gigante tecnológico-, el 12 de agosto, del lanzamiento de su PC Compatible.

El director ejecutivo de la compañía, Frank Cary, había detectado en el año 1979, que las computadoras personales les robaban mercado a sus grandes equipos[14], por lo que deberían ingresar a ese mercado, pero con el sistema de fabricar todos los componentes de sus equipos, les llevaría un tiempo prolongado.

Fue así que iniciaron un proyecto de arquitectura abierta, utilizando componentes para la fabricación de sus máquinas, ya existentes en el mercado, provenientes de empresas como Intel o Epson y algunos provenientes de la propia compañía, de otras divisiones. De esta manera, cualquiera podría fabricar hardware o desarrollar software para estos equipos.

El proceso fue completado en un año y su forma de integración, posibilitaba no solo reducir costos, sino también asegurar el suministro de los distintos componentes. Una operatoria que, al permitir que otras empresas crearan componentes para la máquina, terminó formando, indirectamente, el mercado de los clones.

Esta última cuestión, ya estaba marcando el predominio del software, la inteligencia agregada, sobre la propia materialidad del equipo, que se podía copiar y fabricar por muchas empresas; una tendencia que se acentuaría aceleradamente.

Pero necesitaban un sistema operativo para la máquina, donde la empresa tenía dos opciones (Sametband, 2001): el CP/M, escrito por Gary Kildall en 1974 y que ya había vendido 600 mil copias o, el que aparentemente poseía Microsoft. Pero la realidad era que ésta última no lo tenía, por lo que Bill Gates, recomendó a IBM que se dirigieran a Kildall.

Cuando el personal de IBM fue a visitar a Kildall, no lo encontró, pero fueron atendidos por su esposa, quien se negó a firmar un contrato de confidencialidad que le exigían, por lo que eligieron a Microsoft.

Ésta última, prometió el sistema operativo, pero no lo tenía desarrollado. Entonces acudieron a Tim Patterson, quien había escrito uno, copiado del de Kildall llamado QDOS -Quick and Dirty Operating System-. Microsoft lo adquirió en 50 mil dólares y lo convirtió en el primer sistema operativo de la PC Compatible[15].

Si bien algunos de estos datos forman parte de lo anecdótico, también posibilitan observar, como no existe linealidad en los procesos de desarrollo de nuevas tecnologías, sino que los mismos obedecen a una conjunción de causas y determinaciones, así como a la acción de diferentes variables contextuales.

Por otra parte, debemos señalar que esta determinación de IBM, cambió de forma radical el desarrollo de las computadoras personales, lo que posibilitó la ya definitiva estandarización del producto; hecho que generó un mercado masivo, dirigido tanto a empresas como consumidores finales, lo que a su vez modificaría de raíz todas las relaciones sociales que se iban a disparar a partir de ese momento.

Otros dos hechos producidos ese mismo año, también deben ser señalados como hitos en este proceso, ya que los mismos, también formarían parte del desarrollo de las computadoras personales; hechos que están referidos al tema de la movilidad.

El primero, fue el lanzamiento de la Osborne 1, la primera computadora portátil comercializada de la historia. Su creador, Adam Osborne, se había hecho famoso por un libro, titulado An Introduction to Microcomputers, que la empresa IMSAI incluía en cada computadora que vendía, lo que posibilitó para el autor la venta de 300.000 ejemplares del  mismo.

Osborne tenía la idea de que para que las computadoras fueran útiles, debían tener la posibilidad de transportarse y utilizarse donde se quisiera. Lo que llevaría a la práctica cuando conoció a Lee Felsenstein, quien tenía experiencia en el diseño de computadoras. Su concepto incluía que pudiera ponerse bajo el asiento de un avión, que fuera sencilla de ensamblar y de bajo precio.

En abril de 1981, en la Feria de Computadoras de la Costa Oeste de los EE.UU., fue presentada por primera vez la Osborne-1, que se considera la primera computadora personal portátil, destacando que se trata de la primera comercializada, ya que hemos citado en este artículo, antecedentes de la misma. La máquina pesaba 13 kg. y contaba con un puerto para módem y un teclado desmontable y ya en septiembre de ese año se vendían unas diez mil unidades mensuales.

A pesar de este hecho, tanto la empresa como la máquina desaparecieron del mercado, lo cual plantea la pregunta acerca de porqué pudo suceder.

En noviembre de 1982, la compañía anunció dos nuevos modelos; la Executive, que poseía más memoria que la primera y una pantalla de 7 pulgadas, frente a la original de 5; y otro modelo, la Vixen. Estas novedades iniciarían su comercialización en febrero de 1983.

Por problemas técnicos, se retrasó la producción de la Executive y la Vixen fue eliminada como proyecto. Como resultado, los consumidores dejaron de comprar la máquina original, a la espera del nuevo modelo, que a su vez no estaba en el mercado. Esta situación, llevó a la empresa a la quiebra.

En un libro que publicó posteriormente, Osborne atribuyó el fracaso a lo que denominó el hipercrecimiento. Un caso que podemos atribuir a un problema de marketing, específicamente de comunicación; anunciar un producto más avanzado, que no se poseía, lo cual por lógica anulaba la venta del producto en stock, más antiguo. Es lo que entendemos una falla estratégica, lo que lleva a la muerte del proyecto, que no obstante sería retomado por otras empresas del sector, dado que si algo había demostrado Osborne, era visualizar hacia donde se encaminaba la naciente industria; los usuarios y consumidores, necesitaban la movilidad del artefacto que no solo era fuente de información, sino también de comunicación[16].

El otro hecho que vamos a citar es el del Epson HX-20, que si bien no fue el primer portátil, es casi coincidente con el Osborne, lo cual es demostrativo del camino que estaba emprendiendo la computadora personal y como los distintos actores, estaban analizando la potencial evolución del sector.

Este equipo fue anunciado en 1981 –si bien fue comercializado en 1982- y según Velasco (2011), era una computadora, aunque parecía una calculadora.

Su peso era de 1,7 kg. en el tamaño de una hoja A4, con teclado y batería con unas 50 horas de autonomía, almacenando los datos en una micro-cinta integrada.

Los dos casos descriptos, se han tomado como hitos, ya que los mismos estaban marcando el camino de una nueva genealogía dentro de las computadoras personales y, a la vez, disparando un proceso que, junto a los hechos expuestos con anterioridad, marcaban una transformación irreversible en el campo de la información y la comunicación.

Todavía faltaban y se producirían, muchos hitos que progresivamente, llevarían a las computadoras personales a la configuración de un sistema tecnológico como lo conocemos en nuestro presente, así como a su posterior integración con otros dispositivos y con la red Internet, que finalmente configuraría un nuevo mercado.

 

IV.- Conclusiones

 

Se ha establecido en el desarrollo del artículo, como la evolución de la computadora personal, debe ser estudiado en el marco de una más amplia historia de las computadoras; aunque representa una genealogía alternativa, a partir de la década de 1960.

Si bien solo se han considerado, como se explicitó al inicio, algunos hitos que se considera que marcan la tendencia en todo el proceso descripto, esto ha permitido observar, como los cambios tecnológicos y, los cambios sociales consecuentes, son el producto de una larga duración en la historia. Un desarrollo que es necesario estudiar en su totalidad, para comprender sus causas y las fuerzas sociales que intervienen en cada etapa en el mismo.

En ese sentido, también se puede visualizar en el trabajo, como el desarrollo de la informática, debe ser analizado como una cuestión sistémica del desenvolvimiento de las fuerzas productivas en la sociedad. Esto último es determinante, ya que no solo es el capitalismo el que produce el surgimiento de un nuevo artefacto y su posterior evolución, sino que hemos visto como en un país que se denominaba socialista, donde no existía la propiedad privada de los medios de producción, como la U.R.S.S., también se produjo este desarrollo, aunque por otros caminos tecnológicos.

De hecho, Marcuse (1985; 181), en una obra original de 1954, ya planteaba como “un computador electrónico puede servir igualmente a una administración capitalista o socialista”. A pesar de que expone, como Marx refuta esta supuesta neutralidad, sostiene más adelante que “…cuando la técnica llega a ser la forma universal de producción material, circunscribe toda una cultura, proyecta una totalidad histórica: un mundo”. De alguna manera, estaba prefigurando la situación del estado actual de desarrollo de la tecnología[17].

Pero por las características del proceso, queda claro que las computadoras, fueron impulsadas desde sus primeros pasos, por el progreso del sistema capitalista, de la misma manera que la máquina de vapor o el crecimiento de los ferrocarriles, deben ser puestos en interrelación con el propio acontecer del sistema.

Otro tema que hemos tratado, se refiere al papel que jugaron los distintos actores sociales en esta transformación. Actores que conforman lo que Pinch y Bijker (2008), denominan los grupos sociales relevantes, término bajo el cual agrupan a instituciones y organizaciones, así como grupos de individuos organizados o desorganizados, para los cuales el artefacto bajo estudio posee algún significado.

Así, los gobiernos y, en especial, la industria militar, ocuparon un lugar prominente en el siglo XX, que posteriormente iba a ser ocupado por la empresa privada; aunque algunos gobiernos, nunca dejaron de constituirse como base económica, científica y tecnológica de estos procesos[18].

Pero hay que destacar, que en toda nuestra descripción, lo que surge como novedoso, es el lugar ocupado en el desarrollo de la computadora personal, por las grandes empresas y de su contrapartida, pequeñas compañías que nacían como resultado de este nuevo mercado.

Ya hemos señalado como, los primeros intentos no aparecen solo en los EE.UU, sino también, en Francia o en Italia. Pero se puede observar como en el primero, grandes compañías que tenían la delantera tecnológica, como el caso de Xerox o de IBM, no fueron finalmente quienes se apropiaron del mercado resultante[19]; de la misma manera, que muchas organizaciones que tomaron la delantera tecnológica, desaparecieron posteriormente.

Pensamos que esta situación obedece a la convergencia de distintas causas, como puede ser por una parte el hecho, de que las grandes compañías, se encuentran muchas veces ancladas en el éxito de sus productos y en su poder de participación en el mercado, lo que les imposibilita observar como esos mercados, pueden transformarse o desaparecer, al compás del surgimiento de tecnologías innovadoras; es el caso que denominamos los competidores amplios, que terminan reemplazando a los mercados y/o productos existentes.

Situaciones como el del mercado de la fotografía, donde las marcas tradicionales fueron desplazadas, ante el surgimiento de las tecnologías digitales, por marcas de productos de consumo hogareño o, posteriormente, el caso del mercado de cámaras fotográficas sucumbiendo, a nivel masivo, ante el de los teléfonos celulares.

Pero otra de las causas entendemos se vincula a las características de los nuevos productos, como hemos visto en el desarrollo de las computadoras personales, donde son necesarios distintos procesos de ensayo y error, hasta alcanzar la operatividad y posterior estandarización.

Lo expuesto, sin obviar el hecho de que las grandes organizaciones, como lo han demostrado en el curso de la historia, siempre están en condiciones, por su poder económico y financiero, de absorver aquellas empresas que poseen proyectos rentables en el largo plazo.

Otra cuestión a considerar, es el tema de la recepción por parte de consumidores y usuarios en todo este proceso. Tema que, más allá del poder de las empresas para imponer modelos y pautas de consumo, pensamos que es central, tratándose de mercados en formación.

Al interés de los nuevos actores empresarios del proceso, en fomentar el interés por las nuevas computadoras personales, a su vez impulsado por el sistema de los medios de comunicación –ya ha sido mencionado el papel de Popular Electronics como ejemplo-, hay que sumarle los propios intereses de los futuros consumidores del producto.

Entre éstos últimos, encontramos dos grupos diferenciados y a su vez interrelacionados: el conjunto de las empresas y los consumidores finales. Los primeros, interesados en el potencial del nuevo artefacto, por las transformaciones que posibilitaba en la organización del trabajo, así como en el consecuente procesamiento de la información y su utilización en los negocios.

Y los segundos, por el potencial que significaba en la comunicación y el entretenimiento, además de haber asumido un discurso que les instaba a tomar los procesos en sus manos, hecho que indirectamente –y paradójicamente-, estaba trasladando muchas de las actividades de los negocios al propio consumidor, sin su contrapartida en los precios.

Pero los consumidores, también fueron demandando una estandarización de productos y programas, para que se pudiera justificar acceder a las nuevas computadoras, ya que las mismas debían ser compatibles en todo el sistema comunicacional; solo de esta manera tomaban sentido las promesas sobre las perspectivas del nuevo artefacto.

Si bien lo que hemos delineado son solo las bases del tema en cuestión, ya que el mismo deberá ser profundizado en nuevas investigaciones, constituye sin duda un punto de partida para entender este proceso –que comprende en nuestro análisis el período desde la década de 1960 hasta 1981, donde se puede decir que se dispara la estandarización-, posibilitándonos comprender el desarrollo de este producto tan particular, como partícipe necesario en la construcción de todo un modelo de nuevas relaciones sociales en el sistema capitalista. Pues como sostenía Neil Postman (1998), si hay algo que caracteriza al cambio tecnológico, es que el mismo es ecológico, pues se difunde e impacta en todas las esferas de la sociedad.

 

Bibliografía y Fuentes

 

Bush Vannevar. As we may think. The Atlantic Monthly, Julio 1945. Disponible en: https://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/

Coello Coello Carlos A. La primera portátil de la historia. Soluciones Avanzadas. Tecnologías de Información y Estrategias de Negocios, Año 7 N° 72, México, 15 de Agosto de 1999. pp. 4-6.

Cómo llegó el fin de Xerox, la compañía que inventó las fotocopiadoras y las primeras computadoras personales. BBC Mundo, 5 de febrero de 2018. Disponible en: https://www.bbc.com/mundo/noticias-42913422  

Duer Walter. La Mac cumple 20 años. Diario La Nación, Suplemento Mi PC, Buenos Aires, 26 de enero de 2004, pp. 1, 4-5.

Fernández T. y Tamaro E. Biografía de Konrad Zuse. Biografías y Vidas. La enciclopedia biográfica en línea. Barcelona, España, 2004. Disponible en: https://www.biografiasyvidas.com (Fecha consulta: 7 de julio de 2022)

Franco Alejandro. Tecnología: historia de la PC. Disponible en: www.datacraft.com.ar/informática-historia-pc/

History Computer Staff. Xerox NoteTaker. 20 de marzo de 2022. Disponible en: www.history-computer.com/xerox-notetaker-guide/

Lamarca Lapuente María Jesús. Hipertexto. El nuevo concepto de documento en la cultura de la imagen. Disponible en: https://hipertexto.info/documentos/h.hipertex.htm  

López José María. Univac, la computadora que inspiró a Asimov. 22 de diciembre de 2018. Disponible en: https://hipertextual.com/2018/12/univac-computadora-inspiro-asimov

López José María. Olivetti, en busca del ordenador perfecto. 16 de marzo de 2019. Disponible en: https://hipertextual.com/2019/03/historia-ordenadores-olivetti?utm_source=Hipertextual+Newsletter&utm_campaign=03452a9c77-Newsletter+Hipertextual&utm_medium=email&utm_term=0_e9ffbde302-03452a9c77-81851501 

López José María. Cómo inspiró Popular Electronics el nacimiento de Microsoft. 29 de mayo de 2021. Disponible en: https://hipertextual.com/2021/05/revista-popular-electronics-microsoft-paul-allen

Marcuse Herbert. El hombre unidimensional. Ensayo sobre la ideología de la sociedad industrial avanzada. Planeta Agostini, España, 1985.

Moledo Leonardo y Kukso Federico. Soft Byron. Diario Página 12, Buenos Aires, 19 de septiembre de 2004.

Molinari Carlos A. J. El arte en la era de la máquina. Conexiones entre tecnología y obras de arte pictórico 1900-1950.Buenos Aires, Teseo, 2011.

Pinch T. y Bjiker W. La construcción social de hechos y artefactos: de cómo la sociología de la ciencia y la sociología de la tecnología pueden beneficiarse mutuamente. En: Thomas H. y Buch A. (comp.). Actos, actores y artefactos. Sociología de la tecnología. Universidad Nacional de Quilmes, Buenos Aires, 2008.

Postman Neil. Five things we need to know about Technological Change. Congreso Internacional de Nuevas Tecnologías y persona humana: Comunicando la fe en el Nuevo Milenio, Denver, EE.UU.,  28 de marzo de 1998. Disponible en:  

https://web.cs.ucdavis.edu/~rogaway/classes/188/materials/postman.pdf

Rus Cristian. El ordenador soviético que funcionaba con agua en vez de electricidad. 27 de Julio de 2000. Disponible en: https://www.xataka.com/historia-tecnologica/ordenador-sovietico-que-funcionaba-agua-vez-electricidad#:~:text=Uno%20de%20los%20m%C3%A1s%20interesante,dinero...%20con%20agua.

Sametband Ricardo. Cómo se gestó la Personal Computer. Diario La Nación, Suplemento Informática, Buenos Aires, 13 de agosto de 2001, p. 6.

Sametband Ricardo. Mark Dean, el hombre que creó la cara de la primera PC. Diario La Nación, Suplemento Tecnología, Buenos Aires, 14 de agosto de 2006, p. 8.

Sametband Ricardo. El hombre que inventó el mouse. Diario La Nación, Suplemento Mi PC, Buenos Aires, 7 de octubre de 2002, pp. 1, 4-6.

Velasco J. J. Historia de la tecnología: el primer ultraportátil de la historia, el Epson HX 20. 15 de Agosto de 2011. Disponible en: https://hipertextual.com/2011/08/epson-hx-20-primer-ultraportatil-historia

Velasco J. J. Historia de la Tecnología: Commodore PET. 7 de marzo de 2013. Disponible en: https://hipertextual.com/2013/03/commodore-pet-historia

Wozniak Steve y Smith Gina. IWOZ. Steve Wozniak, de genio de la informática a ícono de culto. De Rasche y Pereira Menaut, Madrid, 2013.

Páginas de Internet consultadas:

www.fujitsu.com

www.scelbi.com

 

 

 

 

 



[1]  Debemos decir que este desarrollo, lentamente, se había iniciado ya mucho tiempo antes.

[2] Aunque se trataba de un invento de James Thomson, del año 1876.

[3] En 1956, en el MIT se había construido la que se conoce como la primera computadora en la historia transistorizada, la TX-O, pero la misma solo tenía objetivos de investigación. También en 1959, la empresa japonesa NEC, construyó la NEAC 2201, totalmente transistorizada.

[4] Entendemos por cambio tecnológico, no simplemente una modificación o avances dentro de una misma tecnología, sino las rupturas que se producen en relación con la tecnología existente y, que a su vez, disparan un proceso que impacta en otras tecnologías y en el conjunto de las relaciones sociales.

[5] Debemos señalar igualmente que “larga duración”,  también es un término con contenido histórico, pues el plazo del mismo tomará sentido en cada período analizado.

[6] Sin debatir en este trabajo, acerca de si lo que se estaba construyendo era realmente socialismo, o estaba derivando hacia otro tipo de estructura social.

[7] Como dato complementario, la patente del Mouse quedó en el Stanford Research Institute, que más tarde lo licenció a Apple por U$S 40.000.- Engelbart recibió U$S 10.000.-

[8] Igor Anssoff define esta tasa como la velocidad con que los nuevos productos y servicios invaden los mercados. (Ver: Ansoff H. Igor y McDonell Edgard J. La dirección estratégica en la práctica empresarial. Addison Wesley Iberoamericana S.A.: México; 1998. pp. 9-10). En un sentido amplio, lo entendemos como la velocidad desde el proceso de investigación e innovación hasta el consumo.

[9] Para López (2019), la paternidad de la computadora personal se atribuye al IBM 610, de 1957, que era de menor tamaño que las computadoras de ese momento, pero tenía el objetivo de que pudiera ser operada por cualquier persona, aunque no fuera un ingeniero. Entonces, se la podría entender como la paternidad conceptual de las computadoras personales. En cuanto a la primera, se puede decir que la Programma 101 de Olivetti también podría reclamar este lugar.

[10] “Lo que ves es lo que tienes”.

[11] Como antecedente, en el año 1974, Scelbi Computer Consulting, desarrolló asimismo un hardware y software basado en el procesador Intel 8008, que estaba disponible en kit pero también se vendía ensamblado, una producción que fue abandonada en poco tiempo. El equipo, igual que después la Altair, tenía un panel frontal con interruptores.

[12] No ha sido posible para esta investigación, constatar la cantidad exacta de unidades vendidas.

[13] Hay que destacar, que todavía se trataba de un proceso lento y complejo para estos años.

[14] Se debe señalar igualmente, que en 1975, la empresa había lanzado al mercado una minicomputadora de escritorio, la IBM 5100, si bien de precio excesivamente elevado.

[15] Las relaciones entre las innovaciones de las empresas y lo fortuito, el azar, ya han sido exploradas por el autor de este artículo en: Molinari Carlos A. J. Estrategia e Innovación ¿Dimensiones en conflicto? Anales de la Facultad de Ciencias Empresariales, Universidad Abierta Interamericana, Tº I Nº 2, Buenos Aires, 2005. pp. 163-177, lo que nos exime de profundizar en el tema.

[16] Aunque para completar este proceso, todavía faltaban muchos años, hasta la llegada de Internet abierta al público, lo que terminó de configurar todo un nuevo y amplio mercado, cuya descripción y características exceden este artículo.

[17] Queda por fuera de los objetivos de este artículo, el debate de la cuestión de la neutralidad de la tecnología y de los artefactos.

[18] El caso de la evolución de la red Internet, que se constituyó en la plataforma del desarrollo de las tecnologías digitales, que no hemos tratado en este trabajo por quedar fuera de nuestro espacio cronológico, es claro al respecto.

[19] Aunque hay que resaltar, que el posterior devenir de todo este proceso, demostró que el verdadero corazón del mismo no era tanto el artefacto, sino sus programas.

martes, 9 de agosto de 2022

 


 

 

Carlos A. J. Molinari. La Responsabilidad Social Empresaria en el Capitalismo Tardío. Historia, concepto y cambio de paradigma. Editorial Biblos, Buenos Aires, 2022.

En un debate que ha ganado intensidad en el conjunto social, la responsabilidad de las empresas sobre sus acciones e impactos, forma parte de las preocupaciones de los ciudadanos, ante el papel rector que como actores sociales, desempeñan las organizaciones lucrativas.

En ese sentido, este libro parte de la pregunta sobre la posibilidad de la existencia de la responsabilidad de la empresa hacia la sociedad de la que forma parte.

La obra se plantea entonces, varias líneas de trabajo. Primero, un análisis histórico, que posibilita visualizar como la responsabilidad de las actividades lucrativas, por sus acciones hacia el conjunto de la sociedad, no representa algo novedoso en la historia, sino que siempre la legislación o la moral, impusieron un límite a estas actividades.

Pero es con el capitalismo, que se produce esa gran transformación de la primacía del homo economicus, donde la competencia y el individualismo son exacerbados, para transformarse en modelos de comportamiento social.

Este proceso que hunde sus raíces en la Edad Media europea, alcanza su clímax en los inicios del siglo XX, donde frente a los cuestionamientos sociales y las luchas políticas resultantes, las instituciones académicas y las empresas, comienzan a gestar este concepto de responsabilidad social empresaria, como acto voluntario de las organizaciones lucrativas, comprometiéndose con los objetivos sociales.

Así el libro analiza, las distintas ideas en debate sobre el tema en el transcurso del siglo XX e inicios del XXI, a la vez que contrasta el discurso empresario, con las acciones concretas que se implementan cuando se deja a estas organizaciones libertad de acción.

El estudio del tema, es realizado no solo desde el campo de la gestión de organizaciones o de la economía, sino también incorporando los aportes de disciplinas como la historia, el derecho, la filosofía y la sociología.

Asimismo, en el análisis de las distintas posiciones sobre el tema, es posible detectar como surgen distintas posiciones, que a su vez se pueden agrupar en corrientes, desde aquellas que niegan la responsabilidad social, centrando el papel de las empresas en generar ganancias, hasta las que proponen un nuevo tipo de empresa.

Dada la imposibilidad, demostrada en los contrastes entre discurso de responsabilidad y acciones de las empresas, de generar una auténtica responsabilidad de las organizaciones lucrativas hacia la sociedad, se impone la búsqueda de una salida a este auténtico “nudo gordiano”.

La propuesta del libro es entonces cambiar el paradigma sobre el cual se sostiene la idea de una responsabilidad de las empresas hacia la sociedad, transformando la voluntariedad en un auténtico control colectivo. 


sábado, 4 de junio de 2022

 

LAS TECNOLOGÍAS DIGITALES Y LA TRANSFORMACIÓN

DE LA EDUCACIÓN SUPERIOR

 

Dr. Carlos A. J. Molinari

 

Las tecnologías digitales, se han constituido en un catalizador de profundos cambios en el seno de nuestra sociedad contemporánea, aun considerando que las mismas no son una variable autónoma, sino que son el producto de cambios en la esfera económico-social que las posibilitan.

En este marco, la Universidad, tanto en lo que hace a su modelo de gestión como en el propio modelo académico, no puede ni debe quedar aislada de su progresiva implementación, ya que posibilitan insertar a esta institución en una sociedad en movimiento, sin que esto implique plantear forma alguna de determinismo tecnológico o tecnotriunfalismo.

En este sentido, la utilización de las TIC's y las redes, están creando nuevos modelos de vincularse con los alumnos y entre los docentes, así como de éstos con la estructura de soporte administrativa y académica, que pueden y deben ser impulsados como parte de una mejora en el proceso educativo.

Nuevas formas de comunicarse dentro y fuera de los cursos, modelos novedosos de investigar y ampliar el acceso a datos e información, cursos a distancia semipresenciales y virtuales, cursos gratuitos hacia la comunidad, repositorios digitales, son algunas de las formas que puede asumir la utilización de estas tecnologías en las instituciones de educación superior.

Este trabajo, tiene como objetivo explorar la utilización de estas tecnologías digitales, como un instrumento para mejorar la gestión administrativa y académica de las instituciones de educación superior, así como los procesos de estudio e investigación.

Considerando lo expuesto en el primer párrafo, más allá de los objetivos específicos expuestos, es imposible soslayar en el mismo una visión integral de la sociedad y de sus interacciones con la tecnología, pues caso contrario se correría el riesgo de abordar el problema desde una visión parcial, lineal y mecanicista.

 

Impacto de las TIC’s en el proceso educativo

 

En una primera instancia, se trata de analizar cuál es el impacto que están teniendo estas tecnologías en la educación, independientemente de los niveles educativos o la ubicación geográfica de la población observada. Pero especialmente considerando, el acelerado proceso de implementación y adaptación a las mismas, desde el año 2020, producto de la situación de pandemia; hecho que obligó a las instituciones educativas a saltar etapas y procesos para abordar la nueva situación.

Vamos a iniciar este análisis, con unas reflexiones de Umberto Eco (2007, dedicadas a la cuestión de para qué sirve un profesor. El intelectual italiano, plantea como la red Internet, transformada en una gran enciclopedia, puede proporcionar todos los datos que se necesiten, pero lo que transforma a una clase en una buena clase, no son los datos que se transmiten, sino el hecho de provocar el diálogo y la confrontación de opiniones.

También sostiene que la red proporciona datos sin fin, pero hace falta verificar la información; hay que saber buscarla, filtrarla, seleccionarla, aceptarla o rechazarla, así como también es necesario establecer la relación sistemática entre las nociones que aparecen en la red.

Igual, como dice Eco, no vamos a recordar todo, pero decidir que vale la pena recordar y que no, es un arte sutil.

Este artículo representa una plataforma, a partir del cual se puede pensar el papel de las tecnologías digitales y la inteligencia artificial en el aula, en relación con el rol del docente y los objetivos del proceso educativo.

En un trabajo publicado por la Fundación Telefónica de España (2018) -sin entrar a considerar aquí las intencionalidades del mismo-, se analizan algunas cuestiones que se relacionan con la tecnología y su implementación en el aula.

En ese sentido, lo primero a destacar que se considera relevante para nuestros objetivos, es que plantea como las tecnologías pueden reemplazar tareas rutinarias, pero no pueden reemplazar –por lo menos en el actual momento del desarrollo de las mismas decimos nosotros-, la capacidad de los humanos de resolver problemas. Pero esta capacidad, vinculada al pensamiento crítico, la creatividad o la innovación, para que se traslade a los alumnos, necesita de docentes y de planes de estudios que las incentiven. No basta con que las tecnologías digitales estén colonizando todas las dimensiones de lo social; esto no alcanza para trasladarlas automáticamente al sistema educativo.

Se trata por lo tanto, de comenzar a pensar no solo cómo se utilizan estas tecnologías en el aula, sino para qué se utilizan, o sea, qué relación tienen con las prácticas pedagógicas.

Otra información significativa en el trabajo citado, es el estudio que enfocado en alumnos de educación media y superior, reporta las causas del rechazo a la escolarización de la tecnología. Estas cuatro causas son:

a) Los alumnos piensan que sin esas tecnologías, se podría haber trabajado igual el tema, pues el uso que les da el docente es irrelevante.

b) Los alumnos deben realizar un mayor esfuerzo para obtener los mismos resultados.

c) Los alumnos están acostumbrados a las metodologías tradicionales y más, cuando el uso de la tecnología es para promoverlas.

d) La privacidad de los adolescentes, entendiendo que las redes son un medio de comunicación y de relación con sus pares, sin que los docentes participen.

También se plantea en este trabajo, la cuestión desde el docente, el cual percibe un mayor esfuerzo al incorporar las TIC’s en el proceso educativo y no consigue una ganancia en los resultados obtenidos.

Es necesario señalar, que el hecho de la incorporación masiva de sistemas de videoconferencia, a partir de la situación de pandemia, no ha modificado lo expuesto, pues solo se trata de sistemas de comunicación, que dependen en todo caso de su utilización pedagógica.

La problemática de los resultados adquiere relevancia, ya que según el trabajo citado, los estudios de impacto estarían mostrando que en países de América Latina, las políticas nacionales de educación y tecnología, no han sido lo suficientemente fuertes para obtener resultados distintos a los que se obtenían previamente.

Asimismo, en el estudio se resalta una cuestión, que estaría marcando el camino complejo que implica la implementación de las TIC en el aula. Según los resultados PISA 2012 –e independientemente de la posición del autor de este trabajo frente a éstos análisis- países que se encuentran en los primeros lugares como Finlandia, Corea del Sur o Japón reportan un bajo uso de tecnología en centros educativos, mientras que otros países que también se encuentran en los primeros lugares, como Singapur, Estonia o los Países Bajos, tienen una utilización mayor de tecnología.

Pero más allá de experiencias como las descriptas, surge con fuerza la idea de la necesidad de integrar las nuevas tecnologías digitales con la educación y, en nuestro caso de estudio, con  la educación superior.

En un trabajo de Javier Jiménez et al. (2015), los autores señalan como las estrategias vinculadas a la introducción de tecnologías en las aulas, hacen hincapié en el acceso a las mismas a partir de la conectividad y la incorporación de computadoras, la capacitación de los profesores y los cambios en el currículum, que incluyan componentes vinculados a la tecnología, pero marcando la tendencia a ignorar los resultados poco efectivos en la incorporación de la misma, lo que conduce a reemplazar un problema educativo por otro; tema éste que se vincula con el estudio anteriormente citado de la Fundación Telefónica.

Describen asimismo quienes son, a su criterio, los principales actores que están impulsando nuevos paradigmas en la incorporación de nuevas tecnologías en las aulas: la UNESCO, los Foros Mundiales y la OCDE.

En ese sentido, la UNESCO piensa las TIC como portadoras de desarrollo, otorgando nuevas cualidades a la tecnología, como calidad y equidad de oportunidades.

La organización, estima que es fundamental la producción de políticas públicas de TIC en la educación, promoviendo tres etapas, que consisten en facilitar la estructura tecnológica en los centros educativos y capacitación a los docentes, asegurar condiciones de uso de las TIC en los procesos de enseñanza aprendizaje y, por último, crear condiciones ideales para que las TIC formen parte de la dinámica educativa, a partir de su apropiación social. 

Otro de los actores que impulsan la relación entre tecnología y educación, son los Foros Mundiales, para los que, en palabras de los autores citados, “la tecnología en la educación ya no es una opción, se ha convertido en un imperativo”.

Un dato relevante a destacar, es que entre los compromisos del Foro Mundial de la Educación en Dakar del año 2000, aparece la revalorización de la presencia del libro, como instrumento imprescindible de acceso a la cultura y como medio fundamental para utilizar las nuevas tecnologías.

No se trata de un tema menor, ya que muchos de los planteos vinculados a las nuevas tecnologías digitales y su implementación en procesos educativos, hacen hincapié en la cultura visual de las nuevas generaciones, olvidando la integración de la cultura escrita como una herramienta imprescindible. El objetivo entonces no es el reemplazo del libro, sino su integración en otros formatos de lectura, con otros soportes alternativos, que faciliten su acceso a nuevas generaciones de estudiantes, docentes e investigadores. 

Finalmente, el otro actor analizado por estos autores es la OCDE (Organización para la Cooperación y el Desarrollo Económico), cuya posición es que la introducción de tecnología en las escuelas, se ha convertido en una competencia básica, igual que la lectura, las matemáticas y la escritura, siendo un requisito para conseguir empleo y una oportunidad para el desarrollo económico.

Al plantear la OCDE, la introducción de tecnologías digitales en la educación como una competencia básica para conseguir empleo, se entiende que se deja de lado el eje del debate, que es el papel que pueden jugar estas tecnologías en el mejoramiento del proceso de enseñanza aprendizaje, en la calidad académica y en el desarrollo del pensamiento crítico, que son los temas prioritarios para el debate en la Universidad, en relación con el tema, sin que esto implique que la cuestión del empleo deba ser soslayada en los análisis, pero no priorizada; pues el empleo se relaciona con otras variables y no solo con la educación.

Hay que resaltar, que tanto en el trabajo de la Fundación Telefónica como en los encuadres de UNESCO, Foros Mundiales y OCDE, aparece ausente la dimensión de la política o, cuando aparece, lo hace solicitando a los estados nacionales inversión en hardware, software o capacitación docente. Pero lo que está ausente es la espacialización de esas inversiones, como si todos los países o regiones estuvieran al respecto en un nivel de igualdad, así como su encuadre en las estrategias sociales, de manera que la aplicación de tecnologías digitales al aula, resolvería ‘mágicamente’ cuestiones como la desigualdad, la pobreza, el desempleo, el acceso a la salud o el desarrollo de innovaciones –técnicas y sociales-, que toda sociedad necesita en el camino del progreso.

Por ello resulta esclarecedor el trabajo de Pérez Lindo (2008), que va más allá de los instrumentos y analiza la gestión del conocimiento en la Universidad, como un concepto totalizador, introduciendo en el debate la dimensión de la política.

El autor plantea que la eficacia social de la Universidad, depende de la articulación de la misma con la sociedad, el Estado y la economía; una articulación que depende del modelo cultural de desarrollo que se adopta. Entonces, es en estas relaciones donde hay que ubicar las nuevas tecnologías digitales en el proceso educativo.

También llama a no confundir la universidad práctica con la universidad empresarial o corporativa; además de que el conocimiento práctico, la ciencia aplicada, no es suficiente para la creatividad científica, para la cual es necesaria también la especulación teórica y las creaciones culturales, con lo cual da un marco para pensar la universidad y los métodos pedagógicos, así como su vinculación a las nuevas tecnologías digitales y las transformaciones consecuentes.

Otro de los temas que analiza, que se vincula con la adopción de nuevas tecnologías digitales, es el del uso de los conocimientos que se generarían con éstas; si bien hay que destacar que el autor solo toma el tema de la informatización como telón de fondo de sus análisis. Pero lo relevante, es que su pregunta se refiere a cómo resolver el problema del uso social de los conocimientos. Obsérvese que se regresa a la cuestión de los objetivos políticos a obtener con la tecnología, más allá de la tecnología en sí.

Finalmente, este autor propone una serie de aplicaciones de la gestión del conocimiento en la universidad –en la que incluimos nosotros en esta etapa histórica a las nuevas tecnologías digitales-, de las cuales tomaremos tres que se entiende se relacionan en forma directa con el objetivo fijado para este trabajo: la gestión administrativa, la gestión académica y la gestión pedagógica.

De la primera, rescatamos el concepto de organización inteligente basada en la informatización y en la centralidad de los procesos del conocimiento; la implementación de políticas de información y una nueva gestión del personal.

De la segunda, su idea de superar la fragmentación disciplinaria e institucional, promoviendo la cooperación intra e interinstitucional, mediante programas horizontales e interdisciplinarios. También rescatamos su propuesta de desprivatizar la posesión de cátedras, carreras o áreas académicas y encarar la internacionalización de los intercambios académicos.

Y de la tercera, su llamamiento al abandono del currículum rígido y cerrado, para dar lugar a sistemas abiertos y flexibles; la posibilidad de que en todas las carreras existan materias electivas en cualquier universidad de la Argentina o del exterior y enseñanza bi-modal –presencial y a distancia-[1], igual que la enseñanza virtual.

Estas aplicaciones, podrían convertirse en parte de un programa de trabajo cuando se priorizan los objetivos a alcanzar, a partir de la aplicación educativa y de gestión de nuevas tecnologías digitales.

Alejandro Piscitelli (2015), realiza un aporte significativo en este debate, cuando sostiene como las nuevas tecnologías digitales, no solo están modificando la educación superior, sino que conducen necesariamente a un nuevo modelo de Universidad; planteo que lo realiza desde la visión de las humanidades digitales.

La pregunta que se hace Piscitelli, es hasta qué punto la tecnología digital está cambiando una forma de enseñar y aprender, que permaneció incólume a lo largo de casi un milenio. Independientemente de que no se coincide con que la forma de enseñar y aprender haya permanecido incólume en el último milenio, la cuestión planteada en la primera parte de su pregunta, se entiende tiene total pertinencia para nuestro momento histórico.

Entonces este autor, parte de la premisa de que estamos inmersos en entornos físico-digitales, pero que no estábamos acostumbrados a poner a las redes sociales y al comportamiento colectivo ‘dataficado’ (sic) en un lugar privilegiado para generar nuevo conocimiento; agregando que estábamos acostumbrados a considerar que las bibliotecas alcanzaban y sobraban, para generar una hermenéutica del saber.

Frente al planteo, pensamos que en este caso, se impondría entonces redefinir el concepto de biblioteca, en un camino de integración entre papel y bits, o entre una necesaria convivencia entre lo analógico y lo digital.

Analizando el caso de las denominadas humanidades digitales –en las cuales incluye hasta los videojuegos y la cultura gamer-, Piscitelli las ubica como unas humanidades dadas vuelta. Según él, hay un doble proceso que éstas hacen posible: convertir archivos digitales en objetos físicos y la inversa.

Con este nuevo marco, aboga por la introducción masiva de tecnología en la Universidad, pero como este proceso hasta ahora ha producido resultados magros, propone definir nuevas competencias propias de los milenials, lo cual implicaría demoler el universo universitario tal cual lo conocemos; propone entonces integrar la formación lenta, con las demandas de rapidez que exigen la innovación, el mercado y la cultura del prototipeado.

Como conclusión, plantea que lo complejo no es la introducción masiva de tecnología, sino que el tema central es epistemológico, discursivo e ideológico, para que aprendamos a preguntar de nuevo y no hipotequemos la cultura de la búsqueda, en manos de los algoritmos.

Como cuanto más crece internet más difícil es encontrar algo, el reto no es el acceso sino prestar atención, para lo cual es necesario reinventar las universidades, desarrollar un nuevo normal educativo, que parece ser incompatible con las universidades tal cual las hemos conocido en el último milenio.

Aparecen en estas ideas de Piscitelli, algunas cuestiones que están más relacionadas con la forma, como el caso específico de las humanidades digitales; inclusive la idea de incorporar los videojuegos, aparece cuanto menos como desacertada, si lo que se está analizando son disciplinas en el marco de una institución portadora y creadora de conocimiento como es la universidad. Un juego es un juego, que pertenece a la cultura popular y sin dudas al ámbito de la historia cultural o la sociología, pero sigue siendo un juego.

Si no estamos mal interpretando a este autor, propone una integración entre la formación lenta -que sería la formación tradicional presente en nuestras universidades- y las demandas de rapidez que impone la actual coyuntura.

El problema es que también deja fuera del análisis la cuestión de la política, por lo que su lógica al pensar, por ejemplo, en la rapidez exigida por el mercado, es la lógica del sistema capitalista, para el cual todo es mercancía, inclusive la educación.

Esto no implica dejar de reconocer la importancia, en especial en carreras profesionalistas, de brindar al alumno herramientas que le posibiliten insertarse velozmente en la actividad elegida. Pero por más velocidad que se imprima al proceso educativo, siempre va a estar atrasado en relación con las nuevas técnicas y tecnologías, que se expanden en el nivel de lo social. Entonces, si siempre vamos a estar atrasados, ¿porqué la preocupación por lo más novedoso?; quizás lo más importante es que la universidad forme en una educación ‘lenta’, como la denomina, donde predomine lo conceptual. Quien maneja el concepto, quien comprende los contextos histórico-sociales, está más preparado para comprender cada nueva tecnología, así como sus potenciales usos y peligros.

Igual que en el caso de la innovación; quien necesita rapidez en las innovaciones es el aparato industrial-comercial, no las universidades, que deberían generar innovaciones al servicio de las necesidades sociales, garantizando no solo la potencial aplicación de las mismas, sino las prevenciones sobre su uso en cada caso.

Quizás podemos encontrar un exceso de tecnooptimismo en este autor, que mezcla en su artículo cuestiones técnicas con otras conceptuales.

Pero más allá de las puntualizaciones señaladas, no hay dudas de que los cambios tecnológicos, nos hablan de la necesidad de un nuevo normal educativo, como este autor lo denomina, que no sabemos si es incompatible con las universidades tal cual las conocemos, o si se trata de construir ese normal educativo, para que justamente sea compatible con un modelo de universidad abierta a las necesidades de su comunidad. De alguna manera lo expresa Piscitelli en forma contundente, cuando sostiene que el problema es epistemológico, discursivo e ideológico; entonces este es el nivel donde se debe situar el debate y no en la técnica y la tecnología.

Caso contrario, se correría el riesgo de confundir la forma con la cuestión de fondo, poniendo por delante las nuevas herramientas que nos brinda la tecnología. sin diseñar previamente que universidad, que docente, que alumno, que investigador, que graduado queremos formar para una determinada sociedad.

 

Nuevos desafíos para la Universidad

 

La situación creada a partir del crecimiento de las tecnologías digitales y su impacto en la actividad universitaria, tanto de docencia como de investigación, debe ser analizada a partir del nuevo contexto comunicacional en que se encuentra la sociedad en el presente momento histórico, cuyas características moldean tanto a docentes como alumnos y que aplicadas a nuestro objeto de estudio, se pueden describir como (Molinari, 2017):

 

a.- La convergencia creciente de los distintos dispositivos de conexión a las redes, su fecundación recíproca y la multicanalidad consecuente de los usuarios, transformando las actividades cotidianas en físicas y virtuales en simultáneo, superponiendo ambas dimensiones.

 

b.- Este nuevo entorno digital, promueve también la fecundación entre distintos saberes, a partir de la concurrencia de ciencias, técnicas, disciplinas, historias y conocimientos tradicionales.

 

c.- Alumnos y docentes, no solo navegan en las redes sino que las incorporan a su mundo vital, convirtiéndolas en un espacio superpuesto de entretenimiento y conocimiento, con las ventajas y el peligro que este hecho conlleva.

 

d.- Independientemente de la calidad de los mismos, la red Internet posibilita el acceso a datos casi sin límites, aunque esto se transforma en irrelevante, en la medida en que no exista en el ambiente de la enseñanza aprendizaje, una orientación para tamizar y organizar esos datos.

 

e.- El avance de la Inteligencia Artificial generará el desarrollo de capacidades vinculadas a la convergencia de las dimensiones física y digital.

 

Se puede decir entonces, que las distintas actividades de las universidades resultarán afectadas por el desarrollo de las tecnologías digitales, tanto de las aplicadas a la comunicación, como de aquellas vinculadas al aparato productivo.

En ese sentido, todas las actividades sustantivas de la universidad, sea la docencia, la investigación, la extensión a la comunidad, como el propio soporte de gestión de las mencionadas, están alcanzadas por ese impacto.

En la docencia, porque surge un nuevo alumno, más vinculado desde su nacimiento a la lógica de la dimensión digital, que de alguna manera reclama un entorno de aprendizaje, en el cual se encuentren incluidas aquellas tecnologías con las que opera en su vida cotidiana.

Esto no implica un simple cambio, pues la tecnología proporciona nuevos instrumentos, que sin los contenidos no tienen valor educativo.

Que un alumno en una clase tenga acceso a Internet, no significa como se plantea en muchos trabajos, que por eso tiene disponible toda la información. Primero porque en la red no está todo y, cuando esto sucede, no significa que se pueda acceder fácilmente a esos contenidos. La guía del docente para contrastar en la busca de veracidad en los datos o, para seleccionar lo que es relevante resulta indispensable. Además que es necesario aclarar, que lo que proporciona la red muchas veces son datos, lo cual es diferente a información o conocimiento, siendo éste último un estadio superior en el proceso educativo. Incorporar tecnología no significa reemplazar metodologías de probada eficacia, sino complementar para mejorar el proceso de enseñanza aprendizaje, dejando sí de lado solo aquellos métodos que puedan ser reemplazados, sin perjudicar el objetivo académico.

Por último, entre los desafíos no se pueden dejar de señalar algunos aspectos que hacen a las prácticas de alumnos y docentes en el ámbito áulico.

Una de las cuestiones en ese sentido, es lo planteado por Wexler (2020), en relación a su experiencia con alumnos de una escuela primaria en los EE.UU. que utilizaban tabletas para sus clases, pero no podían identificar el sentido de las palabras que utilizaban los dispositivos para las preguntas que se les hacían. Si bien se trata de una experiencia en una escuela primaria, lo que surge aquí, que se puede trasladar a todos los niveles educativos, es que uno de los problemas centrales está en el significado de las palabras, que los alumnos no comprenden; alfabetización no es solo leer, sino también comprender. Y uno de los problemas de las nuevas generaciones, es que utilizan las redes digitales, sin que esto implique una mejora en la comprensión de lo que leen.

Que los alumnos utilicen tecnologías y dispositivos para jugar o intercomunicarse con sus pares, no implica automáticamente que se puedan utilizar en un contexto educativo, pues éste último implica un nivel superior de comprensión del significado de las palabras, de los textos y del contexto bajo análisis.

Frente a lo expuesto, hay que considerar asimismo, que la interacción social –entendida esta entre los alumnos y de éstos con el docente-, resulta esencial en el aprendizaje. El dispositivo o el software, sin la guía del docente y el intercambio fecundo entre alumnos, es un proceso no podrá alcanzar resultados satisfactorios.

 

 

 

 

Bibliografía:

 

Eco Umberto. De qué sirve el profesor. Diario La Nación, Buenos Aires, Argentina, 21 de mayo de 2007. Disponible en:  https://www.lanacion.com.ar/910427-de-que-sirve-el-profesor

 

Estudio sobre la inclusión de las TIC's en los centros educativos de aulas. Fundación Telefónica de España, OEI, IESME, Madrid, España, 2018. Disponible en: https://www.fundaciontelefonica.com/arte_cultura/publicaciones-listado/pagina-item-publicaciones/itempubli/635/

 

Jiménez Javier, Bustamante Mónica y Albornoz María Belén. El problema del determinismo en las políticas de educación y TIC. En: Thomas Hernán et al. Políticas tecnológicas y tecnologías políticas. Dinámicas de inclusión, desarrollo e innovación en América Latina. Universidad Nacional de Quilmes, Buenos Aires, Argentina, 2015.

 

Molinari Carlos A. J. El aprendizaje en la Universidad. Lecto-escritura y nuevas tecnologías en la enseñanza de administración.  En: RedSociales Revista electrónica del Departamento de Ciencias Sociales, Universidad Nacional de Luján, vol. 4 N° 4, 2017. pp. 160-166. Disponible en: http://www.redsocialesunlu.net/wp-content/uploads/2017/08/RSOCO21-OBUN-2017.pdf

 

Pérez Lindo Augusto. Principios y aplicaciones de la gestión del conocimiento en la Universidad. En: Consejo de Decanos de las Facultades de Ciencias Sociales y Humanas (editor). Aportes de las ciencias sociales y humanas al análisis de la problemática universitaria. Prometeo Libros, Buenos Aires, Argentina, 2008.

 

Piscitelli Alejandro. Humanidades digitales y nuevo normal educativo. Telos Revista de Pensamiento sobre Comunicación, Tecnología y Sociedad, N° 101, España, junio-septiembre 2015. pp. 13-22.

 

Wexler Natalie. El lado oscuro del uso de dispositivos tecnológicos en las aulas. MIT Technology Review, 21 de enero de 2020. Disponible en: https://www.technologyreview.es/s/11731/el-lado-oscuro-del-uso-de-dispositivos-tecnologicos-en-las-aulas

 



[1] A partir de la situación de pandemia que hemos señalado, los sistemas bi-modales, han comenzado a ser considerados como parte de proceso educativo, tanto en grado como en posgrado, impuestos por ola propia práctica.