Buscar este blog

viernes, 5 de abril de 2024

 

CONOCIMIENTO E HISTORIA

Sobre el Pasado, el Presente y el Futuro

 

Es un lugar común encontrar en la teoría de la gestión de organizaciones, esencialmente cuando se piensa en términos estratégicos, frases como “construir el futuro”, asomarse al futuro”, diseñar el futuro”, u otras en la misma línea de pensamiento.

Pero no solamente en la gestión de organizaciones, sino también en otras áreas de las ciencias sociales, como la economía o la ciencia política –sin desdeñar otras disciplinas-, aparece esta preocupación por construir escenarios futuros.

Aunque podríamos decir que, de alguna manera, siempre existió en los seres humanos, la genuina preocupación por vislumbrar los acontecimientos futuros, así como moldearlos de acuerdo a sus intereses. Pero también la experiencia indica, que esos intentos en general han resultado vanos; si bien muchas veces, se pueden anticipar algunas ideas sobre sucesos futuros, algunas líneas sobre tendencias generales en la sociedad o, sobre desarrollos puntuales –en tecnología, en medicina, etc.-, solo se trata de acontecimientos en el corto plazo, por más difícil que resulte definir este término. En el transcurso de este trabajo, intentaremos profundizar en lo expuesto.

Entonces, lo que nos proponemos en este breve ensayo, es analizar que nos puede aportar la disciplina de la historia, para comprender la posibilidad de este tipo de ejercicio, así como las limitaciones que presenta.

En esta línea de pensamiento, debemos establecer en primera instancia, que entendemos, por lo menos en un sentido general, por hacer historia.

Lo primero que surge, por lo menos en su acepción más ‘vulgar’, es que la historia es el estudio y la narración de los hechos del pasado.

Pero, como sostiene Walter Benjamín[1], “La historia es objeto de una construcción cuyo lugar no es el tiempo homogéneo y vacío, sino el “tiempo actual”, que es pleno”. De lo que resulta que el historiador, reconstruye el pasado, a partir de determinadas preguntas que se hace sobre ese pasado, pero desde el presente en el que habita.

Entonces, se trata de una historia que se construye para responder a los problemas que nos enfrentamos en el presente y que impacta en éste. Por eso, Benjamin diferencia al historicismo, que nos muestra una imagen eterna del pasado, frente al materialista histórico que postula una experiencia única.

Claro que el pasado está constituido por hechos, aquello que sucedió, de lo cual existen documentos escritos, visuales, audiovisuales, así como registros arqueológicos, monumentos, arquitectura, obras de arte; lo que podemos asimilar a lo que los griegos denominaban alétheia, verdad. Siempre hay un núcleo de verdad en los hechos, que podemos reconstruir, aun cuando los mismos puedan haber sido manipulados o intentado eliminar de la historia. Sabemos que Alejandro Magno llevó a cabo su campaña de conquista sobre el Oriente, de la misma manera que no tenemos dudas que Napoléón fue derrotado en Waterloo o que en la Revolución Francesa, el rey y la reina fueron guillotinados.

Frente a estos hechos, existe lo que los griegos, en el campo de la filosofía, oponían a la verdad, que era la doxa, la opinión.

En este marco, es en el que trabaja el historiador, pues la opinión que emite sobre los hechos que está analizando, se encuentran determinados por su bagaje teórico por una parte –su ideología, su metodología de investigación-, que a su vez, pueden condicionar la selección que realiza de los hechos que va a analizar y los objetivos en el presente que se plantea con la investigación.

De acuerdo a la pregunta o preguntas a las cuales aspira a dar respuesta, elegirá determinados hechos, o fechas, o determinada documentación; en esta situación, aclaramos que partimos de la base de la honestidad intelectual de quien está realizando la tarea.

Por ejemplo, si estamos estudiando la historia de las técnicas fotográficas, podemos preguntarnos acerca del proceso que llevó al reemplazo de la fotografía analógica por la digital. En este sentido, una pregunta podría ser porqué Kodak, que en 1975, creo el primer prototipo de cámara digital, no continuó en ese sendero; o porqué los fabricantes tradicionales, que dominaban en el mercado de cámaras fotográficas, fueron superados por marcas sin experiencia en el tema, pero especialistas en mercados de electrónica de consumo masivo, cuestión que se repite con la incorporación de la fotografía en los teléfonos celulares.

Una respuesta, podría vincularse al hecho del poder de las marcas de consumo masivo en electrónica hogareña, o a la simplicidad del uso de las nuevas cámaras por parte de los consumidores; hecho que no es ajeno a la realidad, pero que solo araña una parte del problema.

Porque también nos podemos preguntar e investigar, acerca del abandono por parte de las marcas de consumo masivo, sólidas tecnológicamente, tanto de EE.UU. como de Europa, a favor de marcas japonesas en una primera instancia y, posteriormente, a favor de otros mercados asiáticos y China, en cuanto al proceso de producción.

Lo que nos conduce asimismo al tema de la globalización económica y, como consecuencia, a los procesos de monopolización que se fueron produciendo en los distintos mercados.

Esto sin contar con el poder de los medios de comunicación masivos, en los procesos de adopción de nuevas tecnologías por parte de los consumidores.

Estas preguntas podrían continuar, ampliando el campo de investigación, lo que nos posibilita en una primera instancia, extraer algunas conclusiones. Por una parte, que del recorte que haga el historiador de los hechos a incorporar, dependerá en última instancia, el resultado de la investigación. Y por otra parte, que ese recorte, se relacionará con lo que quiera demostrar, en función de sus implicancias en el presente.

Así podemos ver como la ideología[2] del investigador, es la que de alguna manera, produce las preguntas desde un presente que quiere validar a partir de la historia. Aunque nosotros diremos, que la honestidad intelectual, estriba en no ocultar hechos que contradigan los presupuestos; aun sabiendo que la información, en términos históricos, nunca será información completa, pues siempre nuevas investigaciones pueden dar lugar a nueva documentación o por la imposibilidad –como actitud consciente o no-, de acceder a toda la documentación posible sobre un hecho.

Por otra parte, debemos decir, que aunque el historiador se pregunta por el pasado desde el presente, no puede analizar la historia como en el presente, sino que debe ubicar los hechos en el contexto en que fueron producidos. No se pueden utilizar categorías del presente, para analizar hechos del pasado; no importa cuán lejano o cercano se encuentre ese pasado. La cuestión del contexto en que se producen los hechos, tiene tanta importancia, como la selección de los mismos.

No obstante, no hay que olvidar que nunca podremos saber exactamente como pensaban los seres humanos en el pasado, especialmente cuando ese pasado se va alejando en el tiempo; podemos inferir a partir de las fuentes, pero siempre seremos hombres del presente, no del pasado.

Lo que debemos hacer entonces, es intentar comprender el contexto en el cual, los hechos que estamos analizando se produjeron y, en función del mismo, exponer nuestras posiciones respecto de ellos.

Igual hay que marcar, que cuando los hechos se encuentran cercanos en el tiempo, esto no sería una limitación en cuanto a la comprensión de las ideas en circulación en una determinada sociedad, pero siempre considerando las particularidades del contexto bajo estudio.

Otra cuestión a resaltar, cuando se emiten opiniones sobre temas del pasado, es que no podemos conocer los aspectos subjetivos que condujeron a determinadas acciones a los individuos que actuaron en ese pasado. Cuando decimos opinión, estamos ingresando en el terreno total de la conjetura en este aspecto[3].

Es cierto, que siempre el historiador, se mueve en un área de conjeturas, cuando está emitiendo opinión sobre hechos pasados; cuánto más lejanos se encuentren en el tiempo, más se abre el campo a la conjetura.

A lo que denominamos un nivel insuprimible de conjetura, ya que nunca podremos acceder a la exacta verdad de los hechos; en especial en el pasado lejano. Aunque existan fuentes, estas fuentes son el producto de apreciaciones de quienes las produjeron; pero la tarea del historiador, es reducir al mínimo estas conjeturas, explorando todas las fuentes posibles. Así, su opinión estará basada en los hechos analizados y no en simples conjeturas, sobre lo que podría haber sucedido.

También debemos señalar en este trabajo, un punto sobre el que alerta Karel Kosik[4], acerca de la relación entre la historia escrita como un estudio de lo particular –los grandes hombres, los pequeños hechos- y la historia escrita como una gran corriente, en donde los pequeños hechos o los hombres particulares se diluyen. En ese sentido nos dice: “O ben lo general es absorbido por lo particular y la historia se vuelve no solamente irracional, sino también absurda en la medida que cada elemento particular toma el aspecto de lo general […] o bien lo particular es absorbido por lo general, los individuos no son más que instrumentos, la historia está predeterminada y los hombres solo la hacen aparentemente”.

La salida a esta encrucijada, la encuentra el autor cuando sostiene que “No se puede separar el “edificio” de la historia del “andamiaje” con cuya ayuda se ha construido el edificio. Lo particular y lo universal se interpenetran y el objetivo realizado es igual, en cierto sentido, a la suma de medios utilizados”.

Si hasta aquí hemos esbozado, de manera muy sucinta, nuestro concepto de historia, nos tenemos que preguntar, en función de lo que habíamos expuesto al inicio, como esta construcción de hechos del pasado, nos puede ser útil en el intento de predecir ciertas tendencias del futuro.

Y nos encontramos con un problema, que es que generalmente, partimos del presente, para pensar en términos de futuro.

Cuando, por ejemplo, en el campo de la economía y los negocios, se piensa en función de la evolución futura, se lo hace tomando como base, el estado actual de lo que estamos analizando, sea la macroeconomía o un mercado particular. Pero ese presente, no es un momento estático, un día, mes o año particular, sino que se trata de un presente en movimiento; resultado de acontecimientos pasados y en cambio permanente, como corresponde a todo desarrollo social. Cambios que obviamente, se pueden producir en días, meses, años, decenios, dependiendo de múltiples variables y del objeto de estudio en cada caso.

Marc Bloch[5], refiriéndose al problema del tiempo histórico, decía que el tiempo verdadero es, por propia naturaleza un continuo, pero también un cambio perpetuo.

Decíamos entonces, que se trata de acontecimientos como resultado de un desarrollo histórico, pues es el pasado el que los construyó como tales. Por lo tanto, la historia va a ser parte inseparable de la construcción de esa idea sobre el futuro; o de su posterior explicación.

Inclusive podemos decir, que el presente es inasible, en la medida que al estar siendo transitado, nos permite captar acontecimientos parciales, pero se dificulta ubicarlos en el gran proceso de la historia, ya que la misma está siendo construida.

No estamos diciendo, que no se pueda historizar sobre lo que está sucediendo; lo que expresamos, es la dificultad de construir sobre lo que sucede, ya que siempre nuestra información será incompleta. Pero debe quedar claro, que esto lo estamos pensando desde la óptica del historiador.

Si este presente, lo enmarcamos en los acontecimientos históricos y, desde ellos, intentamos vislumbrar potenciales acontecimientos futuros, entonces la historia como disciplina, como ciencia, tiene algo para decirnos.

Se podrá decir, que muchos hombres, y no pertenecientes justamente a la disciplina de la historia, han predicho de alguna manera invenciones futuras. Leonardo Da Vinci, Jules Verne, Herbert G. Wells –aunque este último también fue historiador[6]-, son solo algunos de los nombres que pueden citarse en esta genealogía, compuesta por muchos escritores de lo que denominamos ciencia ficción. Pero en realidad, estos hombres, no estaban imaginando el futuro, sino que desarrollaban sus ideas desde su presente, con los conocimientos que poseían cada uno en su momento histórico. Quizás, en casos como el de Leonardo, se lo podría considerar un adelantado a su tiempo, al desarrollar prototipos de máquinas que tomarían sentido siglos después.

Herón de Alejandría, en el siglo I, también construyó un aparato, que se puede considerar máquina de vapor y turbina, aunque su aplicación en ese momento  histórico carecía de sentido, pues no existía un sistema productivo donde integrarse, como sí luego sucedió en la Revolución Industrial.  

Pero estos hombres, pensaban en tiempo presente, con categorías de su presente; no estaban intentando dilucidar el futuro. Como Leonardo, que era un hombre del Renacimiento, cada uno vivía y sentía su presente.

De lo que estamos tratando aquí, es de algo completamente distinto y, que corresponde a una característica de nuestra época histórica, esencialmente desde el siglo XX; la idea no solo de pensar en cómo será el futuro, sino inclusive modelarlo para determinados intereses.

Frente a este planteo, lo primero que nos propondremos es analizar, si podemos realmente percibir nuestro futuro y en qué términos.

Eric Hobsbawm[7], sostenía que un proceso de previsión del futuro, tiene que basarse necesariamente en el pasado, pues lo que ocurra en ese futuro, tendrá alguna relación con lo que sucedió. Pero también nos alerta, acerca de que gran parte del futuro es de por sí imprevisible; aunque lo totalmente imprevisible es normalmente un acontecimiento único y específico.

Con esto, señala dos temas que, a nuestro criterio, son esenciales: que es necesario recurrir a la historia, para entender el devenir histórico a partir de lo que ya sucedió y, que surgen hacia el futuro acontecimientos únicos, imprevisibles, que pueden afectar todo el desarrollo social. Agregaríamos nosotros que son acontecimientos que no se encuentran en el radar del tiempo presente.

Inclusive en la obra citada, agrega que la predicción sobre el desarrollo tecnológico, ha sido la que históricamente más se ha equivocado. Citamos esta cuestión, porque nuestra realidad contemporánea, nos tiene acostumbrados a las predicciones sobre el futuro de la tecnología y sus impactos sobre la sociedad.

Entonces aquí se presentan dos cuestiones; por una parte, lo que sería pensar el futuro, a partir de rastrear los acontecimientos históricos y analizar los posibles escenarios que podrían surgir, en función del comportamiento en el presente de distintas variables sociales, culturales, económicas, tecnológicas. Este camino nos posibilitaría la percepción de un futuro posible, aún con la imprevisibilidad de los acontecimientos únicos, que podrían alterar toda previsión.

Pero la otra cuestión, que suele aparecer en la literatura de negocios y económica en general, se refiere a la idea de que las organizaciones pueden y, deberían, diseñar sus mercados para el futuro.

De hecho, un famoso libro de finales de la década de 1990, hablaba de la estrategia para crear los mercados del mañana[8], haciendo hincapié en los casos de empresas que habían resultado exitosas, construyendo desde el presente como querían que fueran sus futuros mercados.

Frente a estos planteos, lo primero que surge, es que los análisis se realizan desde el presente, siempre con posterioridad a los hechos que supuestamente constituían ese futuro. Si bien se trata de estrategias que resultaron exitosas, se trata de estrategias empresarias, que son pensadas para plazos, prolongados en términos de mercado, pero cortos cuando se trata de imaginar escenarios futuros para la sociedad; en tiempos históricos, cinco o diez años pueden ser importantes cuando se presentan acontecimientos imprevisibles y disruptivos, pero representan muy poco tiempo cuando se trata de cambios sociales que moldean las sociedades.

Lo segundo que se presenta en este caso, es que no se analizan ni ponen en cuestión un conjunto de variables, como el poder de lobby de las empresas, las características de los mercados en cuanto a la existencia de monopolios u oligopolios, las acciones de los Estados nacionales a favor o en contra de determinadas tecnologías, el papel de los medios de comunicación y su influencia en la sociedad para imponer modalidades de consumo, el poder económico financiero de determinadas “empresas exitosas” con su consecuente capacidad para la adquisición de empresas más pequeñas portadoras de tecnologías de avanzada, contextos macroeconómicos, entre otras.

En definitiva, según gran parte de los autores de management, el éxito o fracaso al crear un futuro para una empresa, dependería de la planificación y acción individual de la misma, donde lo social, que siempre es histórico, así como las cuestiones que hemos señalado en el párrafo anterior, prácticamente no jugarían ningún papel.

Entonces, podemos concluir en una primera instancia, que pensar en un futuro, puede hacerse en un determinado sector económico o científico, a partir de premisas que se relacionan con un pasado y con los desarrollos presentes, aun con las limitaciones de toda previsión.

Pero un caso muy distinto es pensar en términos de futuro del desarrollo social, pues si los acontecimientos imprevisibles pueden desviar un plan en el caso de una empresa o una tecnología, en el caso de la dimensión de lo social, pueden iniciar una nueva era.

Aunque no lo hemos ampliado antes, en esta etapa debemos clarificar de qué hablamos en este ensayo, cuando lo hacemos de acontecimientos únicos e imprevisibles.

Hay acontecimientos, como catástrofes naturales, que se pueden considerar imprevisibles, aunque los avances tecnológicos posibilitan en la actualidad anticiparse a la aparición de los mismos, con limitaciones. Esos hechos, producen una serie de impactos a nivel económico y social, como destrucción de infraestructura, lo cual resulta de pérdidas para la comunidad.

Otros corresponden a situaciones provocadas por el ser humano, como las guerras, que también tienen, en principio, impactos sobre la economía y la sociedad, aun cuando las mismas tienen procesos de incubación; pero cuando estallan, igual que las catástrofes naturales, decimos que eran imprevisibles en cuanto a las consecuencias que producen. No obstante lo cual, podemos decir que muchos de estos acontecimientos, los podemos limitar, o en el tiempo o en el espacio, en cuanto a sus consecuencias.

Tenemos el caso, por ejemplo, de un tsunami, que puede repercutir en la economía de un país o una región, en la infraestructura social como viviendas, en la salud de la población.

Ante esta descripción, un acontecimiento único e imprevisible, en tanto cambia las coordenadas con que se desarrollaba una sociedad, es algo distinto; se trata de los casos que pueden cambiar no solo el curso de la historia de un país o región, sino inclusive de una parte importante de la humanidad. Utilizando las ideas de Walter Benjamín,  decimos que salta el continuum de la historia; se inaugura un nuevo tiempo.

La Revolución Francesa de 1789, la Revolución Rusa de 1917 o la desaparición del Muro de Berlín en 1989, pueden considerarse acontecimientos de este tipo. Lo que no implica, que otros hechos, aunque a menor escala, también puedan considerarse dentro de esta categoría.

Un poco como conclusión de este breve trabajo, podemos establecer, aun con limitaciones, que pensar en términos de escenarios futuros posibles, en largos plazos, implica necesariamente un ejercicio de bucear en la historia, de bucear en nuestro pasado –el tiempo y espacio de esa búsqueda estarán determinados por los objetivos del investigador-, como el único camino que quizás nos permita encontrar pistas acerca de lo que sucederá.

Pero siempre considerando algunas cuestiones esenciales, como que el Pasado es cognoscible e interpretable, en la medida que apliquemos la metodología de la historia, cuyo esbozo ya hemos expuesto.

En este camino, también debemos considerar que también interviene el Presente, que es cognoscible, pero no totalmente interpretable, pues desconocemos en su totalidad, las implicaciones futuras de lo que está sucediendo en el presente; muchas de ellas serán el resultado de hechos que aún no podemos conocer y otras, de futuros hechos imprevisibles de distinto tipo.

Con esta línea de pensamiento, diremos entonces que si el pasado es cognoscible e interpretable y el presente cognoscible pero parcialmente interpretable, el futuro, por esencia, es no cognoscible. Podemos intentar construir escenarios de lo que podría suceder en el largo plazo y las implicaciones sociales de determinados acontecimientos, pero nuestro futuro sigue estando en las sombras.

Por supuesto que podemos diseñar como vislumbramos el futuro de determinados mercados, o determinadas sociedades, en un corto plazo, pero ni aún en estos casos, el futuro pierde su característica de no cognoscible.

Todo lo expuesto sin olvidar, que la historia la construyen los hombres y que, por lo tanto, el futuro dependerá del papel activo de los seres humanos en ese proceso. Como lo expresara Carlos Marx[9], “Los hombres hacen su propia historia, pero no la hacen a su libre arbitrio, en circunstancias elegidas por ellos mismos, sino en aquellas circunstancias con las que se encuentran directamente, que existen y les han sido legadas por el pasado”.

 

 

 

 



[1] Benjamín Walter. Sobre el concepto de la historia. En: Benjamín Walter. Conceptos de filosofía de la historia. Terramar Ediciones, La Plata, Buenos Aires, 2007.

[2] No vamos a analizar aquí este término, pues por su complejidad se encuentra fuera de los objetivos de este ensayo.

[3] S bien es cierto que a partir especialmente del siglo XX, contamos con una cantidad de documentos, como nunca antes en la historia había sucedido, lo que incluye hasta estudios de la subjetividad. Pero estamos hablando de estudios generales, pero que no pueden utilizarse para opinar sobre decisiones de hombres particulares.

[4] Kosik Karel. El individuo y la historia. Editorial Almagesto, Colección Mínima, 1991.

[5] Bloch Marc. Introducción a la Historia. Fondo de Cultura Económica, México, 1979.

[6] Aunque él no se considerara un historiador, sino que su obra en este sentido, la considera un experimento, Se refiere a: Wells H. G. Esquema de la historia universal. Ediciones Anaconda, Buenos Aires, 1947, 2 Tomos. En esta edición argentina, el editor incluyó en el segundo Tomo, una Historia de América, por Enrique de Gandia, indudablemente por un tema comercial, para adaptarla a las necesidades del público local.

[7] Hobsbawm Eric. Entrevsta sobre el Siglo XXI. Crítica, Barcelona, España, 2000.

[8] Hamel Gary y Prahalad C. K. Compitiendo por el futuro. Estrategia crucial para crear los mercados del mañana. Ariel Sociedad Económica, 1998.

[9] Marx Carlos. El dieciocho Brumario de Luis Bonaparte. En: Marx Engels. Obras escogidas. Editorial Ciencias del Hombre, Tomo IV, Buenos Aires, 1973.

lunes, 11 de marzo de 2024

 

Responsabilidad Social Empresaria y pérdida de empleos

 

Dr. Carlos A. J. Molinari

 

Según publica el medio Rusia Today en español, el 2 de febrero de 2024, el Deutsche Bank recortará en 2024, 3500 empleos, pese a que en 2023, el banco obtuvo beneficios de U$S 4500 millones. Por su parte el diario La Vanguardia (Barcelona, España), informa el 1 de febrero la misma noticia, pero haciendo hincapié que la reducción de personal era el resultado de la disminución de la tasa de ganancia del Banco, ya que en el 2022 los beneficios había sido de U$S 5030 millones. En esta última noticia, resalta que con el anuncio del Banco, había aumentado sus acciones en la Bolsa.

Según la revista Wired, del 11 de enero de 2024, la industria tecnológica global, despidió a 262.146 empleados durante el año 2023. En este artículo, expone la posición de Google, de que los despidos son un esfuerzo para reducir costos y optimizar el desempeño de sus inversiones.

En estos dos ejemplos, en ningún caso, se plantean los despidos en un marco de empresas que pierden dinero, sino que al contrario, están ganando. El tema que se plantea es simple: se reducen empleos, para ganar más.

Para los inversores, en el caso del Deutsche Bank, despedir personal fue un anuncio positivo, ya que aumentó el precio de las acciones.

Entonces nos debemos preguntar: ¿Tiene sentido, con este tipo de datos, seguir debatiendo sobre la Responsabilidad Social Empresaria?

Ya hemos expuesto en nuestro libro, “La Responsabilidad Social Empresaria en el capitalismo tardío” (ver Entrada del 9 de agosto de 2022), como la mentalidad del empresario capitalista, estructurada entre la Edad Media Europea y la Revolución Industrial, se constituyó sobre la base de la acumulación y la competencia, o sea, sobre la base del egoísmo y el individualismo.

¿Porqué resultaría entonces extraño, encontrarse con datos como los expuestos?

El objetivo del empresario capitalista es ganar dinero, poniendo su individualidad, por encima de la sociedad. Por lo tanto, solo puede ser responsable socialmente, al nivel de la filantropía. Si quiere, puede donar algo a la comunidad. Solo si quiere. Pero si tiene que dejar miles de personas sin empleo para ganar más dinero, lo hace.

La RSE como acto voluntario de las empresas, se transforma así en una abstracción, que nunca se cumplirá. Solo una RSE, impuesta por la comunidad a las empresas, con sustento legal, es factible de cumplir con su cometido.

jueves, 26 de octubre de 2023

 

EL CASO DE “BIDÚ COLA”

La limitación del marketing frente

al poder político económico

 

En septiembre de 2021, en distintos medios de comunicación de la Argentina, se anunciaba que una pyme, había adquirido la marca Bidú, con el objetivo de su relanzamiento en el país, después de casi 50 años de ausencia del mercado.

¿Qué significaba esta marca y porqué, alguien podía estar interesado en su relanzamiento, después de tan considerable tiempo transcurrido desde su desaparición?

Independientemente de lo sucedido con el nuevo titular, no es objetivo de este artículo, realizar una historia detallada de la marca, sino establecer algunas conclusiones sobre el porqué de su desaparición; para lo que vamos a detallar algunos acontecimientos, que consideramos esenciales para nuestro objetivo.

La marca nació en 1940, cuando dos hermanos italianos, que ya fabricaban cerveza, fernet y vermouth, inventan una receta a base de hierbas, azúcar y otros ingredientes, que eran disueltos en agua carbonatada. Nacía así la Bidú Cola, que la empresa Coca Cola encontró como competencia, cuando dos años después arribó a la Argentina, en 1942.

Pocos años después, en 1950, la empresa Crush, también de los EE.UU, compra a los fundadores de Bidú, la marca y su proceso de fabricación.

En la Provincia de Santa Fé, la gaseosa era producida por la empresa Industrial Sodera, que llegó a envasar 74.000 botellas diarias.

Posteriormente, en el año 1972, Coca Cola compra la empresa Crush, operación que incluía la marca Bidú; dos años más tarde, Bidú desaparece del mercado.

Pero hay un dato, que incluye un artículo publicado el 14 de octubre de 2021, en el Diario El Litoral, de Rosario, Argentina –La historia de “Bidú Cola”, la gaseosa que le compitió a la poderosa Coca-, que entendemos puede aportar mayor claridad, al estudio del proceso de auge y desaparición de esta marca.

Jorge Braulio Mullor, un docente de la Universidad Nacional del Litoral, fue el redactor del Código Bromatoloógico de la Provincia de Santa Fe, el primero a nivel provincial en el país, que entró en vigencia en 1941, un año antes de ingresar Coca Cola en la Argentina. Hay que destacar, que Mullor, participó en la redacción del primer Código Alimentario argentino, en 1953.

En el año 1948, Mullor prohibió la comercialización de Coca Cola en la provincia, basándose justamente en el Código Provincial, ya que el Estado no podía conocer la fórmula de la bebida. Un argumento acertado, ya que no se podían conocer los efectos que podía tener el producto, en la salud de la población.

Esta situación se mantuvo hasta 1967, en que el gobierno del General Juan Carlos Onganía, que había asumido en 1966 como producto de un golpe de estado cívico militar contra el gobierno constitucional del Presidente Arturo Illia, modifica el Código Alimentario de 1953, favoreciendo los intereses de las grandes empresas nacionales y multinacionales.

Esta situación, más la compra posterior de Crush por Coca Cola, selló definitivamente la suerte de la marca Bidú.

Del estado de situación descripto, podemos extraer algunas conclusiones, en relación con la disciplina del marketing y el papel que se le adjudica en la creación de mercados.

La primera de ellas es, que el entorno político económico y sus regulaciones, constituyen un factor esencial al momento de introducir un producto en el mercado. No es solo una estrategia de marketing centrada en el producto, la garantía del éxito o fracaso, sino que siempre hay una predeterminación, resultado de como los poderes públicos, entienden los intereses del conjunto de la sociedad.

En el caso que hemos descripto, aparecen claramente delimitadas, en este sentido, dos etapas. Una primera, donde la gestión del Estado privilegia la salud de la población, frente al desconocimiento de una fórmula en un producto de consumo bebible, mientras que en la otra etapa, estamos frente a un Estado, ilegítimo en ese caso, que privilegia los negocios sin importar otras consecuencias.

Como se observa, las consideraciones de marketing –aunque se debe decir que para esos años, el concepto de la disciplina, era sustancialmente diferente de lo que entendemos hoy por ella-, quedan subordinadas a los debates sociales, vinculados más a intereses del conjunto y al poder que posean los distintos sectores en pugna. Es en esa dimensión, donde se decide sobre el éxito o fracaso; sin que lo expuesto, implique desestimar el papel de ciudadanos y consumidores, como actores sociales en todo el proceso. Aunque en algunos casos, como el descripto, los ciudadanos no podían opinar sobre el cambio de las reglas del juego, ya que el gobierno no era democrático y no permitía, por lo tanto, el libre debate.

El de Coca Cola, no era por lo tanto un triunfo de una política comercial, sino de capacidad de influencia sobre un gobierno.

Y la segunda conclusión, vinculada al párrafo anterior, es que el poder económico financiero, que en algunas circunstancias va unido al monopolio u oligopolio, es el que dicta las condiciones para el éxito o el fracaso de un producto.

Siendo Bidú un competidor para Coca Cola, cuando ésta última compra a un competidor en los EE.UU., elimina a su competencia, simplemente dejando de fabricar a la marca competidora.

Un éxito que evidentemente, no es el resultado de una acertada política comercial, sino simplemente consecuencia de aplicar el superior poder financiero.

Lo que hemos querido demostrar en este breve artículo, es como el marketing, no puede ser planteado como una actividad resultado de aplicar determinadas técnicas en un mercado determinado, sino que es la dimensión de la política -entendida esta como el espacio donde los ciudadanos configuran y reconfiguran su propia sociedad-, la que crea las condiciones, o no, para el desarrollo de productos y mercados, de acuerdo a lo que entienda en cada momento histórico, por la defensa de los intereses del conjunto social.

Y que el poder económico financiero de los grandes conglomerados, establece condiciones para el desarrollo o no de determinados productos o servicios, de acuerdo a sus intereses particulares.

Es en ese marco, con esas limitaciones, que la disciplina del marketing, se plantea crear y desarrollar mercados, pero siempre en condiciones que le son dadas.   

 

 

 

jueves, 8 de septiembre de 2022

 

COMPUTADORA PERSONAL, CAMBIO TECNOLÓGICO

Y ESTRATEGIAS EMPRESARIAS, EN EL MARCO DE UNA

HISTORIA SOCIAL

 

Dr. Carlos A. J. Molinari

 

I.- Introducción

 

El objetivo de este trabajo es explorar, en un marco histórico, la genealogía de la computadora personal y como, este proceso, no solo produjo un radical cambio en los artefactos tecnológicos y su masificación, sino también en el conjunto de las relaciones sociales.

Asimismo, se trata de relacionar esta historia, con las relaciones de poder en la sociedad y, por lo tanto, en las actividades de las organizaciones empresarias que lideraban o, formaban parte de este proceso.

Pero reconstruir una historia de la computadora personal, implica advertir que la génesis de este producto no puede analizarse, sino en el marco de una historia más general de las computadoras, donde la PC –así como sus derivados posteriores, que llegan hasta el Smartphone, una auténtica computadora “de bolsillo” y móvil-, representan la derivación de una cierta evolución tecnológica.

No se pretende en este trabajo, estructurar una historia detallada de este producto, sino marcar algunos hitos que nos posibiliten delinear, como se fue construyendo este desarrollo tecnológico, así como las relaciones que se fueron estableciendo con el campo de lo social.

De alguna manera, descentrarse de los análisis técnicos puros, para poder observar como éxitos, fracasos y vías muertas, constituyeron y constituyen redes de causas, efectos, acciones, interacciones y retroalimentaciones, en los que no solo interviene lo tecnológico, sino también las acciones de gobiernos, de empresas productoras, de usuarios, de empresas competidoras de otras áreas tecnológicas, así como la cultura de las sociedades, en las cuales este proceso se ha desarrollado.

No es una tarea sencilla seleccionar lo que previamente hemos denominado como hitos, ya que el lugar ocupado por los mismos en la historia de la tecnología, difieren según los análisis de las empresas y organismos intervinientes, de los distintos historiadores o de los interesados en establecer la cronología de este proceso, de los criterios personales de quienes participaron en este desarrollo, o de los campos disciplinares de donde provengan los análisis críticos.

Se ha intentado en este sentido, aplicar un criterio de máxima rigurosidad en la selección de acuerdo a los objetivos del trabajo, pero remarcando que no se trata de una historia exhaustiva desde lo técnico, sino que se trata de rescatar los indicios que nos permitan reconstruir una historia.

También debemos señalar, que no se trata solamente de una evolución del artefacto, sino que la misma comprende software y hardware, analizados como un conjunto indivisible, ya que los cambios en una de las dimensiones, involucran a la otra, en una interacción permanente.

 

 

 

II.- Análisis histórico del desarrollo de la computadora

 

Ningún desarrollo técnico o tecnológico, puede estudiarse al margen de la sociedad que los contiene, así como de las relaciones de producción en esa sociedad, el nivel del conocimiento científico, o su sistema político, legal y cultural.

En el siglo I, Hierón de Alejandría, desarrolló un artefacto que puede considerarse máquina de vapor y turbina, de la misma manera que a lo largo de la historia, se diseñaron o construyeron diversos artefactos que pueden considerarse antecesores de máquinas modernas, como el caso de los autómatas en el siglo XVIII europeo.

Sin embargo, en su momento, estas máquinas no tuvieron aceptación desde el punto de vista productivo en la sociedad, o fueron adoptadas como juegos. Por ejemplo, en el caso de la máquina de vapor de Hierón, “Era necesaria la confluencia de los avances técnicos, el crecimiento de la población, su traslado a las ciudades, la utilización de combustibles fósiles, los descubrimientos geográficos y otras variables, que iban a impulsar el desarrollo del capitalismo, para que la tecnología pudiera desempeñar su papel destacado…” (Molinari, 2011, pp. 146-147); lo que es decir, para que el siglo XVIII alumbrara la máquina de vapor, dando impulso al desarrollo de un nuevo sistema social.  

A pesar de que se podrían citar antecedentes muy antiguos, como el caso del mecanismo de Antikhitera, del siglo I a.n.e., estudiar la evolución de las computadoras, toma sentido a partir del siglo XVII, en el desarrollo del capitalismo, donde los cambios en las relaciones de producción, los avances en la ciencia, la técnica y la tecnología, así como el crecimiento de las fuerzas productivas –en interacción con otras variables que por razones de objetivos no vamos a considerar aquí-, estaban construyendo un nuevo sistema económico social. Es en él, donde se manifiesta la necesidad de nuevas máquinas y tecnologías que lo impulsaran.

Y es en 1623, que el alemán Wilhelm Schickard (1592-1635), construyó un reloj calculador, que sumaba y restaba 6 dígitos; lo hacía con una manivela que giraba y los números cambiaban. Este hecho, a nuestro criterio, es el que podemos considerar el momento cero de las computadoras, en el sentido que le damos al término en nuestra contemporaneidad.

En 1673, Gotfried Leibniz (1646-1716) presentó una máquina calculadora, que había estado construyendo desde 1670, siendo la primera que podía ejecutar las cuatro operaciones aritméticas básicas.

Por la misma época, en 1642, Blaise Pascal (1623-1662) inventó y construyó la “Pascalina”, una máquina sumadora. Si bien el artefacto no se pudo comercializar por su costo, se transformó en un juguete para las clases pudientes de Europa.

Se puede observar como los primeros intentos de construir una máquina que pudiera realizar operaciones, que hasta entonces solo realizaba el ser humano, era el resultado de una invención surgida en un momento en que la ciencia y la tecnología impulsaban y, a la vez eran impulsadas, por el naciente capitalismo, aunque todavía no encontraban su aplicación en la producción.

Pero el primer antecedente del matrimonio entre automatización y producción, se produce en 1801, cuando el francés Joseph Jacquard (1752-1834), desarrolló el telar automático; una máquina con entrada de datos por tarjetas perforadas, para controlar la impresión de tejidos y sus dibujos.

El que es considerado uno de los padres de la informática, el inglés Charles Babbage (1791-1871), diseñó entre 1833 y 1842, una máquina analítica, que poseía dispositivos de entrada basados en tarjetas y memoria y podía ser programada por el usuario. Los planos incluían una impresora, que pesaría aproximadamente 2,5 toneladas, siendo capaz de imprimir automáticamente los resultados de un cálculo. Pero la máquina no pudo ser construida por su inventor, por no existir la tecnología disponible para hacerlo.

Pero esta historia estaría incompleta, sin los aportes de Ada Byron (1815-1852), hija del poeta romántico Lord Byron, quien conoció a Babbage a los 18 años y trabajó con él gran parte de su vida.

Con una importante formación en matemáticas, Ada sugirió usar tarjetas en forma repetida y predijo que una máquina de este tipo, podría en el futuro componer música, producir gráficos y que se utilizaría, tanto a nivel científico como en la vida cotidiana. Pero lo más relevante, escribió con lápiz y papel programas para hacer cálculos matemáticos con la máquina analítica (Moledo y Kukso, 2004), por lo que se la considera la precursora de la programación.

Ada publicó trabajos científicos, entre ellos el que Moledo y Kukso (2004) denominan manual ideológico del aparato, luego tomado por Turing en 1937 y von Neumann en 1946.

En 1890, en los EE.UU., Herman Hollerith, que fue el fundador de la Tabulating Machine Co., posteriormente denominada IBM, construyó una máquina con tarjetas perforadas, destinada a procesar el censo en ese país.

Igual que en el caso de Jacquard, las máquinas de Hollerith, ya no tenían solamente una finalidad de prueba y experimentación, sino que comienzan a confluir con los procesos económicos y sociales.

Hasta el momento del invento de Hollerith, el proceso de desarrollo de la computadora, como hemos visto, había sido lento, lo que cambia radicalmente en el siglo XX, debido a la conjunción de una serie de fenómenos.

Uno de ellos era el salto cualitativo que se había producido en los sistemas de producción en el sistema capitalista desde fines del siglo XIX, con el consiguiente impacto en los procesos de invención, no solo de nuevos productos, sino también de maquinarias y sistemas tecnológicos que interactuaban en ese salto.

Por otra parte, el avance en las ciencias, que aportaban nuevas bases al desarrollo productivo y su vinculación con el universo creciente de las empresas. También inciden otros fenómenos, como el crecimiento de los sistemas educativos, que posibilitan el acceso al conocimiento, ya no solo de una élite aristocrática, sino de la burguesía y sectores de la pequeña burguesía[1].

De la misma manera, que la creciente incorporación de grandes masas a la producción y, por lo tanto, al consumo, generaban la necesidad de mayor cantidad de productos, a la vez que nuevos productos y servicios.

Y por último podemos citar, las necesidades del aparato militar ante el crecimiento de los conflictos, tanto regionales como internacionales, cuya máxima representación fueron las dos guerras denominadas mundiales.

Lo que se ha expuesto, iba a impactar sin duda en el desarrollo de las computadoras, por las nuevas necesidades que iban surgiendo desde la dimensión empresarial y gubernamental.

En 1927, el estadounidense Vannevar Bush desarrolla en el MIT (Masachussets Institute of Technology) un Analizador Diferencial, que era una computadora analógica que permitía solucionar ecuaciones diferenciales, trabajo que llevó adelante con quien era su estudiante, Harold Locke Hazen y su compañero Hugh Spencer[2].

Muy pocos años después, en 1936, en el país que era considerado el “gran enemigo” del capitalismo, la U.R.S.S., Vladimir Lukyanov, desarrolla el que denominó el Integrador de Agua, una computadora que funcionaba con agua en lugar de electricidad.

Lukyanov tenía un problema, que era calcular la estabilidad de las estructuras de hormigón para los ferrocarriles de la U.R.S.S. y, en ese momento, su creación fue capaz de resolver ecuaciones diferenciales parciales.

Posteriormente, esta computadora fue utilizada en instituciones académicas y realizó parte de los cálculos en la carrera espacial soviética; inclusive se siguió utilizando hasta la década de 1980.

A un problema similar se enfrentó el alemán Konrad Zuse (1910-1995), quien debía resolver grandes cálculos matemáticos para su trabajo en la fábrica de aviones Henschel. Su solución fue construir, sin conocimientos previos, una computadora electromecánica, que denominó Z1, finalizándola en 1938. La máquina, podía ser programada por tarjetas perforadas.

Luego inició la construcción de la Z2, para mejorar su anterior modelo, trabajo que quedó interrumpido al estallar la Segunda Guerra Mundial; pero logró interesar al ejército alemán quien lo financió para finalizar este modelo. Posteriormente construyo la Z3, que fue utilizada por la industria aeronáutica alemana durante la guerra; la máquina, fue destruida en bombardeos aliados sobre Berlín. Inclusive en 1945, desarrolló su propio lenguaje de computación. A partir de 1949 fundó su propia empresa, que fue la primera en Alemania en fabricar en cantidad computadoras, aunque finalmente debió venderla a la Siemens por problemas económicos.

Paralelamente a Zuse, los ingleses también construyeron una computadora en el año 1943, diseñada por Alan Turing, en el proyecto Colossus, cuya denominación fue Mark I, cuyo fin era descifrar los mensajes alemanes. Se fueron construyendo otros equipos, pero al final de la guerra fueron todos destruidos.

Debemos mencionar igualmente, otros importantes hitos en todo este proceso, que conducirían al desarrollo de una nueva genealogía en las computadoras.

Uno es la ENIAC –Electronic numerical integrator and computer-, construida hacia fines de 1946, totalmente digital y con la característica de que se podía programar para resolver diversas tareas. Su finalidad era calcular las trayectorias de los proyectiles, para el ejército de los EE.UU.

Otro momento relevante, es el patentamiento de los transistores en 1948, producidos en los Laboratorios Bell, en EE.UU., que permitirían la apertura de todo un campo de desarrollo para la electrónica, entre ellos la industria informática.

Y también podemos citar la UNIVAC –Universal Automatic Computer-, cuyas primeras unidades fueron vendidas al gobierno de los EE.UU. –en 1951 fue adquirida para el censo-, y era fabricada por la compañía Remington Rand. En 1954 General Electric adquirió una unidad, con lo cual se puede pensar como el inicio del proceso donde estos equipos, ya estaban orientados para la utilización en las empresas.

En Japón, en 1954, la empresa Fujitsu, construyó la FACOM 100, su computadora automática. Lo hizo utilizando un conmutador telefónico, el “relé”, que lo estaba utilizando para sus sistemas de conmutación telefónica; apelaron a una tecnología que ya la compañía conocía, a partir de sus competencias en el campo de las comunicaciones.

Y por último, queremos mencionar la Olivetti Elea 9003 de 1959, el primer producto de este tipo del fabricante italiano de máquinas de escribir. Fue la primera computadora comercial que funcionaba totalmente con transistores, de al cual se vendieron unos 40 equipos. Posteriormente la empresa vendió esta línea a General Electric, para concentrarse en las computadoras personales, que se vislumbraban como el futuro en esa industria[3].

Un análisis del proceso que hemos descripto, nos conduce a unas primeras conclusiones, en relación a los objetivos de este trabajo.

En primera instancia, se puede observar como los cambios tecnológicos[4], no son el resultado de una transformación inesperada que ocurre en tiempos imprevisibles, sino que ocurren, como el caso de las computadoras, en procesos de larga duración[5]; procesos que a su vez interactúan con otras variables sociales, como las culturales, las económicas, las legales, las relaciones de poder en una sociedad, generando entonces las condiciones de posibilidad para que esos cambios produzcan un salto cualitativo.

Hemos visto como en el caso de las computadoras, las condiciones económicas que iban potenciando el desarrollo del capitalismo, posibilitaron la construcción y consolidación de esa nueva tecnología, constituida por artefactos y programas.

Pero si bien la línea de desarrollo debe ser situada a partir de las condiciones creadas por el capitalismo, hemos señalado como también en un país como la U.R.S.S., que intentaba desarrollar un proyecto de sociedad socialista[6], fue necesario impulsar la construcción de una máquina que resolviera determinado tipo de problemas, que hacían más al desarrollo de las fuerzas productivas, que a la propiedad de los medios de producción.

Lo expuesto nos permite observar también, que la tecnología es acumulativa y combinatoria –cuestión que se verificará en todo el desarrollo de este trabajo-, en el sentido que no basta con la innovación, sino que la misma debe poder ser combinada acumulativamente con otras técnicas, tecnologías artefactuales y tecnologías organizativas, en mutua interacción y, a su vez, este encuentro se debe producir en un determinado estado de las relaciones sociales, para generar un impacto en la producción de bienes y servicios.

Y también se puede observar el funcionamiento de un sector industrial en construcción y desarrollo, en constante reconfiguración –lo que se aceleraría con la computadora personal-, donde van surgiendo opciones en diferentes países y con diferentes desarrollos tecnológicos, lo que también se iba a transformar velozmente con el avance del proceso de globalización, a partir de la segunda mitad del siglo XX.

De la misma manera, no hay que descartar el impulso del complejo militar-empresarial, donde intervienen objetivos de los gobiernos, pero también de las propias empresas participantes en ese complejo.

Si bien los grandes equipos, que analizamos sintéticamente hasta ahora, se fueron perfeccionando, orientándose ya efectivamente al mundo empresarial –sin desestimar a los gobiernos como grandes usuarios-, una serie de acontecimientos, derivados de los desarrollos que hemos estado describiendo darían lugar, como hemos expresado, a una nueva genealogía.

 

III.- La computadora personal

 

En la década de 1960, se produce un hecho que a nuestro criterio, es el disparador del proceso de desarrollo de la computadora personal; en 1964.  Douglas Engelbart junto a Hill English, construyen el primer mouse, sobre un diseño del primero[7].

Este punto de partida, se relaciona con lo que hemos expresado acerca de la cualidad acumulativa y combinatoria de toda tecnología. Entonces, hemos optado por no considerar el solo surgimiento de los artefactos, sino sus pasos previos y convergentes, tanto en técnicas como en otros artefactos complementarios o las tecnologías organizativas, como el inicio de un largo proceso que llega hasta nuestro presente.

El mismo Engelbart, en el año 1968, en una convención en San Francisco, EE.UU., realiza una demostración, donde expone el mouse, enlaces virtuales entre archivos, correo electrónico, procesamiento de textos y video conferencia, sentando las bases de lo que es hoy el software de nuestros dispositivos, cualquiera sea la forma que estos adopten.

Previamente a estos hitos, en el año 1945, Vannevar Bush (1890-1974), publicó un influyente artículo titulado As we may think, donde proponía organizar la información de acuerdo a como trabaja la mente, por asociación de ideas.

Estas ideas fueron retomadas por Theodor Nelson en 1965, en una conferencia en la Association of Computer Machiney en los EE.UU., cuando acuñó el concepto de hipertexto, como una estructura no secuencial para organizar la información.

A partir de estos hechos que hemos fijado como el momento cero de desarrollo de la computadora personal, veremos como la tasa de difusión de los cambios[8] se acelera, siendo esta una característica de esta etapa.

En 1965, la italiana Olivetti lanza al mercado la Programma 101, más parecida a una calculadora electrónica que a lo que hoy entendemos por computadora personal, que realizaba operaciones aritméticas, raíces cuadradas y fracciones (López, 2019). Los programas se grababan en una tarjeta de plástico con una banda magnética y tenía integrada una impresora de carrete y un teclado básicamente numérico. Se vendieron 44.000 unidades de este modelo, principalmente en los EE.UU., hecho que posibilita detectar que se estaba configurando un mercado, producto de la necesidad de resolver problemas que el desarrollo económico estaba generando; como es el caso del procesamiento de información cada vez más compleja y a partir de equipos de uso más sencillos que las grandes computadoras; lo que también refleja el potencial de acceso a las máquinas, representado por una diversidad de usuarios en cuanto al tipo de empresas consumidoras.

Esta empresa, abandonó la fabricación de computadoras personales en 1997, con la venta de esta división, ante la imposibilidad de competir en costos con los clones provenientes del sudeste asiático. Hecho que nos revela como la globalización productiva, fue reconfigurando ese mercado en desarrollo, más que las capacidades tecnológicas en un determinado país o en determinadas empresas.

En el año 1971, la compañía Intel, puso a la venta el primer microprocesador, el 4004, lo cual provocaría un cambio sustancial en la fabricación de computadoras, al integrar todo el proceso en un chip. El mismo fue diseñado para utilizar en una calculadora y constituyó la apertura, para la fabricación de toda una generación de microprocesadores, que a su vez actuó como la plataforma de baja de costos y mejora de productividad, que impulsaría una industria y un cambio tecnológico, que afectarían desde ese momento el conjunto de las relaciones sociales.

En el mismo año de 1971, John Blankenbaker, diseñó y construyó la Kenbak-I, considerada la primera computadora personal de la historia[9]. Era una máquina de 256 bytes de memoria, no utilizaba un microprocesador, y después de vender unas 40 unidades, la compañía, Kenbak Corp. cerró.

Dos años después, en 1973, comenzó la fabricación en Francia, de la Micral N, que es considerada la primera computadora personal disponible comercialmente, basada en un microprocesador. La empresa responsable, se denominaba Réalisation d’Études Électroniques y este sistema había sido desarrollado en el Institut National de la Recherche Agronomique, para resolver problemas vinculados a mediciones higronométricas. El equipo, tenía su propio sistema operativo denominado Sysmic. Posteriormente, la empresa fue adquirida por el Grupo Bull, quien continuó la fabricación de estos equipos pero  orientados a los peajes de autopistas, pues este conglomerado no estaba interesado en las computadoras personales.   

En los EE.UU., en Palo Alto, California, la empresa Xerox, en ese momento líder mundial en fotocopiadoras, creó un centro de investigación, destinado a desarrollar la tecnología de la oficina del futuro.

En ese centro, en 1973, se construyó un prototipo de computadora personal, denominada Alto, que a juicio del autor de este artículo, debe considerarse la primera computadora personal en el sentido que en el presente la entendemos; si bien no fue comercializada, sino fabricada para ser distribuida en universidades e institutos de investigación.

Poseía monitor, procesador de texto, el WYSIWYG (What you see is what you get[10]), mouse de tres botones e interfaz gráfica.

También en 1973, desarrollaron el Super Paint, un programa informático para dibujar y Robert Metcalfe diseñó Ethernet, un método para conexión en red.  En 1976, en el mismo laboratorio, desarrollaron la NoteTaker, que fue la primera computadora portátil, pero tampoco se comercializó, sino que solo fabricaron diez prototipos. Esta máquina pesaba 22 kg., poseía un mouse, interfase gráfica, teclado, modem, monitor y floppy disk drive.

Recién en el año 1981, el equipo Alto fue comercializado, con el nombre Star, como estación de trabajo, pero a un precio muy superior a la IBM PC compatible, lo que evidentemente impidió que el mismo se transformara en un éxito de mercado. Este modelo poseía interfase gráfica basada en ventanas, carpetas, mouse, plaqueta de red Ethernet y correo electrónico; un equipo como los que luego se impondrían como estándar en el mercado.

La pregunta aquí es que sucedió con una empresa, que se había adelantado tantos años a lo que sería la computadora personal, tanto en hardware como en software, para quedar fuera de este mercado naciente.

Debemos pensar, que fue una víctima de su propio éxito. Pues se trataba de una compañía, que a partir de 1959, cuando inició la comercialización de su primera fotocopiadora, creó y revolucionó un mercado.

Pero no hay que olvidar que ya en 1980, fue perdiendo sus patentes en tecnología de fotocopiado, lo cual abrió el campo a competidores de menor costo y calidad. Aun así, en 1995, desarrollaron una tecnología de pantalla táctil, que posibilitaba introducir datos en computadoras del tamaño de una mano.

Pero sus directivos, quizás compenetrados con otra tecnología y otro tipo de empresa y de sociedad, pensaron evidentemente que se trataba de productos no rentables; o por lo menos, no tanto como las fotocopiadoras. En definitiva, aunque no sabemos que pasaba por la mente de quienes dirigían la compañía, podemos conjeturar, que tenían una historia de éxito con su tecnología de copiado de documentos. Nos podemos preguntar: ¿cuándo desarrollaban sus estrategias, no construían escenarios futuros, que les hubiera permitido observar las potencialidades de las máquinas que ellos mismos habían anticipado?

Aquí también se observa, como siempre se trata, tantos en los éxitos como en los fracasos, de una conjunción de variables; pues ser innovador y poseer la delantera tecnológica, no implicó que fuera aprovechada por esta empresa.

En 1975, la empresa MITS comenzó a fabricar la Altair 8800. Se trataba de una caja sin teclado ni pantalla; los datos se ingresaban vía interruptores y el resultado, se interpretaba en un tablero de luces o en una impresora de cinta. El teclado o el lector de papel eran periféricos y se vendían como adicionales; utilizaba un procesador Intel 8080. Su venta se realizaba como un kit para aficionados, a través de la revista Popular Electronics, que fue la que lo publicó por primera vez en enero de ese año; o sea que no se trataba de un producto dirigido a un mercado masivo, sino solo al nicho de especialistas o nuevos entusiastas de la informática. De hecho, no era un producto sencillo de utilizar, pero señaló el camino a toda una nueva industria[11].

El software que utilizaba, fue diseñado por Bill Gates y Paul Allen, que lo desarrollaron para estos equipos. Cuando vieron la tapa de Popular Electronics, ofrecieron a la empresa escribir un software a partir del Basic, compatible con la Altair. De esta manera, utilizando ese lenguaje, cualquiera podría crear programas para este equipo.

La alta demanda generada –esperaban vender 200 el primer año y vendieron 2000 al final del primer mes-, sorprendió a la empresa, que después de algunos problemas para cumplir con las entregas, terminó vendiendo el diseño.

Hasta ese momento histórico, se puede observar cómo se produce, aunque todavía de forma lenta y difusa, la confluencia de distintos procesos, así como de aprendizaje sobre la práctica y el propio uso, en el diseño, fabricación y venta de los nuevos equipos. Pero lo que aparece como relevante, es que los nuevos artefactos, no van dirigidos todavía a los consumidores hogareños, sino que se orientan más a los especialistas, pues se necesitan ciertos conocimientos al efecto de abordar las cuestiones técnicas indispensables, para que las máquinas funcionen.

No hay que olvidar, que en ese momento, todavía el mercado corporativo, estaba concentrado en la utilización de equipos centrales, pues el tiempo de la computación distribuida, sería el resultado de cambios que se encontraban en tránsito.  

Aún faltaban algunos pasos, para hacer confluir los procesos, técnicas y tecnologías necesarias, para dar vida a lo que se llegaría a denominar computadora personal.

En ese mismo año de 1975, un 29 de junio según relata Steve Wozniak (2013), a través de un teclado introducía datos en una memoria y pudo visualizarlos en la pantalla de un monitor; se trataba de la primera vez que tecleando, se podía visualizar el resultado. Era el nacimiento de la Apple I, que a su vez representaba el punto de partida de una de las empresas más emblemáticas de como la informática, iba a transformar la vida de las personas.

La máquina resultante la vendía Steve Jobs en tiendas de computación de Palo Alto, California, a un precio original de U$S 666.- y se vendieron unas 200 en un año[12].

Una de las frases de la publicidad de la nueva máquina, daba cuenta de alguna manera del significado de esta transformación –la unión de un monitor de TV con un teclado-: “no más interruptores…”. Se iniciaba un nuevo momento en el desarrollo de la computadora personal.

Poco tiempo después, en 1977, se lanza al mercado la Apple II, que representa la primera computadora personal que podía ser adquirida por los consumidores hogareños.

Podía ser utilizada para video juegos, para escribir textos, y tenía incorporada una planilla de cálculo –Visicalc, que fue la primera hoja de cálculo del mercado-, lo que le abrió la posibilidad de la venta para empresas.

Otro dato importante, es que a través de sus ranuras de expansión, posibilitaba ampliar las capacidades de la máquina, con dispositivos de terceros.  

En ese mismo año de 1977, la empresa propietaria de la cadena de tiendas Radio Schak en los EE.UU., presentó la Tandy TRS-80, su propuesta en este mercado.

El primer modelo incluía teclado, CPU con procesador, una TV blanco y negro modificada para la computadora y una grabadora de casetes de audio, para la lectura y almacenamiento de datos; el paquete incluía el software Basic.

La venta de estos equipos, se realizaba a través de la cadena de negocios de la empresa, lo cual comunica acerca de la importancia de la integración vertical, así como del poder de los grandes puntos de contacto con el consumidor, que permitió la penetración del producto en el naciente mercado de las computadoras personales.

Si bien la fabricación continuó hasta el año 1981 y, a pesar que desde los inicios de la década de 1980 comenzaron a producir computadoras más o menos compatibles con las nuevas PC, el surgimiento de los clones, con la consiguiente baja de los márgenes de ganancia, les impidió continuar en el mercado.

Aquí también se observa, como en otros casos citados, como la globalización económica, que se estaba llevando a cabo a pasos acelerados, incidió no solo en el desarrollo de los equipos y su tecnología, sino también en incorporar y descartar, a los distintos actores que participaban y participarían en ese mercado.

También en 1977, la compañía Commodore lanza al mercado el Commodore PETPersonal Electronic Transactor-, con lo cual se completa la trilogía de este año, que estaba marcado por la confluencia tecnológica, hecho que a su vez estaba señalando el camino hacia un creciente proceso de estandarización[13] de las computadoras personales, necesario para transformar definitivamente un mercado de empresas y especialistas, en un mercado masivo; que consecuentemente, cambiaría la comunicación, el trabajo, la investigación y el entretenimiento a partir de ese momento histórico.

Este lanzamiento, es producto de la previa compra por parte de Commodore –que estaba en el negocio de las calculadoras-, de la empresa MOS Technology, que fabricaba y vendía una computadora en kit, la MOS KIM-1; pero también fabricaba su procesador, que a su vez había sido utilizado en la Apple II.

El equipo consistía en un chasis, que incorporaba todos los componentes en uno –monitor, teclado y unidad de cinta-, dirigido a un público de empresas y hogares. Luego de lanzado al mercado, los pedidos crecieron rápidamente y la lista de espera para los compradores, era de meses.

Evidentemente, junto a la necesidad de las empresas fabricantes de masificar la utilización de estos nuevos equipos, existía otra paralela de los consumidores, de encarar la resolución de tareas, mecanizando las mismas; así como de repensar la forma de reorganizar su tiempo, sus datos y su esparcimiento.

Hay que destacar que esta computadora y sus sucesoras, fueron las más utilizadas en escuelas y universidades en los EE.UU., a fines de la década de 1970 y comienzos de la de 1980.

Pero en el año 1981, se produciría el que podemos denominar, el auténtico punto de inflexión en la historia de la computadora personal, con la comunicación por parte de la empresa IBM –en ese entonces el gran gigante tecnológico-, el 12 de agosto, del lanzamiento de su PC Compatible.

El director ejecutivo de la compañía, Frank Cary, había detectado en el año 1979, que las computadoras personales les robaban mercado a sus grandes equipos[14], por lo que deberían ingresar a ese mercado, pero con el sistema de fabricar todos los componentes de sus equipos, les llevaría un tiempo prolongado.

Fue así que iniciaron un proyecto de arquitectura abierta, utilizando componentes para la fabricación de sus máquinas, ya existentes en el mercado, provenientes de empresas como Intel o Epson y algunos provenientes de la propia compañía, de otras divisiones. De esta manera, cualquiera podría fabricar hardware o desarrollar software para estos equipos.

El proceso fue completado en un año y su forma de integración, posibilitaba no solo reducir costos, sino también asegurar el suministro de los distintos componentes. Una operatoria que, al permitir que otras empresas crearan componentes para la máquina, terminó formando, indirectamente, el mercado de los clones.

Esta última cuestión, ya estaba marcando el predominio del software, la inteligencia agregada, sobre la propia materialidad del equipo, que se podía copiar y fabricar por muchas empresas; una tendencia que se acentuaría aceleradamente.

Pero necesitaban un sistema operativo para la máquina, donde la empresa tenía dos opciones (Sametband, 2001): el CP/M, escrito por Gary Kildall en 1974 y que ya había vendido 600 mil copias o, el que aparentemente poseía Microsoft. Pero la realidad era que ésta última no lo tenía, por lo que Bill Gates, recomendó a IBM que se dirigieran a Kildall.

Cuando el personal de IBM fue a visitar a Kildall, no lo encontró, pero fueron atendidos por su esposa, quien se negó a firmar un contrato de confidencialidad que le exigían, por lo que eligieron a Microsoft.

Ésta última, prometió el sistema operativo, pero no lo tenía desarrollado. Entonces acudieron a Tim Patterson, quien había escrito uno, copiado del de Kildall llamado QDOS -Quick and Dirty Operating System-. Microsoft lo adquirió en 50 mil dólares y lo convirtió en el primer sistema operativo de la PC Compatible[15].

Si bien algunos de estos datos forman parte de lo anecdótico, también posibilitan observar, como no existe linealidad en los procesos de desarrollo de nuevas tecnologías, sino que los mismos obedecen a una conjunción de causas y determinaciones, así como a la acción de diferentes variables contextuales.

Por otra parte, debemos señalar que esta determinación de IBM, cambió de forma radical el desarrollo de las computadoras personales, lo que posibilitó la ya definitiva estandarización del producto; hecho que generó un mercado masivo, dirigido tanto a empresas como consumidores finales, lo que a su vez modificaría de raíz todas las relaciones sociales que se iban a disparar a partir de ese momento.

Otros dos hechos producidos ese mismo año, también deben ser señalados como hitos en este proceso, ya que los mismos, también formarían parte del desarrollo de las computadoras personales; hechos que están referidos al tema de la movilidad.

El primero, fue el lanzamiento de la Osborne 1, la primera computadora portátil comercializada de la historia. Su creador, Adam Osborne, se había hecho famoso por un libro, titulado An Introduction to Microcomputers, que la empresa IMSAI incluía en cada computadora que vendía, lo que posibilitó para el autor la venta de 300.000 ejemplares del  mismo.

Osborne tenía la idea de que para que las computadoras fueran útiles, debían tener la posibilidad de transportarse y utilizarse donde se quisiera. Lo que llevaría a la práctica cuando conoció a Lee Felsenstein, quien tenía experiencia en el diseño de computadoras. Su concepto incluía que pudiera ponerse bajo el asiento de un avión, que fuera sencilla de ensamblar y de bajo precio.

En abril de 1981, en la Feria de Computadoras de la Costa Oeste de los EE.UU., fue presentada por primera vez la Osborne-1, que se considera la primera computadora personal portátil, destacando que se trata de la primera comercializada, ya que hemos citado en este artículo, antecedentes de la misma. La máquina pesaba 13 kg. y contaba con un puerto para módem y un teclado desmontable y ya en septiembre de ese año se vendían unas diez mil unidades mensuales.

A pesar de este hecho, tanto la empresa como la máquina desaparecieron del mercado, lo cual plantea la pregunta acerca de porqué pudo suceder.

En noviembre de 1982, la compañía anunció dos nuevos modelos; la Executive, que poseía más memoria que la primera y una pantalla de 7 pulgadas, frente a la original de 5; y otro modelo, la Vixen. Estas novedades iniciarían su comercialización en febrero de 1983.

Por problemas técnicos, se retrasó la producción de la Executive y la Vixen fue eliminada como proyecto. Como resultado, los consumidores dejaron de comprar la máquina original, a la espera del nuevo modelo, que a su vez no estaba en el mercado. Esta situación, llevó a la empresa a la quiebra.

En un libro que publicó posteriormente, Osborne atribuyó el fracaso a lo que denominó el hipercrecimiento. Un caso que podemos atribuir a un problema de marketing, específicamente de comunicación; anunciar un producto más avanzado, que no se poseía, lo cual por lógica anulaba la venta del producto en stock, más antiguo. Es lo que entendemos una falla estratégica, lo que lleva a la muerte del proyecto, que no obstante sería retomado por otras empresas del sector, dado que si algo había demostrado Osborne, era visualizar hacia donde se encaminaba la naciente industria; los usuarios y consumidores, necesitaban la movilidad del artefacto que no solo era fuente de información, sino también de comunicación[16].

El otro hecho que vamos a citar es el del Epson HX-20, que si bien no fue el primer portátil, es casi coincidente con el Osborne, lo cual es demostrativo del camino que estaba emprendiendo la computadora personal y como los distintos actores, estaban analizando la potencial evolución del sector.

Este equipo fue anunciado en 1981 –si bien fue comercializado en 1982- y según Velasco (2011), era una computadora, aunque parecía una calculadora.

Su peso era de 1,7 kg. en el tamaño de una hoja A4, con teclado y batería con unas 50 horas de autonomía, almacenando los datos en una micro-cinta integrada.

Los dos casos descriptos, se han tomado como hitos, ya que los mismos estaban marcando el camino de una nueva genealogía dentro de las computadoras personales y, a la vez, disparando un proceso que, junto a los hechos expuestos con anterioridad, marcaban una transformación irreversible en el campo de la información y la comunicación.

Todavía faltaban y se producirían, muchos hitos que progresivamente, llevarían a las computadoras personales a la configuración de un sistema tecnológico como lo conocemos en nuestro presente, así como a su posterior integración con otros dispositivos y con la red Internet, que finalmente configuraría un nuevo mercado.

 

IV.- Conclusiones

 

Se ha establecido en el desarrollo del artículo, como la evolución de la computadora personal, debe ser estudiado en el marco de una más amplia historia de las computadoras; aunque representa una genealogía alternativa, a partir de la década de 1960.

Si bien solo se han considerado, como se explicitó al inicio, algunos hitos que se considera que marcan la tendencia en todo el proceso descripto, esto ha permitido observar, como los cambios tecnológicos y, los cambios sociales consecuentes, son el producto de una larga duración en la historia. Un desarrollo que es necesario estudiar en su totalidad, para comprender sus causas y las fuerzas sociales que intervienen en cada etapa en el mismo.

En ese sentido, también se puede visualizar en el trabajo, como el desarrollo de la informática, debe ser analizado como una cuestión sistémica del desenvolvimiento de las fuerzas productivas en la sociedad. Esto último es determinante, ya que no solo es el capitalismo el que produce el surgimiento de un nuevo artefacto y su posterior evolución, sino que hemos visto como en un país que se denominaba socialista, donde no existía la propiedad privada de los medios de producción, como la U.R.S.S., también se produjo este desarrollo, aunque por otros caminos tecnológicos.

De hecho, Marcuse (1985; 181), en una obra original de 1954, ya planteaba como “un computador electrónico puede servir igualmente a una administración capitalista o socialista”. A pesar de que expone, como Marx refuta esta supuesta neutralidad, sostiene más adelante que “…cuando la técnica llega a ser la forma universal de producción material, circunscribe toda una cultura, proyecta una totalidad histórica: un mundo”. De alguna manera, estaba prefigurando la situación del estado actual de desarrollo de la tecnología[17].

Pero por las características del proceso, queda claro que las computadoras, fueron impulsadas desde sus primeros pasos, por el progreso del sistema capitalista, de la misma manera que la máquina de vapor o el crecimiento de los ferrocarriles, deben ser puestos en interrelación con el propio acontecer del sistema.

Otro tema que hemos tratado, se refiere al papel que jugaron los distintos actores sociales en esta transformación. Actores que conforman lo que Pinch y Bijker (2008), denominan los grupos sociales relevantes, término bajo el cual agrupan a instituciones y organizaciones, así como grupos de individuos organizados o desorganizados, para los cuales el artefacto bajo estudio posee algún significado.

Así, los gobiernos y, en especial, la industria militar, ocuparon un lugar prominente en el siglo XX, que posteriormente iba a ser ocupado por la empresa privada; aunque algunos gobiernos, nunca dejaron de constituirse como base económica, científica y tecnológica de estos procesos[18].

Pero hay que destacar, que en toda nuestra descripción, lo que surge como novedoso, es el lugar ocupado en el desarrollo de la computadora personal, por las grandes empresas y de su contrapartida, pequeñas compañías que nacían como resultado de este nuevo mercado.

Ya hemos señalado como, los primeros intentos no aparecen solo en los EE.UU, sino también, en Francia o en Italia. Pero se puede observar como en el primero, grandes compañías que tenían la delantera tecnológica, como el caso de Xerox o de IBM, no fueron finalmente quienes se apropiaron del mercado resultante[19]; de la misma manera, que muchas organizaciones que tomaron la delantera tecnológica, desaparecieron posteriormente.

Pensamos que esta situación obedece a la convergencia de distintas causas, como puede ser por una parte el hecho, de que las grandes compañías, se encuentran muchas veces ancladas en el éxito de sus productos y en su poder de participación en el mercado, lo que les imposibilita observar como esos mercados, pueden transformarse o desaparecer, al compás del surgimiento de tecnologías innovadoras; es el caso que denominamos los competidores amplios, que terminan reemplazando a los mercados y/o productos existentes.

Situaciones como el del mercado de la fotografía, donde las marcas tradicionales fueron desplazadas, ante el surgimiento de las tecnologías digitales, por marcas de productos de consumo hogareño o, posteriormente, el caso del mercado de cámaras fotográficas sucumbiendo, a nivel masivo, ante el de los teléfonos celulares.

Pero otra de las causas entendemos se vincula a las características de los nuevos productos, como hemos visto en el desarrollo de las computadoras personales, donde son necesarios distintos procesos de ensayo y error, hasta alcanzar la operatividad y posterior estandarización.

Lo expuesto, sin obviar el hecho de que las grandes organizaciones, como lo han demostrado en el curso de la historia, siempre están en condiciones, por su poder económico y financiero, de absorver aquellas empresas que poseen proyectos rentables en el largo plazo.

Otra cuestión a considerar, es el tema de la recepción por parte de consumidores y usuarios en todo este proceso. Tema que, más allá del poder de las empresas para imponer modelos y pautas de consumo, pensamos que es central, tratándose de mercados en formación.

Al interés de los nuevos actores empresarios del proceso, en fomentar el interés por las nuevas computadoras personales, a su vez impulsado por el sistema de los medios de comunicación –ya ha sido mencionado el papel de Popular Electronics como ejemplo-, hay que sumarle los propios intereses de los futuros consumidores del producto.

Entre éstos últimos, encontramos dos grupos diferenciados y a su vez interrelacionados: el conjunto de las empresas y los consumidores finales. Los primeros, interesados en el potencial del nuevo artefacto, por las transformaciones que posibilitaba en la organización del trabajo, así como en el consecuente procesamiento de la información y su utilización en los negocios.

Y los segundos, por el potencial que significaba en la comunicación y el entretenimiento, además de haber asumido un discurso que les instaba a tomar los procesos en sus manos, hecho que indirectamente –y paradójicamente-, estaba trasladando muchas de las actividades de los negocios al propio consumidor, sin su contrapartida en los precios.

Pero los consumidores, también fueron demandando una estandarización de productos y programas, para que se pudiera justificar acceder a las nuevas computadoras, ya que las mismas debían ser compatibles en todo el sistema comunicacional; solo de esta manera tomaban sentido las promesas sobre las perspectivas del nuevo artefacto.

Si bien lo que hemos delineado son solo las bases del tema en cuestión, ya que el mismo deberá ser profundizado en nuevas investigaciones, constituye sin duda un punto de partida para entender este proceso –que comprende en nuestro análisis el período desde la década de 1960 hasta 1981, donde se puede decir que se dispara la estandarización-, posibilitándonos comprender el desarrollo de este producto tan particular, como partícipe necesario en la construcción de todo un modelo de nuevas relaciones sociales en el sistema capitalista. Pues como sostenía Neil Postman (1998), si hay algo que caracteriza al cambio tecnológico, es que el mismo es ecológico, pues se difunde e impacta en todas las esferas de la sociedad.

 

Bibliografía y Fuentes

 

Bush Vannevar. As we may think. The Atlantic Monthly, Julio 1945. Disponible en: https://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/

Coello Coello Carlos A. La primera portátil de la historia. Soluciones Avanzadas. Tecnologías de Información y Estrategias de Negocios, Año 7 N° 72, México, 15 de Agosto de 1999. pp. 4-6.

Cómo llegó el fin de Xerox, la compañía que inventó las fotocopiadoras y las primeras computadoras personales. BBC Mundo, 5 de febrero de 2018. Disponible en: https://www.bbc.com/mundo/noticias-42913422  

Duer Walter. La Mac cumple 20 años. Diario La Nación, Suplemento Mi PC, Buenos Aires, 26 de enero de 2004, pp. 1, 4-5.

Fernández T. y Tamaro E. Biografía de Konrad Zuse. Biografías y Vidas. La enciclopedia biográfica en línea. Barcelona, España, 2004. Disponible en: https://www.biografiasyvidas.com (Fecha consulta: 7 de julio de 2022)

Franco Alejandro. Tecnología: historia de la PC. Disponible en: www.datacraft.com.ar/informática-historia-pc/

History Computer Staff. Xerox NoteTaker. 20 de marzo de 2022. Disponible en: www.history-computer.com/xerox-notetaker-guide/

Lamarca Lapuente María Jesús. Hipertexto. El nuevo concepto de documento en la cultura de la imagen. Disponible en: https://hipertexto.info/documentos/h.hipertex.htm  

López José María. Univac, la computadora que inspiró a Asimov. 22 de diciembre de 2018. Disponible en: https://hipertextual.com/2018/12/univac-computadora-inspiro-asimov

López José María. Olivetti, en busca del ordenador perfecto. 16 de marzo de 2019. Disponible en: https://hipertextual.com/2019/03/historia-ordenadores-olivetti?utm_source=Hipertextual+Newsletter&utm_campaign=03452a9c77-Newsletter+Hipertextual&utm_medium=email&utm_term=0_e9ffbde302-03452a9c77-81851501 

López José María. Cómo inspiró Popular Electronics el nacimiento de Microsoft. 29 de mayo de 2021. Disponible en: https://hipertextual.com/2021/05/revista-popular-electronics-microsoft-paul-allen

Marcuse Herbert. El hombre unidimensional. Ensayo sobre la ideología de la sociedad industrial avanzada. Planeta Agostini, España, 1985.

Moledo Leonardo y Kukso Federico. Soft Byron. Diario Página 12, Buenos Aires, 19 de septiembre de 2004.

Molinari Carlos A. J. El arte en la era de la máquina. Conexiones entre tecnología y obras de arte pictórico 1900-1950.Buenos Aires, Teseo, 2011.

Pinch T. y Bjiker W. La construcción social de hechos y artefactos: de cómo la sociología de la ciencia y la sociología de la tecnología pueden beneficiarse mutuamente. En: Thomas H. y Buch A. (comp.). Actos, actores y artefactos. Sociología de la tecnología. Universidad Nacional de Quilmes, Buenos Aires, 2008.

Postman Neil. Five things we need to know about Technological Change. Congreso Internacional de Nuevas Tecnologías y persona humana: Comunicando la fe en el Nuevo Milenio, Denver, EE.UU.,  28 de marzo de 1998. Disponible en:  

https://web.cs.ucdavis.edu/~rogaway/classes/188/materials/postman.pdf

Rus Cristian. El ordenador soviético que funcionaba con agua en vez de electricidad. 27 de Julio de 2000. Disponible en: https://www.xataka.com/historia-tecnologica/ordenador-sovietico-que-funcionaba-agua-vez-electricidad#:~:text=Uno%20de%20los%20m%C3%A1s%20interesante,dinero...%20con%20agua.

Sametband Ricardo. Cómo se gestó la Personal Computer. Diario La Nación, Suplemento Informática, Buenos Aires, 13 de agosto de 2001, p. 6.

Sametband Ricardo. Mark Dean, el hombre que creó la cara de la primera PC. Diario La Nación, Suplemento Tecnología, Buenos Aires, 14 de agosto de 2006, p. 8.

Sametband Ricardo. El hombre que inventó el mouse. Diario La Nación, Suplemento Mi PC, Buenos Aires, 7 de octubre de 2002, pp. 1, 4-6.

Velasco J. J. Historia de la tecnología: el primer ultraportátil de la historia, el Epson HX 20. 15 de Agosto de 2011. Disponible en: https://hipertextual.com/2011/08/epson-hx-20-primer-ultraportatil-historia

Velasco J. J. Historia de la Tecnología: Commodore PET. 7 de marzo de 2013. Disponible en: https://hipertextual.com/2013/03/commodore-pet-historia

Wozniak Steve y Smith Gina. IWOZ. Steve Wozniak, de genio de la informática a ícono de culto. De Rasche y Pereira Menaut, Madrid, 2013.

Páginas de Internet consultadas:

www.fujitsu.com

www.scelbi.com

 

 

 

 

 



[1]  Debemos decir que este desarrollo, lentamente, se había iniciado ya mucho tiempo antes.

[2] Aunque se trataba de un invento de James Thomson, del año 1876.

[3] En 1956, en el MIT se había construido la que se conoce como la primera computadora en la historia transistorizada, la TX-O, pero la misma solo tenía objetivos de investigación. También en 1959, la empresa japonesa NEC, construyó la NEAC 2201, totalmente transistorizada.

[4] Entendemos por cambio tecnológico, no simplemente una modificación o avances dentro de una misma tecnología, sino las rupturas que se producen en relación con la tecnología existente y, que a su vez, disparan un proceso que impacta en otras tecnologías y en el conjunto de las relaciones sociales.

[5] Debemos señalar igualmente que “larga duración”,  también es un término con contenido histórico, pues el plazo del mismo tomará sentido en cada período analizado.

[6] Sin debatir en este trabajo, acerca de si lo que se estaba construyendo era realmente socialismo, o estaba derivando hacia otro tipo de estructura social.

[7] Como dato complementario, la patente del Mouse quedó en el Stanford Research Institute, que más tarde lo licenció a Apple por U$S 40.000.- Engelbart recibió U$S 10.000.-

[8] Igor Anssoff define esta tasa como la velocidad con que los nuevos productos y servicios invaden los mercados. (Ver: Ansoff H. Igor y McDonell Edgard J. La dirección estratégica en la práctica empresarial. Addison Wesley Iberoamericana S.A.: México; 1998. pp. 9-10). En un sentido amplio, lo entendemos como la velocidad desde el proceso de investigación e innovación hasta el consumo.

[9] Para López (2019), la paternidad de la computadora personal se atribuye al IBM 610, de 1957, que era de menor tamaño que las computadoras de ese momento, pero tenía el objetivo de que pudiera ser operada por cualquier persona, aunque no fuera un ingeniero. Entonces, se la podría entender como la paternidad conceptual de las computadoras personales. En cuanto a la primera, se puede decir que la Programma 101 de Olivetti también podría reclamar este lugar.

[10] “Lo que ves es lo que tienes”.

[11] Como antecedente, en el año 1974, Scelbi Computer Consulting, desarrolló asimismo un hardware y software basado en el procesador Intel 8008, que estaba disponible en kit pero también se vendía ensamblado, una producción que fue abandonada en poco tiempo. El equipo, igual que después la Altair, tenía un panel frontal con interruptores.

[12] No ha sido posible para esta investigación, constatar la cantidad exacta de unidades vendidas.

[13] Hay que destacar, que todavía se trataba de un proceso lento y complejo para estos años.

[14] Se debe señalar igualmente, que en 1975, la empresa había lanzado al mercado una minicomputadora de escritorio, la IBM 5100, si bien de precio excesivamente elevado.

[15] Las relaciones entre las innovaciones de las empresas y lo fortuito, el azar, ya han sido exploradas por el autor de este artículo en: Molinari Carlos A. J. Estrategia e Innovación ¿Dimensiones en conflicto? Anales de la Facultad de Ciencias Empresariales, Universidad Abierta Interamericana, Tº I Nº 2, Buenos Aires, 2005. pp. 163-177, lo que nos exime de profundizar en el tema.

[16] Aunque para completar este proceso, todavía faltaban muchos años, hasta la llegada de Internet abierta al público, lo que terminó de configurar todo un nuevo y amplio mercado, cuya descripción y características exceden este artículo.

[17] Queda por fuera de los objetivos de este artículo, el debate de la cuestión de la neutralidad de la tecnología y de los artefactos.

[18] El caso de la evolución de la red Internet, que se constituyó en la plataforma del desarrollo de las tecnologías digitales, que no hemos tratado en este trabajo por quedar fuera de nuestro espacio cronológico, es claro al respecto.

[19] Aunque hay que resaltar, que el posterior devenir de todo este proceso, demostró que el verdadero corazón del mismo no era tanto el artefacto, sino sus programas.