Archivos de Autor: María Aurora Martínez Rey

Ingeniería: Un concepto que emerge de las revoluciones sociales.

La ingeniería es un concepto que emergió de las revoluciones industriales. Éstas fueron unas épocas de cambios drásticos y transformación de herramientas manuales y cosas hechas a mano a bienes producidos, masivamente fabricados por máquinas.

La primera revolución industrial comenzó en Inglaterra en los años 1730 y surgió de invenciones e innovaciones tecnológicas en el tejido del algodón. Antes de ello, la economía en Inglaterra y en el resto del mundo se basaba en la agricultura. Los trabajadores comparaban las materias primas y confeccionaban a mano, en sus casas, los productos. Y éstos eran gestionados  y propiedad de cada persona o familia. La productividad era baja, los bienes tenían precios altos y sólo podían adquirirlos  por gente pudiente. Bajo la creciente demanda de vestidos de algodón, se inventó en 1733 el Telar de Lanzadera que resultó en la reducción en la mitad del tiempo  del tiempo de confección.

Esta invención fue el detonante y disparador de la primera revolución industrial. Invenciones tales como los telares automáticos movidos a vapor ayudaron a la fabricación de bienes de algodón  mejorando espectacularmente la productividad con la maquinaria y la producción masiva de los mismos. De esta manera se pasó de la fabricación casera al sistema de fábricas. La producción masiva puso al alcance de casi todos los bienes producidos, mejorando la calidad de vida, aunque eso sí, con revueltas sociales como las de los eruditos que se oponían a dichas mejoras. Entre tanto, se inventaron máquinas de vapor que proporcionaron más potencia que los caballos y proporcionaron un procedimiento más rápido de transporte para personas y mercancías.

La segunda revolución industrial, de principios del siglo XIX fue aún más drástica no sólo en invenciones sino también en reformas organizativas y sociales a medida que la vida con las máquinas ya la había asimilado la sociedad. Esta revolución usó el poder de la electricidad basada en las invenciones de Michael Faraday. La electricidad mejoró la calidad de vida al proporcionar a la gente tanto luz como potencia a las máquinas. Las comunicaciones, a su vez, mejoraron con la aparición del telégrafo y el teléfono. También se descubrieron las ondas radiofónicas que permitían enviar mensajes a largas distancias de modo prácticamente instantáneo. Asimismo por estas fechas, se inició la industria química y del petróleo que comenzó a usarse como una fuente de energía alternativa. Como resultado las máquinas de vapor fueron sustituyéndose por motores de combustión interna. Dando lugar a la industria  del automóvil y a el uso de sus ventajas en el transporte, tanto público como privado. Y se inició la industria aeronáutica.

Ambas revoluciones, condujeron ya en el siglo XX al desarrollo de la industria aeronáutica y al nacimiento de la revolución de los computadores y de la información, aún en desarrollo y que ya espectacular y fundamentalmente ampliaron las capacidades humanas, su alcance y poder cognitivo.

Las características de las revoluciones industriales tales como maquinaria, producción masiva, energía, potencia de sistemas, transporte de alta velocidad y telecomunicaciones fueron la cuna del concepto de ingeniería. Como lo observó Andrew Ure en 1835 en su Filosofía de las Manufacturas las mejoras en la maquinaria en las revoluciones industriales tenían una triple característica:

  • Hicieron posible fabricar algunos productos que, sin ellas, no podrían fabricarse.
  • Permitieron una forma operativa que generó una cantidad de trabajo muy superior a la que se hacía antes manteniendo constantes el tiempo, y la calidad del mismo.
  • Efectuaron una institución del trabajo no cualificado  por otro más calificado.

Estas observaciones muestran el gran alcance  del enfoque  ingenieril en la industrialización que resultó en ampliar la capacidad humana, mejorar la productividad y reducir el requisito  de habilidad. De hecho, los impactos de las revoluciones industriales y la industrialización de las economías pueden describirse a partir de los cinco aspectos siguientes:

  • Nuevas formas de energía.
  • Centralización del trabajo en fábricas.
  • Manufactura y producción masiva.
  • Trabajo asalariado y gestión como profesión.

Más genéricamente, las revoluciones industriales ampliaron las capacidades físicas humanas mediante las máquinas y motores, mientras que la nueva revolución de la información se centra en la potenciación de las capacidades intelectuales humanas mediante el procesamiento de la información usando computadores, redes de comunicación y robots.

Al contrario del proceso tradicional de producción basado en el individuo, la ingeniería es una metodología que capacita a un grupo de personas a trabajar juntas para producir un producto complejo, o alcanzar una meta común, que no podría alcanzarse individualmente por razones físicas, técnicas y, o, económicas. Por lo tanto la esencia de la ingeniería es la metodología organizativa para capacitar y optimizar el trabajo en equipos.

Fabricación: Orden Vs Entropía.

Cuando al ser humano no le satisface el orden que observa en la naturaleza, lo modifica si puede. Para ello, necesita información sobre el aspecto de ese nuevo orden, conocimientos para construirlo y energía para llevar a cabo el proceso. Las grandes revoluciones técnicas del pasado se han centrado en el factor energético. Sirva como ejemplo, la máquina de vapor, el motor de explosión, los eléctricos, las centrales hidroeléctricas y nucleares, etc.

Sin embargo, el profundo cambio tecnológico actual no se basa en la energía, sino en la información, sobre todo en forma de conocimiento. Y esto supone, de facto, un gran valor añadido. A veces, a este valor añadido se le considera, erróneamente, intangible. En efecto, es tan tangible que su precio es fácilmente computable. Un par de ejemplos, mostrarán esto paulatinamente. Todos los materiales que componen un Airbus o un iPhone del último modelo son relativamente comunes, con un coste que apenas excede unos pocos euros el kilogramo, lo mismo vale decir, para la energía y la mano de obra (normalmente robots) consumidos. Sin embargo, el producto final se vende a precio de miles de euros por kilo. La mayor parte, prácticamente todo, de ese valor añadido procede de la información, especialmente en forma de conocimiento.

Hoy por hoy, el mayor crecimiento en manufactura está teniendo lugar en China e India y otros países, denominados emergentes, lo que está contribuyendo a su desarrollo económico. Pero la maquinaria, tecnología y el conocimiento que incorporan provienen de otro sitio, en especial EE.UU y Europa. En este contexto, la oportunidad para los países avanzados  reside en construir utensilios de alta tecnología que permitan la fabricación de numerosas herramientas, así como el proporcionar los programas, la logística y la mercadotecnia necesarios para manipular las materias primas del modo más inteligente posible. Ello permitirá que la fabricación continúe almacenando cada vez más información, sobre todo en forma de conocimiento, con menos materiales y con un menor coste energético, contribuyendo así a ordenar el mundo de acuerdo  con las necesidades humanas.

Las revoluciones industriales acaecidas en los últimos 150 años, en buena medida han estado ligadas a nuevos paradigmas energéticos. La acumulación de acontecimientos en ciencias básicas, matemáticas, física, química, junto con el desarrollo de las ciencias aplicadas, de los materiales y las ingenierías, hicieron posible cambios inusitados en la capacidad humana de fabricar todo tipo de utensilios: instrumentos, herramientas, etc. y sus modelos, técnicas, métodos y procedimientos asociados. Sin embargo, en el siglo XXI, se hace patente la necesidad de transformar el paradigma de la civilización actual respecto a su interrelación  con la naturaleza. Que, en resumen, se traduce en hacer más con (mucho) menos; es decir, más eficientemente.

Afortunadamente, los siglos pasados y en especial el XX le ha dejado a la humanidad como herencia lo mejor herramienta para enfrentar este reto colosal: el binomio ciencia-tecnología, producto del conocimiento científico, tanto teórico como práctico.

Las ciencias básicas y aplicadas permiten hoy crear sinergias antes inimaginables. Este es, precisamente, el ámbito en el que se desarrolla la nanociencia y la nanotecnología: el de la multidisciplinariedad  y la transversalidad que permite generar ideas rompedoras, sacando partido de los procesos que ocurren a escala atómica y molecular para fabricar con el mínimo consumo de materiales y energía. Esto lleva a una nueva economía, basada en el conocimiento; es decir, una eco-industria que dispone de nuevas herramientas, usa nanomateriales, economiza recursos y recicla casi todo lo que fabrica y utiliza.

Para lo cual, hay que acelerar la generación y transferencia  de conocimiento mediante la implantación de nuevas infraestructuras que permitan reducir a la mitad el tiempo necesario para ir de la invención a la innovación. No hay que olvidar el ciclo de la riqueza: inyectar dinero (financiación en I+D) para obtener conocimiento, seguido de la inyección de conocimiento (innovación y demostración, i+d) para obtener dinero. Y vuelta a empezar.

Hoy ya no se trata de conseguir ventajas competitivas mediante economía de escala o mano de obra barata, sino de mentefactura, flexibilidad y adaptabilidad, que son las claves del éxito. Y si algunos trenes se han perdido, otros aún están pasando o por pasar. El de la nanociencia y la nanotecnología, entre otros, aún están en la estación y España tiene un billete preferente en ese tren. Sin embargo, se sigue siendo ineficientes en la transferencia  del conocimiento a un sector productivo que no detecta a España como catalizador del proceso y del crecimiento. El recorrido en España entre la invención y la innovación  es tortuoso y en esta travesía del desierto se quedan en el camino y, o, malogran muchas buenas ideas. La famosa paradoja europea, liderazgo en ciencia y retraso en innovación, en España se agudiza y empeora, pues tampoco en ciencia se está donde se debería. Y de esto, todos o casi todos tienen su cierta parte de culpa. Partidos políticos, sindicatos, empresarios, etc. Y no se saldrá del  atolladero si la investigación, innovación e industria permaneces en la cola de Europa en I+D+i+d.

Energía, Velocidad y Memoria en el Cómputo.

Todos los procesos de cómputo, pasados, presentes y futuros, que se realicen mediante piedras (calculi en latín de ahí el nombre de cálculos), ábacos, maquinaria electrodinámica o electrónica, sistemas biológicos, ADN o cerebro, etc., son procesos físicos. De este modo, lo que pueden y no pueden hacer y hasta dónde les está permitido llegar en cuanto a prestaciones, tanto de velocidad como de capacidad de almacenamiento de información, viene determinado por las leyes de la física. Es decir, cuestiones aplicables a los demás procesos físicos, tales como: ¿Cuánta energía se requiere para efectuar un determinado cómputo? ¿Cuál es la base de representación de la información óptima? ¿Cuáles son los límites del espacio de memoria?, etcétera. Pues bien, hasta el presente ha sido más fácil plantear estás preguntas que responderlas.

La mecánica cuántica proporciona una respuesta simple a la cuestión de cuán rápido puede procesarse la información  usando una determinada cantidad de energía. Por su parte, la mecánica estadística y la entropía termodinámica proporcionan un límite fundamental al número de bits de información que pueden procesarse usando una cantidad de volumen confinado en un volumen dado. La energía disponible, limita necesariamente la ratio a la cual un computador  puede procesar la información. Similarmente, la entropía máxima de un sistema físico determina la cantidad de información que puede procesar. De modo que, en resumen, la energía limita la velocidad y la entropía la memoria.

Martínez, M.A.: Un Teoría para Desarrollo Software construida mediante Técnicas y Modelos de Gestión del Conocimiento. UDC. A Coruña. 2008.

Sobre una teoría de desarrollo software.

Una profesora de la UDIMA, junto con un grupo de profesores de la UDC, publican sus investigaciones sobre la teoría en el desarrollo software en el WSEAS and IAASAT International Conferences, celebrado en Florencia, Italia, en agosto del 2011.

Autores: Javier Andrade, Juan Ares, Rafael García, María-Aurora Martínez, Santiago Rodríguez, Sonia Suárez.

Título: About Theory in Software Development.

Publicado en: Proceeding GAVTASC’11 Proceedings of the 11th WSEAS international conference on Signal processing, computational geometry and artificial vision, and Proceedings of the 11th WSEAS international conference on Systems theory and scientific computation. ISBN: 978-1-61804-027-5. Página: 256.

Abstract:

A pesar de ser dos aspectos estrechamente vinculados, el hardware y el software han evolucionado de manera muy distinta. De hecho, mientras que la evolución del hardware ha sido exponencial, el software ha evolucionado de forma lineal. Una de las razones fundamentales de este desfase entre el desarrollo de hardware y el desarrollo de software es que el primero está soportado por la ingeniería basada en la ciencia, cuya teoría científica está muy bien establecida, mientras que el desarrollo de software no tiene esa teoría científica asociada que lo avale. El objetivo del presente trabajo es el análisis, no sólo del desarrollo histórico del software, sino también de los enfoques teóricos actuales del mismo. Los resultados obtenidos serán utilizados para proponer nuevas líneas de investigación que permitan ayudar a esta disciplina a evolucionar en el campo científico. Y de ser posible, también se podrían establecer las bases científicas que permitan al software avanzar a una velocidad similar a la del hardware.

Despite being two very closely linked things, hardware and software have evolved very differently. In actual fact, while hardware evolution has been exponential, software has evolved linearly. One of the fundamental reasons for this mismatch between hardware development and software development is that hardware development is supported by engineering based on science whose scientific theory is very well established, whereas software development is not. The goal of the present work is the analysis of, not only software historic development, but also the current theoretical approaches for software development. The results achieved will be used for proposing new research lines that might help this discipline to advance in the scientific field. It should be then possible to establish the foundations that might enable software advance similarly as hardware does.

El "eslabón perdido" de la computadora: El "Memristor".

Durante treinta y siete años el memristor fue un dispositivo hipotético, sin ejemplos físicos, hasta que el 30 de abril del 2008, un equipo de investigadores de Hewlett Packard, encabezados por Stanley Williams anunciaron el desarrollo de un memristor conmutador (Strukov, 2008). En efecto, tradicionalmente, en teoría de circuitos, se habían detectado tres elementos pasivos básicos de los circuitos; a saber, el condensador, la resistencia y la inducción, conocidos como la trinidad de componentes fundamentales. Sin embargo, en 1971, el pionero en teoría de circuitos no lineales Leon Chua, de la universidad de Berkeley, tuvo una chispa de inspiración y, examinando las relaciones entre carga y flujo de resistencias, condensadores y bobinas de inducción, postuló la existencia de un cuarto elemento: el memory resistor o memristor. Según él conjeturó, tal dispositivo debería proporcionar una relación similar entre el flujo magnético y la carga que una resistencia da entre voltaje y corriente. Un memristor, híbrido de memory resistor, es pues,  cualquiera de los distintos tipos de elementos pasivos de dos terminales de los circuitos que mantienen una relación funcional entre las integrales de corriente y voltaje en el tiempo. En la práctica eso debe significar que actúa como una resistencia cuyo valor podría variar de acuerdo a la corriente que pasa a través de ella y que debería recordar ese valor incluso después de que cesase la corriente. Y esto es lo que es trascendental.

La razón por la cual el memristor es radicalmente distinto de los otros elementos fundamentales de los circuitos es que, a diferencia de ellos, conserva una memoria de su pasado. Cuando se apaga el voltaje del circuito, el memristor aún recuerda cuánto le fue aplicado y por cuánto tiempo; es decir, la memoria de los memristores tiene consecuencias. La razón para que los computadores tengan que ser reinicializados, cada vez que se encienden es que sus circuitos lógicos son incapaces de conservar  sus bits una vez que se apagan. Pero debido a que los memristores pueden recordar voltajes, un computador dirigido por memristores nunca debería necesitar reinicializarse. En otras palabras, uno podría dejar sus archivos de texto y hojas de cálculo abiertas, apagar el computador e irse de vacaciones dos semanas y al volver y encender el computador todo instantáneamente, aparecería en la pantalla exactamente tal y como se dejó.

Gracias a los memristores, los dos tipos de memoria, física y volátil, usados hasta ahora, dejarán de ser necesarios, ya que, además de almacenar grandes cantidades de información, este dispositivo es capaz de actuar como una memoria RAM, con la salvedad de que no se borra cuando deja de recibir electricidad. Con esta nanotecnología, será posible volver a incrementar la potencia computacional, ya que un solo memristor desempeña la función de varios transistores.

Por otra parte, el memristor es un ejemplo más de la armonía preestablecida entre la matemática y las ciencias experimentales, pero, como dijo Rudyard Kipling esa es otra historia.