Todos los procesos de cómputo, pasados, presentes y futuros, que se realicen mediante piedras (calculi en latín de ahí el nombre de cálculos), ábacos, maquinaria electrodinámica o electrónica, sistemas biológicos, ADN o cerebro, etc., son procesos físicos. De este modo, lo que pueden y no pueden hacer y hasta dónde les está permitido llegar en cuanto a prestaciones, tanto de velocidad como de capacidad de almacenamiento de información, viene determinado por las leyes de la física. Es decir, cuestiones aplicables a los demás procesos físicos, tales como: ¿Cuánta energía se requiere para efectuar un determinado cómputo? ¿Cuál es la base de representación de la información óptima? ¿Cuáles son los límites del espacio de memoria?, etcétera. Pues bien, hasta el presente ha sido más fácil plantear estás preguntas que responderlas.
La mecánica cuántica proporciona una respuesta simple a la cuestión de cuán rápido puede procesarse la información usando una determinada cantidad de energía. Por su parte, la mecánica estadística y la entropía termodinámica proporcionan un límite fundamental al número de bits de información que pueden procesarse usando una cantidad de volumen confinado en un volumen dado. La energía disponible, limita necesariamente la ratio a la cual un computador puede procesar la información. Similarmente, la entropía máxima de un sistema físico determina la cantidad de información que puede procesar. De modo que, en resumen, la energía limita la velocidad y la entropía la memoria.
Martínez, M.A.: Un Teoría para Desarrollo Software construida mediante Técnicas y Modelos de Gestión del Conocimiento. UDC. A Coruña. 2008.