De la era de la energía y materia, a la de la información

Hemos comenzado el siglo XXI ante nuevas crisis culturales, políticas, económicas y sociales, muchas de ellas relacionadas e incluso con una clara relación de causa-efecto, con el desarrollo acelerado de las Tecnologías de la Información que arrancan a mediados del siglo pasado. La puesta en marcha de la informática y la microelectrónica en los años 50 ha dinamizado todo el panorama científco, tecnológico y estructural de nuestra sociedad, globalizándola y preñándola con las semillas de una nueva civilización, con nuevas convulsiones y nuevas esperanzas. No cabe ninguna duda de que la universidad ha jugado un papel fundamental en esta revolución científco- tecnológica. Aún hemos refexionado muy poco sobre la nueva dimensión, más inmaterial que nunca, del motor de este dinamismo tecnológico que mueve nuestra sociedad actual.

En la civilización industrial anterior, el mundo se modelaba como constituido por materia y por energía, y éstos eran los objetos sobre los que trabajaba la actividad científca y tecnológica. Materia y energía, sometidas en primer lugar a las leyes de la mecánica y la termodinámica clásicas y complementadas posteriormente con las leyes de la mecánica cuántica y de la teoría de la relatividad.

El feliz hallazgo reciente del Bosón de Higgs es un buen colofón (casi defnitivo) de un proceso científco- tecnológico muy brillante y de enorme infuencia cultural y social, pero que es elemento vertebral de nuestra civilización actual. Esta física clásica y la ingeniería derivada de ella no podían tener la fuerza innovadora y la dinámica que las ciencias y tecnologías de la información han proporcionado a las ingenierías y, a través de ellas, a toda la sociedad. En ellas, la información no es sólo el fruto del 9 estudio de los científcos sobre la materia y la energía de la naturaleza sino que también es parte constitutiva de la naturaleza y por tanto objeto de estudio y elemento fundamental de los artefactos a diseñar y construir por los científcos y por los ingenieros.

Con la fabricación del Eniac y el descubrimiento del transistor, a mediados del siglo pasado, se inició un proceso científco-tecnológico, potenciador de todas las disciplinas y ramas del saber, que se desarrolla a una gran velocidad, desconocida en las civilizaciones anteriores. La clave identifcativa de este desarrollo científco-tecnológico es la naturaleza esencialmente dinámica de la información, radicalmente distinta del tándem materia-energía de la civilización anterior.

La información tiene una naturaleza cualitativa; en ella no es esencial lo cuantitativo. Cuando hablamos de cantidad de información, nos referimos a lo cuantitativo del soporte material y energético de dichas informaciones pero nunca a algo esencial a las mismas. De hecho una misma información puede estar soportada por elementos materiales y energéticos con valores cuantitativos muy diferentes.

Una misma fotografía, por ejemplo, requería varios Megabytes para ser transmitida hace unos años por la red y hoy en día se puede transmitir con igual ó mejor calidad con sólo varios Kilobytes (los bytes implican un soporte material 10 y energético de dimensiones también cambiantes con el paso del tiempo).

Quizás más signifcativo sea el hecho de que el primer ordenador, el Eniac, era más de un billón de veces menos efciente que un ordenador portátil de ahora y sin embargo ocupaba un enorme edifcio y requería toda una central eléctrica para conseguir la energía necesaria para que empezase a funcionar,… Una prueba más del carácter cualitativo y no cuantitativo de la información es el fracaso que ha tenido el intento de establecer el ‘Meme’ como unidad cuantitativa de información transmitida. theory-of-relativity-486718__180

Precisamente este carácter esencialmente cualitativo de la información es lo que la hace no estar sometida a las leyes de la mecánica y la termodinámica, clásicas o relativistas. Su independencia del carácter cuantitativo la hace no tener que cumplir el principio de conservación universal que rigen para la materia y para la energía por separado en la mecánica clásica, y conjuntamente para la física relativista. Einstein demostró que la materia se puede transformar en energía y viceversa.

Pero el conjunto materia-energía del universo permanece inalterado. Por el contrario, la información se puede crear y puede desaparecer; puede estar simultáneamente en muchos lugares; puede emanar de fuentes de información de manera ininterrumpida sin que merme la propia información de la fuente emisora, …Rasgos todos radicalmente distintos del comportamiento de la materia y la energía. Está claro que si en este acto de la lección inau- gural, os repartiese materia ó energía en cualquiera de sus formas, en la misma medida que os la diese, en esa misma medida yo las perdería (todo ello medible perfectamente: en kilogramos la materia ó kilovatios-hora la energía). Sin embargo, es posible que os aporte información que no teníais previamente a este acto sin que ese en- riquecimiento vuestro signifque empobrecimiento equi- valente en mi persona. Por mucha información que os suministre, para nada me voy embruteciendo. Todo lo contrario, estoy convencido de que en la medida que os enriquezcáis cultural e intelectualmente vosotros, también yo me estaré enriqueciendo.

Fragmento (Introducción) de la lección inaugural de Alfonso Gago Bohorquez en la Universidad de Málaga
Reflexiones ante los retos tecnológicos y deontológicos de la universidad actual. (2012)

Extending Theory for Social Evolution

 Cooperación y conflicto como atractores de la evolución humana.

by John Pepper
Aug. 20, 2015
Because natural selection is driven by competition, cooperation and altruism were the issues that most troubled Darwin, and the evolutionary theorists who have followed him. Recent studies of conflict within genomes also require upgrades on classical theory.
Much of the cooperation and conflict in nature concerns resource allocation. Here we consolidate existing theory for the evolution of resource transfers of fixed amount between individuals. We also extend inclusive fitness theory to address cooperation and conflict among any evolving actors that share control over a resource pool, and that influence how resources are allocated. This allows better prediction of evolutionary dynamics, and extends theory to include the evolution of actors that are neither donor nor recipient, greatly expanding its scope. We show that under adaptive evolution, conflict is an evolutionary attractor even between initially cooperating actors, and that adaptations for both cooperation and conflict are likely to evolve in the same context, with conflict likely to follow cooperation on an evolutionary time scale. Our framework encompasses cooperation and conflict both among organisms, and also among reproducing sub-units and genetic elements. It is therefore applicable to intra-genomic interactions and evolutionary transitions in individuality.

Evolución histórica de la conciencia humana (I)

La historia de la persona humana ha constituido un proceso en cierta medida paralelo al proceso que estamos recorriendo en el desarrollo de la informática y de las nuevas tecnologías de la información, pasando lentamente desde el lenguaje de los hechos primero y de las palabras después, a través de los conocimientos elaborados por el diálogo y la colaboración de las colectividades, para conseguir un funcionamiento inteligente de los retos que ha abordado.

En este proceso ha sido mucho más eficiente la colaboración y la sinergia que la confrontación entre las personas y sus colectivos.

Tal como hemos apuntado, las ca650_1200racterísticas de un ser con conciencia, como un ser que procesa la información en el nivel cualitativo más alto, no las encontramos en todo el universo conocido más que en los seres humanos.

La prueba más evidente de que la conciencia es la característica diferenciadora de la especie humana respecto a las demás especies animales es el hecho de la evolución histórica de los que habitamos el planeta Tierra.

Hace poco hemos celebrado el bicentenario del nacimiento de Darwin, autor de “El origen de las especies” y de “El origen del hombre”.

Son claras las aportaciones de Darwin, complementadas con las teorías mutacionistas, acerca de cómo se han ido imponiendo las diferentes especies de la flora y la fauna en nuestro planeta gracias a la “selección natural” de las especies que mejor se adaptaron al medio ambiente.

Una maravillosa conjunción de: largas temporadas de miles de millones de años, el azar de las mutaciones genéticas de los seres vivos que se transmiten hereditariamente, y la lucha por la supervivencia ante un medio ambiente cambiante, han producido un precioso mosaico de millones de especies de plantas y animales que pululamos en este planeta azul, único conocido hasta ahora que contenga seres vivos (hay la esperanza de poder encontrar vida en la luna “Europa” de Júpiter, pero se sabe que si la hubiera sería en sus formas más rudimentarias).Conciencia-social

Dentro de esos millones de especies animales destacamos de forma muy sobresaliente los miembros de la especie Homo Sapiens, que actualmente formamos un colectivo de más de 7.000 millones de personas, pero que estuvimos a punto de la extinción debido a la catástrofe de Toba hace más de 60.000 años, cuando quedamos reducidos a menos de 1.000 individuos, todos residentes en África. Eso sí que fue un verdadero peligro de extinción y no el vaticinado torpemente por el maltusianismo.

Los primeros fósiles encontrados de nuestra especie datan de hace 200.000 años, pero nuestros ancestros, dotados de inteligencia y de conciencia muy bien pueden tener del orden del millón de años.Una característica específica de nuestra especie, sin duda por nuestra capacidad de ser conscientes, es la capacidad que tenemos de progreso histórico colectivo. Es evidente que vivimos de manera muy distinta de como vivíamos tan sólo hace 200 años; no digamos nada de nuestras formas de vida de hace 20.000 ó 200.000 años. La especie humana es la única especie animal capaz de acumular patrimonio histórico en nuestra forma de interactuar entre nosotros mismos y con el medio ambiente. Así, por ejemplo, es inconcebible un Velazquez pintando con su maestría en las cavernas del Paleolítico, ó un Beethoven componiendo sinfonías en el Neolítico, ó incluso un Einstein disertando sobre la teoría de la relatividad en los albores de la Edad Media,…

Sorprendentemente el rudimentario y tosco Homo Sapiens de hace 200.000 años, el cavernícola hombre de Cromañón, Dn. Diego de Velazquez, el genio de Flandes Ludwig van Beethoven y el mismísimo Albert Einstein tienen la misma dotación genética fundamental, pertenecen a la misma especie, no están separados por ninguna mutación genética. Siguiendo la teoría darwiniana y teniendo en cuenta las enormes diferencias tecnológicas y culturales entre ellos, tendríamos que decir que sí les separan mutaciones genéticas.Todos los Homo Sapiens, al desarrollar nuestra actividad tanto rutinaria como creativa somos herederos de una larga cadena de aportaciones y esfuerzos realizados por nuestros antepasados; cadenas que pueden tener duraciones de incluso cientos de miles de años, pero que no se transmiten hereditariamente a través de nuestra dotación genética, como pretendía Lamarck. La influencia benéfica de estas cadenas de progresos tecnológicos, artísticos y culturales nos llega a los distintos individuos de nuestra especie a través de procesos educativos y, por tanto, procesos conscientes y nunca a través de la herencia genética.

La historia de la educación nos ha demostrado hasta la saciedad las enormes diferencias entre los procesos educativos basados en el crecimiento de la conciencia de los educandos (que se transmiten culturalmente de generación en generación) y los procesos domesticadores, a veces artificiosos y circenses, pero que mueren con los propios individuos al estar basados en la pura destreza manipulativa más que en una maduración de la conciencia de los educandos.

Curiosamente esta capacidad de disfrutar de herencia histórica, no hereditaria genéticamente, solamente la tenemos los miembros de la especie Homo Sapiens. Entre nuestros ancestros hubo algunas especies, también con algún grado de conciencia, que disfrutaron de patrimonio histórico, como el Homo Antecesor, el Homo Neandertal y posiblemente otros.

Fragmento de la lección inaugural de Alfonso Gago Bohorquez.
Reflexiones ante los retos tecnológicos y deontológicos de la universidad actual.

Computación estadística con R

Interesante tutorial introductorio a la programación con R-Proyect

Inteligencias múltiples en las Aulas

Las aulas españolas comienzan a potenciar las inteligencias múltiples

Diversos centros de nuestro país aplican ya la teoría de Howard Gardner a sus planes curriculares.

La Teoría de las Inteligencias Múltiples, de Howard Gardner, sostiene que todo individuo tiene no una, sino varias inteligencias. Por inteligencia entiende Gardner «el potencial biológico y psicológico para analizar información de formas específicas, con el objetivo de solucionar problemas o crear productos valiosos para la cultura». En España ya hay varios centros que han incorporado esta teoría a sus planes curriculares, potenciando así diversos tipos de inteligencias en los alumnos, como la inteligencia espacial, la musical o la naturalista. Por Rosae Martín Peña.

inteligencias-multiples-gregoriosamsa 2Para enseñar en clase en qué consiste un periódico se pueden mostrar diferentes ejemplos o el profesor puede sugerir a sus alumnos que confeccionen uno ellos mismos.

Del mismo modo, en la enseñanza de una disciplina como las matemáticas se puede vincular la proporción áurea con el estudio de la naturaleza «in situ». Así, los estudiantes podrán complementar los conocimientos teóricos adquiridos a base de lecciones en clase, con lo que el mundo de fuera del aula les ofrece cada día.

La enseñanza tradicional ha priorizado, principalmente, solo dos capacidades a la hora de medir la inteligencia: la capacidad verbal o lingüística, que expresa la facilidad para leer, escribir o memorizar; y la capacidad lógico-matemática, que es la que hace referencia a la destreza en cálculo o resolución de problemas.

La teoría de las inteligencias múltiples

La teoría de las inteligencias múltiples, que desarrolló en la década de los 80 el doctor Howard Gardner de la Universidad de Harvard (Premio Príncipe de Asturias de Ciencias Sociales en 2011) señala sin embargo que las diferentes capacidades que poseen las personas se corresponden en realidad con un total de entre ocho y 10 inteligencias diferentes.

Estas son: la inteligencia lingüística, la lógico-matemática, la espacial, la musical, la corporal, la naturalista, la existencial, la pedagógica, la interpersonal y la intrapersonal.

Según el propio Gardner, la esencia de su teoría radica en: «respetar las muchas diferencias que hay entre los individuos; las variaciones múltiples en las maneras como aprenden; los distintos modos por los cuales podemos evaluarlos; y el número casi infinito de modos en que éstos pueden dejar una marca en el mundo».

Esta teoría facilita así la aplicación de estrategias novedosas, integradoras, creativas y motivadoras, para que los estudiantes puedan adquirir una visión de la realidad que supere los límites del concepto tradicional de inteligencia, basado en el coeficiente intelectual y determinado a través de pruebas o test de inteligencia que miden la capacidad intelectual del individuo, en términos de capacidad de comprensión, razonamiento y juicio.

La teoría de las inteligencias múltiples pretende que los estudiantes adquieran una visión de la realidad que supere los límites del saber cotidiano, al potenciar y activar cada una de sus capacidades de manera creativa y personal. Esto agilizaría la capacidad cognitiva para resolver problemas, tomar decisiones, mejorar formas de conducta, aumentar la autoestima, desarrollar habilidades y destrezas, y conseguir tener una mayor interrelación con las personas que les rodean y con ellos mismos.

Fuente: Tendencias21.net

«Nos acercamos a un desplazamiento masivo de empleos»

Cree que dentro de 500 años la automatización del trabajo eliminará más del 90% de los puestos..

Como socio fundador de la agencia de capital riesgo Draper Fisher Jurvetson y miembro de la junta de SpaceX y Tesla Motors, Steve Jurvetson pasa mucho tiempo pensando en el futuro, a menudo el futuro lejano. Uno de los principales apoyos de Elon Musk – Jurvetson presume de ser propietario del primero modelo de Tesla, el Modelo S –, también fue un inversor fundador de Hotmail y es miembro del comité de dirección de Synthetic Genomics de Craig Venter, el constructor de la primera célula sintética.

Su agencia afirma haber fundado empresas que han creado más de 20.000 puestos de trabajo durante los últimos cinco años, y haber llevado a casi dos docenas de empresas a alcanzar una valoración de 1.000 millones de dólares (unos 893 millones de euros) antes de salirse. Jurvetson habló con la editora de Informes Especiales Nanette Byrnes acerca de por qué cree que el 90% de la gente estará en el paro dentro de 500 años y cómo podríamos hacer la transición a ese futuro drásticamente cambiado.

¿Las nuevas tecnologías digitales están destruyendo o creando puestos de trabajo?

Creo totalmente que a corto o medio plazo veremos que el empleo global crecerá, al igual que ha hecho siempre. Piensa en todos los puestos de trabajo de Uber. La oportunidad de distribuir [por internet] la economía de servicios aún no se ha explotado del todo. La economía de servicios es más grande que la economía de bienes, así que el equivalente online debería resultar incluso más grande y fuerte que el mercado digital de los bienes de consumo.

«Dentro de quinientos años, todos estarán participando en algún tipo de información o entretenimiento…no habrá agricultores, ni habrá gente que se dedique a la fabricación».

Muchos de estos empleos, incluidos los de Uber, están tomando una forma que usted denomina como «la frontera de la automatización». ¿Teme que estos trabajos puedan desaparecer pronto mientras siga avanzando la tecnología?
Uber ha automatizado todo su proceso menos el conductor. La facturación, el reparto, etcétera. Es una empresa moderna centrada en la informática en todos los aspectos. Lo que significa esto es que en cuanto lleguen los vehículos autónomos, resultará sencillo eliminar al conductor. No hará falta reestructurar esa parte del negocio.

Lo que encargamos a los humanos hoy son esas cosas que los ordenadores no saben hacer, pero por poco. Sabemos por la Ley de Moore y las mejoras en la computación que dentro de dos o tres años [gran parte de] estos trabajos se automatizarán.

Si una start-up o un proyecto empresarial ha creado un empleo que incluye mano de obra humana, probablemente lo ha hecho de un modo que resulta bastante marginal. Tanto si eres un entusiasta de la tecnología como si eres un detractor, el ritmo al que esto cambiará probablemente carecerá de precedentes. Habrá un desplazamiento masivo.

¿Qué empleos perdurarán?

A largo plazo, dentro de 500 años, todos se dedicarán de algún modo a la información o el entretenimiento. Nadie en todo el planeta se ganará la vida con una labor física repetitiva. No habrá agricultores, no habrá gente que se dedique a la fabricación. Me resulta imposible que el porvenir de la gente se consiga de ese modo. La gente podría hacerlo por afición; podrías tener un huerto orgánico en el jardín porque te encanta. Dentro de 500  años no sé si ni siquiera el 10% de las personas tendrán un empleo en el sentido de cobrar un sueldo por desempeñar una profesión.

Resulta difícil imaginar cómo será la vida entonces.

Será muy parecido a cómo ha sido la vida durante la mayor parte de la historia humana, pero sin la espantosa esclavitud. El concepto de un «puesto de trabajo» es bastante reciente. Si nos remontamos a hace un par de siglos, todos eran o esclavos, siervos o vivían de la labor de esclavos o siervos para dedicarse a la ciencia o la filosofía o el arte. Viviremos de la labor de los robots, liberados para poder ser el próximo Aristóteles o Platón o Newton. A no ser que resulte que nos sentimos desgraciados sin trabajar.

¿Existe algún modo, alguna política del gobierno o estrategia, de minimizar el dolor de un cambio tan dramático?

No creo que ningún político de Washington [EEUU] vaya a llegar a comprender esto e impulsar cambios significativos. Ningún político tiene un horizonte de 50 años. Veo cero posibilidades de que el pensar a largo plazo llegue a dominar la política.

 

Fuente

Un algoritmo podría proteger a los barcos de las ‘olas gigantes’

Las ‘olas gigantes’, comúnmente conocidas como ‘asesinas’, son formaciones de agua que aparentemente surgen de la nada. Éstas pueden llegar a aumentar ocho veces su tamaño, causando grandes devastaciones en buques y transatlánticos. El error en las antiguas predicciones consistía en tratar de simular cada ola individual en un cuerpo de agua para producir una imagen de alta resolución del estado del mar. Además de ser comprobaciones costosas, requerían mucho tiempo.

Sin embargo, los investigadores del MIT han cambiado el rumbo basándose en la observación de que las ondas, en ocasiones, se agrupan. De este modo, cierto grupo de olas terminan por intercambiar su energía formando la llamada ‘ola gigante’. “Las olas se comunican entre ellas. Interactúan y crean una dinámica que da paso a este fenómeno”, aseguró Theme Sapsis, asistente de ingeniería mecánica en el MIT.2d030f439a066c4b7fc15ba95775c6e5_article

El análisis consiste en combinar los datos de ondas del océano disponibles a partir de mediciones tomadas por boyas oceánicas con un análisis no lineal de las ecuaciones de onda de aguas subyacentes. De este modo, el equipo de Sapsis cuantificó el abanico de posibilidades de que se formase una ola para una determinada masa de agua. Así, desarrollaron un método más sencillo y rápido de predecir cómo evolucionarán estos grupos de olas.

La herramienta, por lo tanto, se basa en un algoritmo que, dependiendo de la longitud y la altura de un grupo de olas, calcula la probabilidad de que éstas se conviertan en una masa de agua gigante en los próximos minutos.

“El algoritmo es preciso, ya que nos informa de la ubicación y del tiempo que va a tardar en suceder el fenómeno”, explicó Sapsis.

Fuente

Impresión en 3D y alimentación

Alimentación, industria alimentaria y consumidor

En la industria alimentaria, las tecnologías de impresión 3D son ya una realidad, aunque su potencial se desarrollará en los próximos 10 a 20 años, como indica en su artículo Food Ingredients First, a raíz del Where Science Feeds Innovation Symposium del IFT.

En el ámbito industrial nos encontramos requerimientos tanto tecnológicos (modelos de proceso y negocio), como de gestión y relación (cadena), que hacen que la adaptación requiera de una integración global. En el sector cárnico la producción de carne en 3D, que será viable técnicamente y podría suponer un reto competitivo para productores tradicionales de este producto, se encuentra todavía en un estadio más lejano debido a factores como la seguridad alimentaria. En cualquier caso es una solución a considerar seriamente, si tenemos en cuenta las necesidades alimentarias de la población que para 2050 se espera que alcance los 9.6 billones (según Naciones Unidas).Impresora-Chocolate

En los hogares el uso de impresoras 3D ya es una realidad, por ejemplo las impresoras para chocolates de Hershey’s o la de Choc Edge. Para el consumidor esta tecnología resulta atractiva ya que permite personalizar el producto con sus propios diseños interactuando con una galería de gráficos 3D mediante su tableta.

Las actuales aplicaciones de las impresoras 3D a la alimentación son muy diversas y variables según el tipo de producto. Desde la impresión de chocolates con superficies que tienen acabados complicados, lo que supone una oportunidad para ofrecer acabados personalizarlos, factor diferencial en este sector; hasta la impresión de comida con ingredientes propios como en el caso de Foodini de Natural Machines ganadora del premio Bta.Emprende 2015

Atendiendo a grupos poblacionales, como comentábamos en al artículo anterior sobre personalización de producto, los Millennials comparten cada vez más contenido en redes sociales buscando que sea de mayor originalidad, lo que hace que sea más deseable compartir productos personalizados, que en este caso pueden diseñar y producir ellos mimos. Se trata de un recurso para este grupo poblacional, mediante el cual pueden obtener una gratificación por la instantaneidad.

Con respecto a la tercera edad, el Proyecto Performace – PERsonalised FOod using Rapid MAnufacturing for the Nutrition of elderly ConsumErs, tiene como objetivo mejorar la calidad de vida de las personas de la tercera edad ofreciendo un nuevo concepto de nutrición personalizada, que satisfaga las necesidades de personalización y contribuya a abordar las dificultades para masticar y tragar.

En el sector de la distribución, se está considerando la adopción de esta tecnología. En Alemania, experimentan con el software Doodle3D para ofrecer a los clientes la posibilidad de que decoren (y personalicen así) su propio producto.

Las impresoras 3D también están siendo de aplicación para fabricar envases inteligentes. La impresión de circuitos electrónicos o sensores inalámbricos para tapones de envases para leche permiten detectar los cambios en las señales eléctricas que acompañan el incremento de los niveles de bacterias.

Davos 2016: la puesta de largo de la “cuarta ola”

En el año 2002, se predijo que el coche sin conductor sería tecnológicamente imposible antes del año 2040. Al final, en lugar de cuatro décadas, sólo hizo falta una. ¿Qué había pasado?

En la última década, invisible para la mayoría, irrumpió un nuevo modelo tecnológico capaz de integrar nuevas dimensiones a la computación “simple”. Durante las décadas anteriores nos había asombrado el avance exponencial de la capacidad del procesamiento informático, que según la ley de Moore se duplica cada dos años.

La predicción de necesitar 40 años para poder desarrollar un coche totalmente autónomo se hizo en aquella lejana época en la que se medía la capacidad de un ordenador por “gigas” y se esperaba que la curva exponencial en algún momento se aplanaría, por los límites físicos de la materia con la que construyen los procesadores. Traducido a capacidad de PC (si tiene edad para acordarse de aquellos cacharros), la CPU de un coche autónomo necesitaría acelerarse hasta un millón de gigahertzios. 40 años de nuevas versiones, según la ley de Moore.

Vuelvo a preguntar: ¿qué ha pasado en tan pocos años? La respuesta rápida, y la que ocupó la reunión de los líderes mundiales en Davos de este año, es: La ley de Moore quedó ampliamente superada por la convergencia de diferentes sistemas y hemos pasado de la “tercera” a la “cuarta ola” dentro de la civilización industrial.

Me explico. El analista norteamericano Alvin Toffler estructuró la historia de la civilización humana por “olas”, siendo la primera la agrícola (que duró varios miles de años y en la que las mayores plusvalías económicas se obtenían por la cría sedentaria de cereales y ganado, frente a los tiempos prehistóricos en los que la ganancia dependía de una buena caza). La segunda ola era la industrial (de apenas un par de siglos) y, a partir de los años 1960, se hizo dominante la de la información (contada sólo por décadas).
Otros analistas cuentan las “olas” interiores de la era industrial, siendo la primera la impulsada por la energía del carbón, la segunda la de la electricidad y la tercera la de la información. Se cuente cómo se cuente, los grandes Think-Tanks llevan unos años hablando de la llegada de la “cuarta ola”, que va sustancialmente más allá de la era del procesamiento lineal y simple de la información.

La reunión anual de las autoproclamadas élites mundiales en Davos, con poca presencia desde la desgobernada España, ha tenido este año una especial relevancia: el estudio de esta nueva etapa tecnológica y civilizatoria y, sobre todo, de sus consecuencias para la economía, la política y la sociedad. Contó con Klaus Schwab, el economista alemán que fundó y preside Davos, como ponente principal. En consecuencia, medios generalistas como El País (“Los robots, la cuarta revolución industrial” del 8/2/2016, y otros artículos recientes) se han hecho eco de algo hasta ahora relegado a Think-Tanks cercanos a la Fundación Rockefeller y de la CIA. Read More

Bacterias ¿cooperan?

Científicos de la Universidad Rice (Texas, EEUU) han desarrollado un circuito biológico a partir de múltiples tipos de bacterias, que incita a dichas bacterias a cooperar para alterar la expresión de proteínas.

Según informa la Universidad Rice en un comunicado, el proyecto es un equivalente biológico a los circuitos computacionales que contiene múltiples organismos destinados a influir en una población.

¿Para qué serviría esto? Pues para modificar sistemas biológicos mediante el control de la influencia de unas bacterias sobre otras. Por ejemplo, el circuito podría alterar beneficiosamente el microbioma intestinal de los seres humanos, es decir, el gran “consorcio” de bacterias que trabajan en equipo en los intestinos de las personas.

Bacterias que cooperan

En su trabajo, los investigadores desarrollaron dos cepas de bacterias manipuladas que regulan la producción de proteínas esenciales para las vías de señalización intercelular, que permiten a las células coordinar esfuerzos de manera beneficiosa.

La bacteria escogida para la manipulación fue la Escherichia coli común. Mediante la creación y combinación de dos poblaciones genéticamente distintas de esta bacteria, los científicos lograron que todas ellas formaran un “equipo de trabajo”.

En concreto, las Escherichia coli  modificadas trabajaron juntas haciendo tareas opuestas: Uno de los grupos se convirtió en activador de la expresión de determinados genes, y el otro en un represor genético.

Todas unidas generaron así oscilaciones rítmicas -picos y valles- de transcripción genética dentro la propia población bacteriana. Es decir, que coordinaron sus comportamientos del mismo modo que lo hacen en el interior de los organismos.

Análisis de datos: predicciones de tendencias 2016

El Instituto Internacional de Analítica (IIA) ha publicado su lista de predicciones para las tendencias de analítica en 2016. A diferencia de años anteriores, el IIA está dividiendo su lista en dos grupos distintos –el primero centrado en las predicciones de analítica; y el segundo se centró las prioridades de la analítica. El cofundador del IIA, Tom Davenport, y los investigadores Dan Magestro y Robert Morison, discutieron las predicciones y las prioridades durante un reciente webinar.

 «En las conversaciones que hemos tenido con los líderes y profesionales a través de las organizaciones empresariales y de todos los sectores de la industria, hemos escuchado un montón de temas consistentes, y necesidades urgentes que los presionan. Y pensamos que esto sería una gran oportunidad para ofrecer una visión concisa de las prioridades y los temas que estamos escuchando», dijo Magestro, un ex profesional de analítica en Cardinal Health, JPMorgan Chase & Co. y Nationwide Insurance, que ahora dirige los esfuerzos de investigación en el IIA.

Además, la predicción de las tendencias de análisis año tras año puede ser repetitiva. «Toma un tiempo implementar los temas más relevantes, y lleva tiempo que lleguen a buen término», dijo Davenport, profesor distinguido de tecnologías y gestión de información en la presidencia del Babson College en Babson Park, Mass., y líder destacado de la analítica.cropped-mathematics-111423__180.jpg

Robert Morison

La lista de cinco tendencias de analítica de la firma de consultoría e investigación de Portland, Ore., incluye una combinación de tecnologías avanzadas y predicciones que sugieren que los análisis serán algo más que una cosa genérica, todos los días en el 2016. «Y tener los análisis como algo cotidiano es un reflejo del avance de la madurez», dijo Morison, consultor de análisis e investigador de la IIA y moderador del webinar.

Las cinco predicciones de analítica del IIA son las siguientes:

Nº 1: La tecnología cognitiva incluye análisis automatizados

Los CIO probablemente vean una analítica automatizada, lo que tendrá efecto sobre los resultados de sus análisis, a diferencia de la tecnología cognitiva, comúnmente asociada con tecnologías como IBM Watson. Pero en 2016, la distinción entre las dos comenzará a desvanecerse, según Davenport.

Tom Davenport

La línea que separa estas dos ya es «relativamente delgada», dijo, ya que muchas de las tecnologías subyacentes de computación cognitiva –como la regresión logística, el aprendizaje profundo y las redes neuronales– son ya bien conocidas por los profesionales de analítica. «Las tecnologías cognitivas son una manera de volver a empaquetar [las tecnologías conocidas] junto con otras capacidades que las organizaciones necesitan estos días con el fin de aliviar los cuellos de botella de conocimiento y para hacer frente a más información de la que los humanos realmente pueden comprender», dijo Davenport.

La predicción podría ser una buena noticia para los CIOs y profesionales de la analítica. Mientras que los datos han tomado un papel más importante en casi todas las organizaciones, los gerentes todavía tienden a basarse en criterios distintos de análisis para tomar decisiones. Pero la integración de herramientas que asumen algunas de las funciones de toma de decisiones de forma automática significará que la analítica no puede ser evitada, dijo Davenport.

Nº 2: Micro servicios analíticos integrados en los procesosdatos

La analítica tradicional es a menudo considerada como un conjunto de capacidades, pero cada vez más, una técnica analítica específica de análisis -un micro servicio de analítica– está incrustado en los sistemas y procesos, a menudo a través de las API. Davenport ve que la tendencia de este análisis continuará en 2016.

«Aquellos de ustedes que siguen a IBM Watson saben que ya no es una aplicación monolítica de preguntas y respuestas», dijo. Watson ahora puede proporcionar 32 APIs diferentes, incluyendo el análisis de textos, traducción de texto y puntuación.

Una nota interesante: Los primeros usuarios de la tecnología de IBM Watson han sido a menudo los especialistas de dominio, como los cirujanos o los oncólogos, sobre todo porque la salud era un objetivo principal para la tecnología, según Davenport. «Pero a medida que esto permee a todas las empresas, y conforme hagamos más de este tipo de aplicaciones, creo que, en la mayoría de los casos, se combinará con los grupos de análisis dentro de las empresas», dijo.

No. 3: La ciencia de los datos, la analítica predictiva y la prescriptiva se fusionan

Las primeras charlas sobre big data la hacían sonar como si los CIOs y profesionales de la analítica tuvieran que pensar en ello como algo completamente separado de los análisis tradicionales, requiriendo incluso un grupo distinto para aislar y hacer minería de las franjas de datos que manejan las empresas. Según la investigación del IIA, esa perspectiva está cambiando. «Estas cosas, en muchos casos, se están combinando, y la ciencia de datos, en todo caso, se está convirtiendo en una rama especializada del grupo de análisis central«, dijo Davenport.

En 2016, la distinción entre la ciencia y el análisis de datos continuará desdibujándose y confundiéndose, conforme los grandes volúmenes de datos se integran más profundamente en más negocios tradicionales. «Vamos a ver a grupos enteros de análisis a los que denominarán como grupos de ciencias de datos y viceversa», dijo.

Nº 4: Se facilitará la búsqueda del talento de analítica

Los CIOs probablemente saben de memoria esta predicción que McKinsey hizo en 2011: Para 2018, los Estados Unidos experimentará un déficit de 140 mil a 190 mil científicos de datos calificados. Pero, según Davenport, los dolores de encontrar un buen talento de analítica han desaparecido –hasta cierto punto.

Las empresas se están aprovechando de los programas universitarios que generan talento especializado en análisis, o han creado «programas de re-modelaje» para capacitar a los empleados de analítica en la ciencia de datos, o preparar a los empleados de negocios para la analítica, dijo. Se refirió a Cisco como un ejemplo de ello, el cual no sólo se ha centrado en el fortalecimiento de talento interno de científicos de datos», sino que también crea ejecutivos que entienden cómo funciona esto, y pueden aplicarlo en sus unidades de negocio y funciones», dijo.

Dan Magestro

No todos están de acuerdo con Davenport. «Realmente depende de quién eres, dónde estás, en qué industria estás y si hay desafíos interesantes», dijo Magestro del IIA. Señaló a dos empresas del Medio Oeste, que no quiso nombrar, que hablaron con él acerca de la dificultad de convencer al talento para moverse a las ciudades. «Puede que en su conjunto la crisis no sea tan aguda como se había previsto, pero a un nivel más micro y en el ámbito regional, se puede ver algo de esto», dijo.

Nº 5: La analítica de hoy conserva y gestiona los datos

La preparación de los datos es uno de los mayores sumideros de tiempo para los profesionales de la analítica y los científicos de datos. Pero están surgiendo nuevas herramientas que aplican «la analítica que utilizamos normalmente para analizar los datos y conservar los datos«, dijo Davenport. En lugar de tomar un enfoque centralizado, de arriba hacia abajo, para la gestión de datos, herramientas de la talla de Tamr –donde Davenport es un asesor– Paxata y Trifacta trabajan de abajo hacia arriba, aprovechando el aprendizaje de la máquina para conservar y limpiar los datos. Davenport dijo que las herramientas han florecido en el último año, y que seguirán haciéndolo en 2016.

«Las cosas son demasiado complejas para hacerlo desde la parte superior hacia abajo en una gran organización», dijo Davenport. «No es raro tener 5.000 fuentes de datos diferentes que se refieren a lo mismo en algunas organizaciones.»

Fuente

Innovación, colaboración y tolerancia al fracaso…

Darío Gil es español y uno de los principales responsables de innovación del gigante tecnológico IBM. El vicepresidente de ciencia y Tecnología de IBM Research, de visita en España para una conferencia organizada por el Instituto Tomás Pascual Sanz, ligado a Calidad Pascual, defiende la importancia de una nueva era en la innovación en la que pone como claves la colaboración y la tolerancia al fracaso.

Pregunta. ¿Por qué pone el énfasis en estos dos conceptos?

Respuesta. La innovación abierta y colaborativa es un reflejo de la realidad de que ninguna empresa tiene todo el talento ni toda la capacidad necesaria para resolver todos los problemas a los que se enfrenta por sí misma. Esto impulsa la necesidad de incorporar nuevos talentos para detectar donde están los colaboradores que pueden hacer que la empresa tenga más éxito en el futuro.

En cuanto a la tolerancia al fallo y al fracaso, es un elemento totalmente fundamental en el proceso de innovación. Esto sea quizá uno de los contrastes mas llamativos entre España y EE UU. Es lo que más me llama la atención. Aquí existe un estigma y una concepción negativa hacia personas que han lanzado iniciativas empresariales que no han funcionado. En EE UU no existe ningún concepto similar. Es un contraste dramático.

P. ¿Qué cambios va a suponer esta nueva era?

R. Yo creo que va a ser un cambio tan fundamental como tuvo internet y la informativa en el dia a dia de los trabajadores. Utilizamos bases de datos, búsquedas. El siguiente paso es colaborar con agentes cognitivos, dentro de la actividad de cada uno. En el caso del medico, por ejemplo, el proceso de diagnostico será el conocimiento y la propia experiencia del profesional junto con el aprendizaje de los sistemas cognitivos.

P. ¿Existe temor todavía a los riesgos de esta tecnología y la inteligencia artificial?

R. Desde el punto de vista de polémica sigue extiendo pero en las empresas que lo están trabajando no existe. Por ejemplo, en el caso de la medicina, en EE UU la tercera causa de mortalidad son los errores médicos. Los sistemas cognitivos pueden ayudar, sin remplazar a los médicos. Estamos creando sistemas que permiten aprender de las publicaciones y los estudios y ayudar a la decisión de los médicos. Ese es el valor a crear. No creamos sistemas para reemplazar sino para colaborar. Entiendo la polémica, pero se distancia de la realidad. Nuestra visión es que la era cognitiva está basada en la relación con las personas. Hay que hacer que la gente sea capaz de tomar mejores decisiones

P. ¿Son todos los sectores conscientes de esta nueva era?

R. Yo creo que hay sectores mas conscientes que otros pero al final sí que hay una unanimidad, al igual que ya es raro que se dude de la transformación digital. Estamos viendo cada vez mas ejemplos de empresas de distintos sectores que se estén uniendo. Los que al principio no eran reticentes se beneficiaron mas de la transformación digital.

P. ¿Cuáles cree que son las empresas más innovadoras ahora mismo?

R. Sobre todo hemos visto en los últimos años todo el mundo de internet, con buscadores y redes sociales, pero también en móviles y demás, donde los chinos están avanzando mucho a precios muy bajos. No diría tanto ejemplos de empresas concretas como sectores. Las tecnologías de la información siguen siendo el más dinámico porque también es el menos regulado.

Impresoras 3D y cerebro humano

Cuando el doctor Eyal Kimchi tuvo por primera vez un cerebro entre sus manos, se asombró de lo frágil que parecía. Pero cuando sostuvo un cerebro impreso en 3D, sin la necesidad de usar guantes para protegerse de los compuestos químicos que se usan para preservar el órgano, la sensación fue otra: se maravilló al poder recorrer el contorno con sus dedos y darse cuenta de lo difícil que era deslizarlos por el relieve.

El investigador, junto a un grupo de colegas de la Escuela de Medicina de Harvard y el Hospital General de Massachusetts, en Estados Unidos, desarrolló un procedimiento de bajo costo para imprimir modelos de cerebros y cráneos en 3D, el cual se publicó en agosto pasado en la revista PLOS One. El método podría mejorar la planeación de neurocirugías y la educación del paciente. “Ya hay varios hospitales que utilizan esta tecnología”, señaló Kimchi.

Las técnicas de neuroimágenes, como la resonancia magnética y las tomografías computadas, ofrecen información en formato 2D, pero no permiten apreciar los relieves del cerebro (circonvoluciones) o las curvas del cráneo. Contar con un prototipo que permita la interacción física con esas partes ayudaría, por ejemplo, a la planeación de implantes de electrodos intracraneales en casos de epilepsia. O podría mejorar la comunicación entre el médico y el paciente, a la hora de explicar algún procedimiento.

“Para muchas personas de nuestro laboratorio, el cerebro (impreso en 3D) es mucho más pequeño de lo que se percibe en un monitor de computadora”, aclaró el también líder del Delirium Lab en el Hospital de Massachusetts. “Es sorprendente”.

El blanco de los ojos nos hace humanos

El color de la esclerótica es una característica que diferencia a los humanos de otros primates y les otorga una capacidad particular de comunicación.

Hace medio millón de años, una explosión en la población de monos se convirtió en una amenaza para nuestros ancestros. Aquellos animales se convirtieron en una competencia por la fruta y los homínidos tuvieron que buscar nuevas fuentes de alimentación fuera del alcance de los recién llegados. Entonces, bajo presión, los individuos más dotados para la cooperación, que permitía cazar animales como los antílopes, comenzaron a prosperar. Después, gracias a las colaboraciones puntuales, los vínculos se fortalecieron y la dependencia entre los miembros del grupo se incrementó, avanzando en la construcción de sociedades con las tareas cada vez más divididas. A partir de ese momento, la capacidad para poner juntas las cabezas se convirtió en una cualidad que identifica a los humanos y les proporciona su poder.

Esta es una de las hipótesis que plantean cómo aparecieron unos animales tan peculiares como los humanos, capaces de superar, al menos temporalmente, la competencia que suele marcar la vida de casi todas las especies para embarcarse en descomunales proyectos de colaboración como las guerras o la secuenciación de su propio genoma.

Más información

Sistemas caóticos en economía: hiperinflación

El presente artículo tiene por objetivo estudiar el control del comportamiento caótico de un sistema dinámico de hiperinflación empleando el método propuesto por Ott, Grebogy y Yorke (1990) (método OGY), el cual busca controlar la dinámica caótica de un sistema perturbando levemente alguno de sus parámetros. El método se ejemplificará por medio de la aplicación logística, y posteriormente se empleará en un modelo de hiperinflación (Punita, 2011) para estabilizar los precios en una órbita estacionaria de periodo uno.

 

Read More

El futuro del internet de las cosas

¿Cómo será el futuro cuando las cosas se vuelvan inteligentes? Ya no queda tanto para ver un futuro conectado, teniendo en cuenta que el próximo año habrá 6.400 millones de cosas conectadas y 5,5 millones de cosas se conectarán cada día, según un reciente informe de la consultora  Gartner en donde se estima que estos números reflejarán un crecimiento del 30% respecto a este año.

Además Gartner apunta que para el 2020, en el mundo habrá 20.800 millones de cosas conectadas.

Estas cifras traen aparejado un negocio no hay que dejar de destacar. En el reciente estudio, Gartner asegura que el gasto en servicios de soporte para el Internet de las Cosas generará U$S 235.000 millones el próximo año, un 22% más que 2015.

Por otro lado, aunque el mercado IoT de consumo es el que contabilizará más cosas conectadas, será el empresarial el que contabilizará el mayor gasto. Cerca de 4.000 millones de cosas conectadas estarán en uso en el mercado de consumo en 2016, una cifra que se incrementará hasta los 13.500 millones en 2020.

La consultora establece dos categorías para el IoT empresarial: los dispositivos genéricos que se utilizan en múltiples industrias, como pueden ser la iluminación o el aire acondicionado; y los dispositivos específicos para determinados verticales como puede ser equipamiento específico para hospitales.

Todos sabemos el antes y el después que marcó en nuestro mundo el primer internet,  o “Internet De Las Pantallas”. Imaginemos ahora los cambios que aún están por venir de la mano de una Nueva Era, que ya comenzó, con el nacimiento de “El Internet De Las Cosas” o IoT.

En la actualidad existen poco más de 3 activos de internet por persona, pero se estima que para 2020 habrá 7 objetos conectados por cada habitante del Planeta. ¿Cuál es el impacto de este salto? En primera lugar, la posibilidad de hacerse de un gran volumen de información sobre el mundo real, el clima, la contaminación, el tránsito, comportamientos y costumbres de las personas, etc.; lo cual, si es bien aprovechado y analizado, puede traducirse en acciones y cambios que deriven en beneficios para las personas. La consultora Gartner, observa otro cambio disruptivo y afirman que el IoT creará “nuevas dinámicas de marketing, ventas y servicio al cliente. En un gran número de transacciones, las interacciones serán directamente entre cosas conectadas, sin considerar decisiones personales. Un ejemplo es nuestro automóvil, que podrá coordinar directamente los servicios de mantenimiento, sin involucrar al propietario en la mayor parte del proceso. Otro ejemplo es encontrar estacionamiento, o mejor aún, encontrar uno en el que pueda recargar mi auto eléctrico. El automóvil podrá negociar directamente esta acción.”

El IoT puede incluso reproducir ciertas ventajas del pasado, como la calidez de la vendedora de barrio que conocía tus gustos y compras anteriores. Por ejemplo, Burberry ha desarrollado aplicaciones sofisticadas para Retail usando IoT. Un cliente que entra a la tienda puede ser reconocido mediante tecnologías de reconocimiento facial. Así, se acceder a su historial de compras y los vendedores pueden, sugerir un accesorio que va bien con el traje que compró la semana pasada. Las posibilidades son tan ilimitadas, que se considera que las empresas de IoT que van a revolucionar el mundo, todavía ni siquiera han sido creadas. Casas inteligentes en ciudades inteligentes. Los objetos de uso cotidiano conectados a internet y respondiendo a comandos remotos por medio de Apps, comandos de voz y otras interacciones. Así es como comenzamos a ver el impacto del IoT.

En el caso de los electrodomésticos, los desarrollos vienen más de la mano de los propios fabricantes de productos que de empresas especializadas en conectividad. Así, en España y EE.UU., ya se están poniendo a disposición redes alternativas para conectar las cosas sin depender de las de los teléfonos móviles. Otra gran aplicación de este tipo de tecnologías es para la salud. Los dispositivos interconectados permiten monitorear constantemente nuestra actividad y dan indicadores que se aplicarán para mejorar la salud de las personas. Gartner ve una creciente aplicación del uso del IoT en la salud “Optima Health, por ejemplo, provee Fitbits gratis para sus miembros, comenzando una tendencia de monitoreo constante para mejorar la medicina preventiva. En EEUU existen ejemplos como la proveedora de servicios de Salud Kaiser-Permanente, que estima que en California en 2016 las atenciones automatizadas superarán a las presenciales. Las Farmacias CVS y los servicios ‘HealthSpot’ son otro ejemplo.

Otro mundo se abre también bajo el paraguas de los wearables. La posibilidad de llevarlos conectados todo el tiempo en un intercambio de información constante sobre ubicación, condiciones climáticas, condición física y agenda, por ejemplo. Las posibilidades son tan infinitas que desafían los límites de nuestra imaginación. Tal como concluyen desde Gartner; “IoT cambia completamente la forma en la cual nos relacionamos con las cosas, que ahora pasan a ser inteligentes y pueden comunicarse con nosotros.”

– See more at: http://smart-lighting.es/un-futuro-conectado/#sthash.Wl8taFtX.dpuf

Curso PBC de Nabucco Center

 

Un curso que quiere poner tu profesión al servicio del Bien Común, el saber, la experiencia profesional…todo gira en torno a otro eje en este curso.