Criptografía cuántica ¿nos sobrarán las claves largas de cifras y letras?

La red usa una infraestructura de fibra proporcionada por Telefónica de España, que conecta tres de sus centrales de comunicación en producción situadas en el área metropolitana de Madrid. La experiencia se sigue desarrollando desde el mes de Junio con éxito.

La red integra asimismo equipos de distribución cuántica de claves (CV-QKD) desarrollados por los Laboratorios de Investigación de Huawei en Munich, con la colaboración del Centro de Simulación Computacional (CCS) de la Universidad Politécnica de Madrid, a través del Grupo de Investigación en Información y Computación Cuántica de la Escuela Técnica Superior de Ingenieros Informáticos.

Los módulos de gestión de la red basados en SDN han sido desarrollados por el equipo de Innovación en Tecnologías de Red del GCTIO de Telefónica, y los mecanismos de integración de la criptografía cuántica han sido desarrollados por el CCS con tecnologías SDN y NFV (Network Function Virtualization).

La integración de todos estos elementos ha permitido demostrar que las técnicas QKD se pueden aplicar en un entorno de producción real, combinando la transmisión de datos y de claves cuánticas sobre la misma fibra.

También ha comprobado que es posible llevar a cabo la gestión de estos servicios y su uso a través de diferentes aplicaciones. Que toda la experiencia se haya desarrollado sobre una infraestructura en producción y usando sistemas de comunicaciones estándar, destaca a su vez la madurez de esta tecnología.

Solución cuántica de seguridad avanzada

Todas las comunicaciones seguras se basan en el uso de la criptografía, de manera que la información se cifra utilizando una clave que permite que sólo los participantes que la conocen sean capaces de descifrar los mensajes intercambiados entre ellos.

Las técnicas actuales de criptografía están basadas en problemas matemáticos que son complejos de resolver. A medida que la capacidad de computación crece, el tiempo de resolución de estos problemas, y por tanto la seguridad de las claves, disminuye.

El tamaño de las claves y la complejidad de los algoritmos de encriptación han tenido que aumentar a medida que la capacidad de cálculo ha ido creciendo. Y estas técnicas pueden quedar completamente obsoletas con la aparición de los ordenadores cuánticos, capaces de aplicar los principios de la Mecánica Cuántica para la resolución de problemas actualmente insolubles, incluyendo el romper las claves generadas por los métodos actuales de criptografía, haciendo inútiles la mayoría de las infraestructuras de seguridad en las comunicaciones.

Las tecnologías cuánticas ofrecen, sin embargo, una solución a la vulnerabilidad de los métodos actuales. Con estas tecnologías es posible aplicar principios cuánticos para intercambiar una clave entre los extremos de un canal de comunicaciones, de manera que esa clave sea segura frente a cualquier ataque e incluso que cualquier intento de ataque sea inmediatamente detectado.

Tecnologías cuánticas

La Distribución Cuántica de Claves es una de estas tecnologías: no sólo soluciona el problema de la amenaza que supone la computación cuántica para los algoritmos criptográficos en uso, sino que además puede proporcionar un nivel de seguridad mucho más alto a cualquier intercambio de datos. QKD requiere de una infraestructura física de fibra óptica de alta calidad, que es la que se ha usado en este experimento piloto.

La viabilidad de QKD ha sido demostrada hasta ahora en laboratorios y en pruebas de campo controladas (como la que Telefónica y el El Grupo de Investigación en Información y Computación Cuántica realizaron en 2009, intercambiando claves a través de un anillo metropolitano de fibra), pero siempre ha habido problemas para poder desplegarla sobre infraestructuras comerciales y para su integración con los mecanismos de operación de estas infraestructuras. Estos obstáculos han sido superados con esta experiencia.

Este piloto ha utilizado además una nueva tecnología para la distribución cuántica de claves basada en “variables continuas” (CV-QKD), más compatibles con tecnologías clásicas que las existentes. La combinación de estas tecnologías ha posibilitado la red integrada de comunicaciones clásicas y cuánticas.

El despliegue sobre una infraestructura de comunicaciones en producción y usando sistemas de telecomunicaciones estándar que se ha realizado en esta experiencia es la primera de su clase, demostrando la capacidad de la tecnología para su uso en el mundo real.

Convergencia de redes

“La capacidad de usar nuevas tecnologías como SDN, diseñadas para incrementar la flexibilidad de la red, junto con nuevas tecnologías de QKD, es lo que nos permite hacer converger las redes clásicas y cuánticas en la infraestructura de fibra óptica existente. Ahora tenemos, por primera vez, la capacidad de desplegar comunicaciones cuánticas de una manera incremental, sin grandes costes de inversión inicial y usando la misma infraestructura”, explica Vicente Martín, director del Centro de Simulación Computacional, responsable del equipo de la UPM que ha participado en esta experiencia.

Momtchil Peev, coordinador del Proyecto de Comunicaciones Cuánticas en los Laboratorios de Huawei en Munich, añade al respecto: “Los dispositivos de CV-QKD que usamos aquí presentan claras ventajas: no necesitan complejos detectores funcionando a temperatura ultrabaja y pueden reusar componentes de los sistemas de comunicación coherentes clásicos. En lugar de enfocarnos en conseguir nuevos record de rendimiento, nos hemos centrado en desarrollar los interfaces de control y transferencia de claves, demostrando la capacidad de una integración más transparente en las redes modernas.”

María Antonia Crespo, directora de Conectividad y Transporte IP de Telefónica de España señala asimismo: “La red óptica de Telefónica de España, en combinación con nuestros sistemas de transmisiones ópticas de alta capacidad, ofrecen el rendimiento necesario para proveer comunicaciones seguras basadas en comunicaciones cuánticas. Este incremento en la seguridad es clave para la nueva generación de redes flexibles, virtualizadas y definidas por software ”.

Diego R. Lopez, gerente de Exploración Tecnológica y Estándares de Global CTIO, concluye: “En Telefónica hemos estado trabajando para desarrollar una experiencia piloto que demuestra la provisión de servicios de comunicación segura basados en criptografía cuántica sobre redes ópticas comerciales gestionadas por tecnología SDN”.

Fuente

Startup uses blockchain, to ensure minerals come from ethical sources

Esta noticia de usar la tecnología blockchain para verificar las fuentes de los minerales adquiridos por grandes compañías parece más una intención de aplicar lo que se llama RSC (Responsabilidad Social Corporativa) o ¿lavado de imagen?. Veremos dónde nos lleva todo esto.

Dawn Jutla says her company has the technology to help put an end to the shady practice of mining precious and industrial metals to finance war.

Ms. Jutla, the president and CEO of Halifax-based startup Peer Ledger, is staking its future on a blockchain technology called Mimosi that it says can track precious metals throughout the supply chain to ensure every milligram purchased by buyers has come from an ethical source and is not funding armed conflict in war-torn countries like the Democratic Republic of Congo.

«This is important because of the damage buyers are seeing being done at the source mines among the Indigenous people who live in the area,» says Ms. Jutla, a professor of technology, entrepreneurship and innovation at St. Mary’s University in Halifax. «When I say damage I am talking about children being raped and used for labour in mines. End users of these metals are trying to use their purchasing power to prevent that.»

 But tracking the origin of metals like gold and silver to ensure they don’t come from a mine run by armed groups can be difficult. For example, a bar of gold is usually produced from ore from several sources requiring end users to track those multiple sources. And while standards, programs and guidelines exist aimed at verifying the source of these metals, it can be time-consuming and costly to gather that documentation.

However, Ms. Jutla says there is mounting pressure from the international community to stop the unethical production of minerals, and she says Peer Ledger’s Mimosi product provides a solution to this problem. Mimosi uses a private permissioned blockchain, which chronologically and permanently logs information that’s copied across a computer network accessed by multiple collaborating parties. When a transaction is carried out, it’s grouped together in a cryptographically protected block. In the case of the Mimosi technology, every transaction involving a source of ore can be linked back to older blocks containing previous sales transactions for the ore. This allows Mimosi users to trace gold and other precious and industrial metals (mainly tin, tantalum and tungsten) from the refiner, to the processor, to the distributor.

 But can the startup be successful selling a technology that’s largely unknown and few people understand? Toronto’s William Mougayar, an entrepreneur, advisor and author of the book The Business Blockchain: Promise, Practice, and Application of the Next Internet Technology, says nothing is certain in the startup game. «Getting users and customers is the biggest challenge any startup has. Customers are typically reluctant to change habits if they are happy with their current solutions,» Mr. Mougayar says. «It’s too early to tell if Peer Ledger will be successful before seeing real signs of traction and customer engagements.»

Contratos «inteligentes» con blockchain, todavía vulnerables

Los programas informáticos que se ejecutan en cadenas de bloques están revolucionando el sistema financiero. Pero una gran parte del bombo de lo que ya se conoce como contratos inteligentes no es más que básicamente eso, bombo. Es un sector nuevo. Los tecnólogos están empezando a aprender a diseñarlos para garantizar que no perderán el dinero de las personas y, como lo ilustra una nueva encuesta sobre contratos inteligentes con Ethereum, los expertos en ciberseguridad no han hecho más que empezar a definir cuáles son las vulnerabilidades de un contrato inteligente.

Máquinas expendedoras digitales: el término «contrato inteligente» lo acuñó el pionero de las criptomonedas Nick Szabo que lo introdujo hace más de 20 años (puede que sea o no Satoshi Nakamoto). La idea básica, escribió Szabo, es que «muchos tipos de cláusulas contractuales (como garantías, enlaces, delimitación de los derechos de propiedad, etcétera) se pueden integrar en el hardware y software con el que trabajamos, de tal forma que incumplir el contrato se vuelve muy caro (o incluso prohibitivo) para el infractor». Szabo denominó a las máquinas expendedoras físicas como un «primitivo antecesor de los contratos inteligentes», ya que toman monedas y dispensan un producto y el cambio correcto en función del precio de compra.

Aparece el blockchain: hoy en día la idea más común de un contrato inteligente consiste en un programa de ordenador almacenado en una cadena de bloques. Esta cadena es básicamente un libro de contabilidad compartido que usa la criptografía y una red de ordenadores para rastrear los activos y proteger el libro de posibles alteraciones. Para Bitcoin, esta tecnología permite que dos partes que no se conocen entre sí tengan una garantía férrea de que una transferencia de fondos acordada sucederá como se espera, es decir, nadie será engañado.

La cosa se pone interesante con la llegada de los contratos inteligentes. Con un contrato inteligente, dos personas podrían crear un sistema que retire fondos de la cuenta de una persona, por ejemplo de uno de los padres, y los deposite en la cuenta de su hijo si el saldo del hijo cae por debajo de cierto nivel.

Este es solo el ejemplo más simple; en teoría, los contratos inteligentes se pueden usar para programar todo tipo de acuerdos financieros, desde contratos de derivados y subastas hasta depósitos controlados por blockchain.

ICO en todas partes: una de las aplicaciones más populares de los contratos inteligentes ha sido la de crear nuevas criptomonedas. Algunas de ellas son pequeños indicios de un nuevo tipo de economía, una en la cual una moneda digital hecha a propósito se puede usar para un servicio «descentralizado», como el almacenamiento de datos y el comercio de divisas digital. La emoción de los inversores sobre tales aplicaciones ha ayudado a alimentar la locura de la oferta inicial de moneda (ICO por sus siglas en inglés), que en conjunto ya han recaudado más de 4.000 millones de euros. (Si se pregunta qué diablos es un ICO ← aquí hay un manual)

Paren el carro: los tecnólogos aún no tienen una idea completa de qué aspecto tiene un agujero de seguridad en un contrato inteligente, según el científico informático del University College de Londres (Reino Unido) Ilya Sergey quien es coautor de un estudio publicado la semana pasada sobre este tema.

Los usuarios lo descubrieron a las malas en 2016 cuando un pirata informático robó unos 40 millones de euros de la Organización Autónoma Descentralizada, que estaba basada en blockchain de Ethereum.

Y en noviembre, alrededor de 120 millones de euros quedaron secuestrados repentinamente para los usuarios del servicio de billetera de Parity, que también tiene sus raíces en Ethereum.

Sergey y sus compañeros utilizaron una nueva herramienta para analizar una muestra de alrededor un millón de contratos inteligentes de Ethereum. De todos ellos, 34.000 resultaron vulnerables, incluido el que condujo al incidente de Parity. Sergey dice que el trabajo del equipo es como interactuar con una máquina expendedora, como si pulsaran botones al azar y registraran las condiciones que hicieron que la máquina actuara de forma involuntaria. Sergey concluye: «Creo que todavía hay una gran cantidad de vulnerabilidades por descubrir y que deben ser detalladas formalmente».

Fuente

Consciencia y cerebro, investigación de entropías cerebrales)

Cada vez es mayor el consenso sobre la concepción del cerebro como una gran red de áreas cerebrales coordinadas. Por eso, en los últimos años ha empezado a estudiarse a través de la mecánica estadística; rama de la física que teoriza, a partir de probabilidades, sobre el comportamiento de los elementos de las redes complejas y de sus interacciones.

El uso de la teoría de grafos para el estudio del cerebro es un ejemplo de esto. En matemáticas y ciencias de la computación, un grafo es un conjunto de objetos que conforman un nodo dentro de una red mayor de nodos. Así que, con la teoría de grafos, se pueden analizar los nodos (en el cerebro, formados por conjuntos de neuronas) y sus interrelaciones en la compleja red de nodos o conjuntos neuronales del cerebro.

Este tipo de análisis ha revelado ya datos interesantes sobre el comportamiento del cerebro consciente. Por ejemplo, un estudio de 2015 realizado por investigadores de la Universidad de Vanderbilt, en EEUU, con 24 miembros de su comunidad universitaria y con una técnica de registro de imágenes de la actividad cerebral (fMRI), constató que darse cuenta de algo (en el estudio, de la aparición de un disco que se mostraba a los participantes en una pantalla) hace que el cerebro entero se vuelva más conectado.

Así, aunque es cierto que nuestro cerebro está formado por “módulos” de redes neuronales que se dedican a tareas específicas, la consciencia parece romper esa modularidad. Como explicaron entonces los científicos: “Sabemos que hay numerosas redes cerebrales que controlan funciones cognitivas diversas”, sin embargo, “(…) la conciencia parece romper esta modularidad de las redes, ya que hemos observado un incremento amplio en la conectividad funcional de todas ellas durante la consciencia”.

Entropía cerebral

En 2017, otro equipo de científicos de Canadá y Francia utilizó también la mecánica estadística, en este caso para estudiar la sincronización entre redes de neuronas, es decir, cómo la actividad eléctrica de un conjunto de neuronas puede oscilar en fase con otros conjuntos de neuronas. En este estudio solo fueron analizadas nueve personas (algunas epilépticas, otras sanas).

Los resultados apuntaron a que lo que se maximiza durante la consciencia no es la conectividad cerebral en sí, sino la cantidad de formas diferentes en que se puede lograr un cierto grado de conectividad. Asimismo, se halló que los estados normales de vigilia están asociados con unos valores máximos de lo que los científicos han denominado la «entropía del cerebro”.

En general, la entropía es un concepto usado en termodinámica para medir el grado de organización de un sistema o, a la inversa, su grado de distribución aleatoria. El hecho de que la entropía del cerebro sea mayor cuando somos conscientes, implicaría que la consciencia surge cuando entre las redes cerebrales se activa la mayor cantidad posible de configuraciones (microestados) de interacciones. De esta manera, el cerebro maximizaría el procesamiento de la información y sería capaz de modelar mejor nuestra percepción del mundo.

Fuente original en Tendencias 21

 

Las mariposas del caos

Edward Lorenz observó que existen sistemas de comportamiento impredecible, en los que pequeñas perturbaciones iniciales tienen efectos profundos en los resultados

El batir de las alas de una mariposa se puede sentir al otro lado del mundo», dice un antiguo proverbio chino. Esta sencilla frase ilustra a la perfección como pequeños cambios pueden conducir a consecuencias totalmente divergentes o, dicho de otro modo, como una pequeña perturbación inicial, mediante un proceso de amplificación, puede acabar generando un efecto considerable.

El famoso efecto mariposa está estrechamente relacionado con la aparición de la teoría del caos y con la figura del matemático y meteorólogo estadounidense Edward Norton Lorenz (1917-2008), que realizó importantes contribuciones que ayudaron a comprender las dinámicas atmosféricas y las predicciones climatológicas, introduciendo conceptos como atractores extraños y acuñando términos como el ya citado ‘efecto mariposa’.

Nacido en Connecticut, Lorenz estuvo fascinado desde niño con los números y los cambios del clima, se licenció en matemáticas en el Colegio Dartmouth y la Universidad de Harvard, donde se expuso por primera vez temas tales como teoría de grupos, de conjuntos y topología combinatoria. Durante la segunda Guerra Mundial se alistó en la fuerza aérea, formando parte del equipo de pronosticadores meteorológicos del ejército, que realizaba predicciones para apoyar a los bombardeos aéreos. Tras la contienda, obtuvo su doctorado en el Instituto de Tecnología de Massachusetts (MIT), con un trabajo que describía la aplicación de ecuaciones dinámicas de fluidos para la predicción del movimiento de las tormentas.

El comienzo de la historia del caos se sitúa en la década de los 50, con el invento de las computadoras como telón de fondo, cuando empezaron a verse las primeras gráficas sobre el comportamiento de ciertos sistemas mediante métodos numéricos. En 1961, aconsejado por el científico Robert White, Lorenz había adquirido un ordenador para realizar los cálculos a mayor velocidad. Escribió un programa rudimentario para el cambio en una pauta climática basado en 12 ecuaciones que esperaba le predijeran el tiempo en la atmósfera.

En estos años, las computadoras eran muy lentas y Lorentz solía hacer pausas mientras la máquina realizaba los cálculos; como quería ver un resultado más amplio plasmado en una forma gráfica, pensó que podría ser una buena idea tomar un valor de los obtenidos por el ordenador, introducirlo como punto de partida y que, desde ahí, siguiera ejecutándose el programa. Para simplificar las operaciones, redujo de seis a tres los decimales, un mínimo cambio que no tendría efectos apreciables.

A su regreso, quedó sorprendido al ver que la predicción de su programa se había desviado sustancialmente del resultado anterior. Su primera idea fue que había cometido algún error al ejecutar el programa y lo repitió en numerosas ocasiones, obteniendo siempre el mismo resultado, hasta que se dio cuenta de que algo pasaba con el sistema de ecuaciones simplificado con el que estaba trabajando.

«Los números que yo había tecleado no eran los números originales exactos sino los valores redondeados que había dado la impresora en un principio. Los errores redondeados iniciales eran los culpables: se iban amplificando constantemente hasta dominar la solución. Dicho con terminología de hoy: se trataba del caos».

Lorenz se dedicó a investigar qué pasaba y publicó sus conclusiones, en 1963, en un trabajo titulado «Flujo determinista no periódico» en el que describió un sistema relativamente simple de ecuaciones que dieron lugar a un patrón de la complejidad infinita, llamado atractor de Lorenz. El hecho de que sus estudios aparecieran en revistas meteorológicas, que los científicos de otras disciplinas no leían, los hicieron pasar bastante desapercibidos durante casi una década. Pero lo que había descubierto tenía una enorme trascendencia en numerosas áreas que van desde la aerodinámica a la economía, pasando por la biología o la medicina. Lorenz había observado que existen sistemas que pueden desplegar un comportamiento impredecible, en los que pequeñas diferencias en una sola variable tienen efectos profundos en los resultados posteriores.

La Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Lorenz utilizaba el ejemplo del meteorólogo, que mediante cálculos muy precisos y partiendo de unas condiciones exactas, realiza una predicción climática aparentemente perfecta. Pero no haber tenido en cuenta el efecto de ese mínimo aleteo inicial podría llevarle a equivocarse totalmente.

En 1972 en una conferencia de la American Association for the Advancement of Science, en el MIT, Lorenz comunicó este concepto, en forma de pregunta, Predictibilidad ¿El aleteo de una mariposa en Brasil hace aparecer un tornado en Tejas?. Anteriormente, había usado el ejemplo de una gaviota pero, siguiendo las recomendaciones de unos colegas, lo cambio por el de la mariposa, mucho más poético.

Fuente Diario El Mundo

La revolución en la industria, fabricación en 3D de álabes de turbinas

La impresión en 3D está en pleno auge ya que permite la obtención de piezas personalizadas de cualquier geometría reduciendo, significativamente, tanto los tiempos de desarrollo como los costes de producción. Indudablemente, es una tecnología de fabricación por adición que está revolucionando muchos campos y sectores.

En el sector energético, Siemens ha logrado un gran avance con la impresión de álabes de turbinas de gas en 3D. Se trata de un éxito para el uso del llamado Additive Manufacturing en el campo de la generación de la energía.

En apenas 18 meses, los ingenieros de Siemens, junto con expertos de Material Solutions, han completado toda la cadena: desde el diseño de componentes y el desarrollo de materiales de fabricación aditiva hasta nuevos métodos de simulación de vida útil y controles de calidad.

Los álabes se instalaron en una turbina de gas industrial SGT-400 con una capacidad de 13 MW. Estas piezas están fabricadas a partir de un polvo de superaleación de níquel policristalino de alto rendimiento, lo que les permite soportar la alta presión, las elevadas temperaturas y los esfuerzos centrífugos inherentes a la operación a alta velocidad de la turbina.

A plena carga, cada una de estos álabes de la turbina:

  • Adquiere una velocidad de más de 1000 mph
  • Soporta un peso equivalente a 11 toneladas (algo parecido a un autobús de Londres completamente cargado)
  • Trabaja en un entorno con gas a 1.250°C y refrigerado, interiormente, por aire a más de 400°C (dos veces más caliente que un horno doméstico)

El diseño avanzado del álabe, probado en Lincoln, proporciona características de refrigeración interna mejoradas que pueden aumentar la eficiencia total de las turbinas de gas.

La aplicación de impresión 3D del año

Las técnicas de fabricación aditiva tienen el potencial de convertirse en una pieza clave para la fabricación de piezas de turbinas de gas. Siemens ha estado invirtiendo en esta innovadora tecnología desde sus inicios y, ahora, está impulsando la industrialización y comercialización de estos procesos.

Recientemente, la compañía ha sido galardonada con el Premio Internacional de Industria de Impresión 3D en la categoría “La aplicación de impresión 3D del año” por la primera prueba exitosa de fabricación aditiva (AM) de álabes de turbina de gas en el mundo.

Además de los álabes de turbina que han sido premiados, Siemens está utilizando esta tecnología innovadora para producir:

  • puntas del quemador
  • boquillas del quemador
  • y también para reparar el cabezal del quemador

El equipo de expertos cuyos centros de innovación están situados en Suecia, Alemania y Reino Unido está transformando las nuevas posibilidades de diseño en soluciones específicas para los clientes.

Fuente

 

Tendencias tecnológicas 2018

  El progreso tecnológico va a un ritmo endiablado. En la cabeza suelen distanciarse las grandes firmas del sector. En el pelotón de caza se disputan una escapada, pero de un año a otro son pocas las novedades que se detectan. El tsunami digital que amenaza con asolar a las empresas que pasen de subirse a la ola de la transformación lo tendrán muy crudo para sobrevivir.

Así que en plena marejada se pueden pescar algunas tendencias que bien vale la pena seguir. Las que más cobran impacto desde hace un tiempo y que cobrarán mayor relevancia a partir del año que viene se centran, en su base, en apretar el gatillo de los modelos de Inteligencia Artificial, el apoyo sin pretensiones de la robótica, el comienzo de la explosión de la era bautizada como «Internet de las Cosas» o el pedaleo constante de servicios «blockchain».

Un informe de la consultora Gartner destaca las principales tendencias tecnológicas estratégicas que tendrán mayor impacto y afectarán en la mayoría de las empresas en 2018. Algunas de estas, con un gran potencial disruptivo, ya están empezando a salir a flote en mayor o menor medida, pero las previsiones apuntan a que en los próximos meses se acelerará su interés. Se espera que crezcan rápidamente y se conviertan en el punto de inflexión que consolide su adopción de aquí a cinco años. «Los responsables de tecnología deben tener en cuenta estas tendencias en sus estrategias de innovación o corren el riesgo de perder terreno sobre aquellos que sí lo hacen», apunta en un comunicado David Cearley, vicepresidente de Gartner.

Inteligencia artificial para tomar decisiones

Que la inteligencia artificial juega un papel importante en la industria ya lo sabíamos. Que los modelos de «aprendizaje automático» o «machine learning» han evolucionado rápidamente, también. Como también sabemos que aún le queda mucho camino por recorrer. De ahí que las empresas deberán basar parte de su negocio en esta tecnología. Deberán explotarla para lograr obtener resultados empresariales óptimos.

La creación de sistemas que aprendan, se adapten y potencialmente actúen de manera autónoma será un gran campo de batalla para los fabricantes de tecnología al menos en 2020,. La capacidad de usarla para mejorar la toma de decisiones, reinventar modelos de negocio y ecosistemas, será el pan de cada día hasta 2025, cuando se consolide. «Las técnicas de Inteligencia Artificial están evolucionando rápidamente y las organizaciones tendrán que invertir significativamente en mejorar sus habilidades, sus procesos industriales y lograr herramientas de cara a explotar con éxito esta tecnología», estima Cearley.

Aplicaciones y análisis inteligentes

En los próximos años, destaca el estudio, prácticamente todas las aplicaciones, aplicaciones y servicios incorporarán algún nivel de Inteligencia Artificial. Algunas de estas herramientas empresariales serán, por ejemplo, aplicaciones inteligentes que no podrían existir un sistema de aprendizaje automático. Este tipo de servicios crearán una nueva capa intermedia entre personas y sistemas gracias a su potencial de transformar la naturaleza del trabajo tradicional.

«Explorar aplicaciones inteligentes como una forma de aumentar la actividad humana y no simplemente como una camino para reemplazar a los empleados», destaca el analista. En su opinión, el poder de una analítica inteligente será, además, un área de gran crecimiento y que permitirá automatizar algunos procesos como la recopilación de datos o el intercambio de ideas. El reto será, por tanto, utilizar la Inteligencia Artificial para agregar «valor empresarial».

«Internet de las Cosas» como vehículo del cambio

La era de la hiperconectividad no ha hecho más que empezar. Con el impulso que tomarán las redes 5G, que se encuentran ahora en una fase de desarrollo, se alcanzará esa llamada era del «Internet de las Cosas». El planteamiento es simple; conectar objetos electrónicos para que «hablen» entre sí. Los expertos vaticinan un gran despliegue de modelos empresariales basados en estos objetos inteligentes. Gracias a ellos se podrá, entre otras cosas, interactuar de manera más natural con el entorno, cambiará la relación entre ser humano-máquina y aparecerán negocios basados en otras tecnologías como el uso de drones o el coche autónomo.

Todo ello se traducirá, a juicio de los analistas, en una eficiencia energética y un negocio más sostenible. Servicios de transporte y desplazamientos serán los principales beneficiados. «En la actualidad, el uso de vehículos autónomos en entornos controlados es un área de rápido crecimiento.Es probable que veamos ejemplos de coches autopilotados en algunos tramos de carreteras en 2022, pero su uso general todavía requerirá a una persona en el asiento del conductor en caso de que la tecnología falle de manera inesperada», sostiene Cearley.

La aparición de un gemelo digital

Esta idea se refiere a la representación digital de una entidad o sistema del mundo real. consiste en un modelo virtual idéntico al producto o espacio que deseamos. De esta forma, estos «gemelos digitales», en el contexto de los proyectos inteligentes, serán muy necesarios en los próximos tres años. Bien definidos, tendrán potencial para lograr una mejor y más eficiente toma de decisiones dentro de la empresa. Es crear productos desde el mundo virtual.

«Con el tiempo, las representaciones digitales de nuestro mundo estarán conectadas con una figura existente en el mundo real que ofrecerán capacidades basadas en IA para permitir la simulación y el análisis de los comportamientos humanos», añade. Empresas de comercio electrónico, servicios de salud o departamentos de estrategia digital podrán beneficiarse de este cambio a largo plazo hacia el mundo gemelo digital integrado.

Una «nube» transversal

Lo llaman «edge computing» y describe un modelo basado en el procesamiento de información y recopilación de contenido para acercarse en mayor medida con las fuentes de esta información. Una mayor conectividad y la reducción de la latencia favorecerá así a la aparición de modelos distribuidos. Las empresas deberán comenzar a utilizar patrones de diseño en el extremo de sus infraestructuras informáticas. Gracias a eso, se podrán explotar un modelo productivo no centralizado. «La tecnología basada en la nube puede ser utilizada para crear un modelo productivo orientado a la prestación de servicios», manifiesta.

Servicios conversacionales

Las plataformas de conversación impulsarán el siguiente gran cambio de paradigma en cómo los seres humanos interactúan con el mundo digital. La plataforma toma una pregunta o un comando del usuario y luego responde ejecutando alguna función, presentando algún contenido o pidiendo información adicional. En los próximos años, las interfaces de conversación se convertirán en un objetivo primordial de diseño para la interacción del usuario y se entregarán en hardware dedicado, características principales del sistema operativo, plataformas y aplicaciones.

«Las plataformas de conversación han alcanzado un punto de inflexión en cuanto a la comprensión del lenguaje y la intención básica del usuario, pero todavía queda trabajo», sugiere Cearley. «El desafío que enfrentan las plataformas de conversación es que los usuarios deben comunicarse de una manera muy estructurada y esto es a menudo una experiencia frustrante».

Una mayor experiencia inmersiva

El mercado de la realidad virtual (VR) y la realidad aumentada (AR) es, actualmente, un adolescente. Y, para colmo, está muy fragmentado, lo que provoca que en muchas aplicaciones los servicios novedosos ofrezcan poco valor de negocio real fuera del entretenimiento, como videojuegos y videos esféricos de 360. Para impulsar un verdadero beneficio comercial, las empresas deberán examinar escenarios específicos de la vida real en los que se pueden aplicar y hacer que los empleados sean más productivos. Entre otras cosas, podrán mejorar los procesos de diseño y visualización.

«Blockchain» integrado en el negocio

La tecnología denominada «blockchain» o «cadena de bloques», utilizada para la creación de monedas virtuales como el Bitcoin, tiene más aplicaciones. Está evolucionando desde ser una infraestructura para criptomonedas a una plataforma para la transformación digital. Los expertos creen que puede ofrecer una salida radical de los actuales mecanismos centralizados de transacción y mantenimiento de registros, y con ello servir como base de negocios digitales.

Fuente ABC

Administraciones públicas, ¿con software libre?

Las administraciones que utilizan este código abierto se benefician de algunas ventajas: es una alternativa más barata —no se paga una licencia por el producto, aunque sí el soporte— y supone menos dependencia respecto al proveedor. La calidad final del programa aumenta porque es verificado por multitud de desarrolladores que se dedican a aportar su «granito de arena». Así lo explica Pedro Martínez-Juliá, que trabaja en el Instituto Nacional de Información y Comunicaciones de Tecnología de Japón.

Según Martínez-Juliá, «este modelo encaja perfectamente en lo que debe favorecer una administración pública: enriquecer, en la medida de lo posible, a la sociedad que está administrando». Y añade: «Cualquier cosa financiada con fondos públicos debe estar a disposición del público que aporta dichos fondos, lo cual no se consigue con software privativo y su licencia restrictiva, y sí con software libre y su licencia permisiva».

También es un método más transparente porque los usuarios externos pueden detectar errores y sugerir cambios. Según la Secretaría General de Administración Digital, «al estar disponible el código que hay detrás de las aplicaciones, éstas pueden ser auditadas por terceros en busca de problemas de seguridad o errores en su desarrollo, lo que redunda en una mayor seguridad».

Para aclararnos: un programa es software libre cuando cualquier persona puede acceder, modificar y distribuir su código fuente, es decir, las instrucciones que debe seguir el ordenador para ejecutar un programa o cargar una página web. Podríamos decir que con el software libre puedes editar un programa creado por otra persona para adaptarlo a tus necesidades. «Aunque hay ciertas diferencias, a grandes rasgos la filosofía es la misma que cuando se usa una licencia creative commons para textos, música o imágenes», explica David Cabo, director de la fundación Civio. «Cualquier persona puede descargarse una foto creative commons de Flickr y usarla en un libro sin pedir permiso, siempre que respete ciertas reglas, como reconocer al autor».

Crear aplicaciones con código abierto permite que cualquier usuario con conocimientos de programación pueda participar en el desarrollo de ese programa. «Todos se benefician porque se evita duplicar esfuerzos», explica Cabo. El código abierto ha tenido un enorme impacto en la industria del desarrollo de software desde los años 80. «Al principio se despreciaba la idea como algo que no era sostenible, pero hoy en día está muy presente. En los últimos años estamos viendo cómo las administraciones públicas también comienzan a adoptar esta filosofía, no solo como usuarios, sino también como generadores de software libre».

Fuente de la Noticia

Amazon supera a Google como motor de búsqueda de compras

Ahora Google puede afirmar que ya no tiene la exclusiva en materia de buscadores y que su monopolio no es tal. Los resultados de una encuesta elaborada por Bloomreach entre consumidores de Estados Unidos, indican que el 55 % de los consumidores prefieren realizar en Amazon las búsquedas de los productos que quieren adquirir, en lugar de hacerlo por Google o ir al comercio. El motivo es que en la descripción del producto que hace Amazon pueden ver las características de los artículos que se quieren comprar.

Asimismo, 9 de cada 10 consumidores consultan Amazon aunque el producto lo vayan a comprar a otro proveedor de ecommerce.

Lógicamente, el 58 % reconoce que han cambiado la tienda online de su comercio por Amazon debido a la pobre experiencia en la navegación que han tenido. Una derivada de esto es que el 40 % de los responsables de marketing y de ventas de estos comercios temen perder sus puestos de trabajo debido a la gran aceptación de la empresa fundada por Jeff Bezos.

La anunciada alianza entre Google y la cadena de supermercados Wallmart es un hecho y quiere hacer frente al gigante Amazon entre otras. El uso de la inteligencia artificial por parte de Google puede voltear la dirección de la cadena de supermercados y modificar su modelo de negocio.

Fuente de la gráfica: Statista

 

Gigantes tecnológicos, unos pocos se llevan el pastel

Nuestra economía está cada vez más controlada por un puñado de empresas con gran poder. Las hay de toda clase, desde las gigantes bien establecidas como Amazon, Facebook, Google, Apple y Walmart, hasta nuevas compaññías de rápido crecimiento como Airbnb, Tesla y Uber. Siempre han existido empresas grandes y monopolios en toda regla, pero esta nueva generación de lo que algunos economistas denominan como empresas superestrellas tiene algo que la diferencia del resto. Todas están presentes en varios sectores distintos y han sabido anticiparse y aprovecharse de las nuevas tecnologías digitales, desarrolladas por las pequeñas empresas, y del trabajo humano que subyace debajo de esa pirámide de poder.

Estas características fomentan un escenario en el que unos pocos se lo llevan todo.

Las 50 Empresas más «Inteligentes» de 2017 incluye a muchas de ellas, pero no se limita a incluir a las más grandes y rentables. La lista es un escaparate para empresas tecnológicamente innovadoras cuyos modelos de negocio les permiten explotar estos avances. Representa nuestra mejor predicción de qué empresas dominarán futuro. Amazon y Facebook y Google figuran en ella, pero también hay muchos recién llegados. Aunque todavía no les conozca,  tienen una posición aventajada para aprovecharse de tecnologías que definirán los negocios durante los próximos años, como la inteligencia artificial.

Innovar de forma inteligente no les garantiza convertirse en superestrellas, pero sí les confiere el potencial para crear y dominar nuevos mercados en un entorno cada vez más competitivo.

El auge de empresas superestrellas ha ayudado a definir el tiempo que vivimos. Los gigantes digitales han sabido aprovechar las ventajas de internet, los llamados efectos de red, y el big data para volverse enormemente rentables y proporcionar servicios que se han vuelto imprescindibles, como búsquedas web gratuitas y las cómodas compras en línea; así como dispositivos que han cambiado nuestras vidas, como el smartphone.

Pero las empresas de internet no son las únicas que se han convertido en superestrellas. Según una investigación reciente de unos economistas de la Universidad de Harvard y el Instituto Tecnológico de Massachusetts (ambos en EEUU), la cuota de ventas de empresas superestrellas (definidas como las cuatro empresas más grandes de una industria determinada) ha aumentado marcadamente en todos los sectores estudiados, desde el transporte hasta los servicios y las finanzas. La tendencia hacia empresas superestrellas está acelerándose, según el economista de la Universidad de Harvard y coautor del estudio Lawrence Katz. Este fenómeno se ha vuelto uniforme en todas las industrias y economías desarrolladas durante la última década, más o menos. El dominio de estas empresas es especialmente fuerte en mercados sujetos a rápidos cambios tecnológicos. Katz señala que probablemente la diferente capacidad de las empresas para aprovecharse de los nuevos avances.

En otras palabras, hay que ser la empresa más «inteligente» del campo o mejor ni molestarse.

Los autores han detectado un resultado profundamente inquietante de una economía dominada por sólo unas pocas empresas claves. Una de las verdades de la economía de Estados Unidos durante gran parte del siglo XX fue que la porción de los ingresos totales del país destinada a la fuerza laboral era constante. A medida que la economía crecía, los trabajadores recibían una cuota proporcional de ese creciente pastel. Pero la media de ingresos de los trabajadores ha dejado de seguir esa tendencia, y la proporción que reciben es cada vez menor. Esto está sucediendo en muchos países y se aceleró durante la década de 2000.

¿A donde nos llevará todo esto? Estemos atentos

La humanidad está perdida si la inteligencia artificial se basa en criterios comerciales

Son las grandes empresas las que están desarrollando estos sistemas y lo hacen de acuerdo a sus propios objetivos: vender y generar beneficios a través de manipular a las personas. Debemos crear una IA que mejore la naturaleza humana y no al revés

Entre 2007 y 2014, fui la CEO de Cognea, una empresa que ofrecía una plataforma para desarrollar complejos agentes virtuales de forma rápida mediante una combinación de aprendizaje estructurado y profundo. El sistema ha sido empleado por decenas de miles de desarrolladores, y también media docena de empresas de la lista Fortune 100. Finalmente fue adquirido por IBM Watson en 2014.

Cuando analicé las interacciones que la gente mantiene con las decenas de miles de agentes desarrollados en nuestra plataforma, me quedó claro que los humanos están muy dispuestos a entablar una relación con software de inteligencia artificial, mucho más de lo que cree la gente.

Yo siempre había pensado que la gente querría mantener algo de distancia con la inteligencia artificial, pero lo que me encontré fue justo lo contrario. Las personas están dispuestas a formar relaciones con inteligencias artificiales, siempre que tengan un diseño sofisticado y estén muy personalizadas. Parece que los humanos queremos convencernos de que la IA realmente se preocupa por nosotros.

Quien consigue que un usuario pida un a pizza a domicilio en lugar de dar una orden a su mayordomo virtual para que compre verduras para hacer un plato más barato y sano, gana. Y quien consiga que los usuarios se acostumbren y dependan de pasar 30 horas a la semana con su amigo virtual «perfecto» que tolera cualquier abuso, también ganará.

Esto me resultó desconcertante hasta que me di cuenta de que conectamos con muchas personas de una manera superficial en nuestro día a día mientras atravesamos una especie de fango emocional. ¿Acaso los amigos devuelven las llamadas cuando se les ignora durante un tiempo? ¿Las personas a las que contratamos aparecen en nuestra puerta si no les pagamos? No, pero una personalidad artificial siempre está a nuestra disposición. En algunos sentidos, es una relación más auténtica.

Y observé que el fenómeno se repetía independientemente de si el programa estaba diseñado para actuar como un banquero, compañero o un entrenador personal. Los usuarios hablaban con los asistentes automatizados durante más tiempo del que dedicaban a sus homólogos humanos. La gente compartía voluntariamente secretos muy personales con las personalidades artificiales, como sus sueños de futuro, detalles sobre sus vidas amorosas o incluso contraseñas.

por Liesl Yearsley | traducido por Teresa Woods

leer más en la Fuente

¿El fin de la banca tradicional?

Sabíamos que venían y ya están aquí. La banca de las grandes redes sociales y tecnológicas impondrá su dominio de los usuarios de los smartphone.

Dentro de poco podrás hacer mucho más que compartir fotos y publicaciones a través de Facebook: la red social incorporará chatbots que te ayuden a gestionar tus reservas en hoteles, vuelos y restaurantes e incluso hacer la compra a domicilio sin salir de la aplicación. Tendemos hacia un futuro en el que se ofrecerán experiencias completas desde una sola plataforma que integre distintos servicios. De hecho, en España ya puedes enviar dinero a tus contactos a través de plataformas de mensajería como Facebook Messenger sin tener que entrar a tus aplicaciones bancarias.

Precisamente este es uno de los movimientos que las tecnológicas están haciendo: avanzar por el camino de los servicios financieros, convirtiéndose en competidores directos de las entidades bancarias.

La compra impulsiva y/0 compulsiva de los créditos rápidos (entre el 5 y el 10%) en función de los metadatos de los clientes no harán más que aumentar la indefensión de los usuarios de estas plataformas.

El grupo de comercio electrónico Alibaba ha creado un monedero virtual y los sistemas de pago de la red social WeChat está cambiando la economía china, donde el 67% de las transacciones ya se hacen a través de estos medios de pago. Los expertos consideran que interesarse por los servicios bancarios es un desarrollo natural de este negocio. Cada año que pasa el sector financiero se encuentra ante nuevos retos y el incremento de los competidores es uno de los más importantes, según el Instituto de Estudios Bursátiles (IEB), que señala en su ránking anual a los principales competidores de los bancos. Entre las grandes tecnológicas, Facebook, Apple, Google y Amazon siguen a la cabeza.

 

La topología del cerebro indica espacios de hasta 11 dimensiones

Entendemos el mundo en cuatro dimensiones, tres de ellas espaciales y una temporal, aunque los científicos creen que pueden existir otras que expliquen determinados fenómenos de la Física. Si eso ya es difícil de asimilar, lo que ahora sugieren los científicos de Blue Brain, un proyecto internacional para el estudio del cerebro a través de la supercomputación, parece sacado de una película de ciencia ficción. Los investigadores de este programa con sede en Lausana (Suiza) creen que en el cerebro pueden existir estructuras neuronales de hasta once dimensiones.

Y lo más interesante es que se preguntan si de esa intrincada arquitectura depende nuestra capacidad para realizar tareas complejas o si es el lugar donde se esconden los recuerdos.

Según explican en Frontiers in Computational Neuroscience, el equipo de Blue Brain ha empleado la topología algebraica de una manera que nunca se ha utilizado antes para descubrir un universo de estructuras geométricas multidimensionales dentro de las redes cerebrales.

Al parecer, estas estructuras surgen cuando las neuronas forman un grupo: cada neurona se conecta a las otras de una manera muy específica que genera un objeto geométrico preciso. Cuantas más neuronas hay en el grupo, mayor es la dimensión del objeto geométrico.

 «Hemos encontrado un mundo que nunca habíamos imaginado», afirma el neurocientífico Henry Markram, director del proyecto Blue Brain y profesor de la École Polytechnique Fédérale en Lausana. «Hay decenas de millones de estos objetos, incluso en un pequeño punto del cerebro, con siete dimensiones. En algunas redes, incluso encontramos estructuras hasta con once dimensiones».

 

¿Tenemos neuronas sociales?

Neurocientíficos franceses han descubierto que el cerebro, cuando tiene que hacer algo, activa neuronas diferentes dependiendo de si hay alguien más en el entorno, confirmando así la existencia de neuronas sociales, informa el CNRS en un comunicado.

Lo han comprobado en investigaciones realizadas con monos, cuyos resultados se publican en la revista Social Cognitive and Affective Neuroscience. Este descubrimiento mejora nuestra comprensión del cerebro social y permite comprender mejor el fenómeno de la facilitación social.

La facilitación social, presente en todas las especies que viven en grupo, llamadas especiales sociales, es la tendencia que tienen las personas a ejecutar mejor tareas simples cuando son observadas por otros, que cuando se encuentran solas. Por ejemplo, en una carrera ciclista, la presencia de otros ciclistas tiende a mejorar el rendimiento de los participantes. El descubrimiento puede explicar esta tendencia, observada desde 1898.

Un desafío mayor de las neurociencias consiste en comprender el funcionamiento del cerebro en su entorno social. La colaboración inédita entre un especialista de la neurofisiología del primate con un especialista en psicología social experimental, ha descubierto la existencia de dos nuevas poblaciones de neuronas en el córtex prefrontal, a las que han calificado de “neuronas sociales” y “neuronas asociales”.

La mayor parte de las áreas cerebrales están asociadas a tareas específicas. Algunas, conocidas por estar especializadas en el tratamiento del aspecto social de las informaciones, constituyen el así llamado cerebro social.

En una investigación desarrollada por Marie Demolliens, Driss Boussaoud y Pascal Huguet, del CNRS, estos científicos propusieron a los monos una tarea en la cual debían asociar una imagen, presentada en una pantalla, a uno de los cuatro elementos presentados en las esquinas de la misma pantalla.

Esta tarea asociativa implica al córtex pre-frontal, pero no a las áreas cerebrales llamadas sociales. Los investigadores registraron la actividad eléctrica de las neuronas en el córtex pre-frontal durante el ejercicio presentado a los monos, durante el cual había momentos en los que estaban acompañados y otros en los que estaban solos.

Aunque las neuronas registradas en el córtex pre-frontal están implicadas principalmente en la realización de la tarea visual motriz, esta investigación descubrió que la mayoría de estas neuronas son sensibles a la presencia o ausencia de otro mono en el momento de realizar la prueba asociativa.

Más información

Estudio de la propagación los «rumores» en la sociedad

El marketing ha encontrado una nueva herramienta en la simulación social. Este método de investigación, basado en el modelado de una sociedad artificial mediante computadores, permite crear un mercado virtual para diseñar y evaluar estrategias de marketing antes de aplicarlas al mundo real. Sin embargo, su aplicación aún presenta algunas deficiencias que tienen que ver principalmente con el realismo del mercado recreado.

Con el fin de contribuir a solucionar algunos de estos inconvenientes, dos investigadores de la Universidad Politécnica de Madrid (UPM), Emilio Serrano y Carlos A. Iglesias, han publicado recientemente un estudio que aborda el papel que puede desempeñar Twitter en campañas de marketing viral. La siguiente entrevista con Serrano, profesor del Departamento de Inteligencia Artificial de la UPM, trata sobre su estudio en la difusión y control de rumores en redes sociales.

Pregunta. ¿Cómo se difunde un rumor en la red?

Respuesta. La mayoría de investigaciones considera que un rumor se difunde por “contagio simple”: si tengo un vecino en la red que difunde el rumor, hay cierta probabilidad de que yo comience a difundirlo. Es similar a lo que ocurre con las enfermedades infecciosas. No necesito muchos infectados a mí alrededor para caer enfermo; con uno, y algo de mala suerte, vale. Claro está, tener un gran número de infectados a tu alrededor aumenta la probabilidad de que te contagies. Otros investigadores consideran que algunos rumores y memes se difunden por “contagio complejo”: necesito cierto número de vecinos en mi comunidad que difundan el rumor para que empiece a creérmelo.

P. ¿En qué se basa su modelo exploratorio del rumor en la red respecto a los que ya existen?

R. La línea más popular considera al rumor como una enfermedad infecciosa que produce varios estados: susceptible de ser infectado, infectado, y recuperado. Llamamos a esto el modelo SIR. Es una metáfora muy interesante, pero llega hasta donde llega: la transmisión de una vacuna es muy distinta a la de un antirumor, es decir, información veraz. Nuestro modelo tiene en cuenta que vamos a reaccionar ante la información veraz  de manera muy distinta dependiendo de si hemos llegado a aceptar un rumor (es decir, estábamos infectados y ahora estamos curados), o si fuimos desconfiados o no estuvimos expuestos a él  (es decir, éramos susceptibles y ahora estamos vacunados). Obviamente, seremos mucho más reticentes de esparcir la información que contradice un rumor si llegamos a creérnoslo. Los experimentos mostraron que el error que cometía nuestro modelo al ajustarse a rumores reales en Twitter se reducía hasta en un 83% respecto a otros modelos en la literatura científica.

Diagrama del modelo propuesto.


  1. ¿Cuánto tiempo necesita un rumor para extenderse?R. Un dato curioso es que el tiempo que tarda en esparcirse depende muy poco del tamaño de la red. Esto no ocurriría si las conexiones en las redes sociales fueran al azar. Pero la existencia de usuarios muy bien conectados o concentradores hace que la información fluya muy rápidamente. De manera más técnica, decimos que la longitud promedio del camino en una red libre de escala se incrementa logarítmicamente con el tamaño de la red.  Uno de los rumores que estudiamos llegó a ser avalado por miles de usuarios de Twitter en menos de un día, pero teóricamente se podría alcanzar un gran porcentaje de la totalidad de usuarios de Twitter en cuestión de minutosP. Alguien podría pensar que cuanto más increíble sea un rumor, más clientes puede tener y mayor capacidad de extensión.

    R. Efectivamente, la inverosimilitud es una característica que ayuda a la difusión de rumores, aunque también a que se desmientan con sencillez. También hay otros factores como el miedo o incluso el altruismo. En los atentados de París de noviembre de 2015, las redes sociales se inundaron de información sobre los ataques. Esta información también incluía datos engañosos o directamente falsos. Uno de estos casos fue el de una foto de un canadiense que fue modificada para que pareciese que sujetaba un Corán y llevaba un chaleco bomba.

    P. ¿Cómo se detecta y se controla un rumor nocivo que puede afectar negativamente a amplias capas de la sociedad?

    R. Existen propuestas basadas en el aprendizaje automático (machine learning) muy sofisticadas que consiguen predecir si un mensaje tiene probabilidad de ser un rumor o de hacerse viral en un breve periodo de tiempo. Para ello atienden a una serie de variables temporales, estructurales y lingüísticas. Estos sistemas de inteligencia artificial pueden tener una tasa de fallos muy alta en el caso de los rumores, pero permiten lanzar alertas automáticas para ser evaluadas por expertos y decidir si es necesario tomar medidas.  El control del rumor pasa por esparcir antirumores: información veraz que llegue rápido a la mayor cantidad de usuarios de la red y, particularmente, antes de que estos usuarios hayan difundido el rumor.

    P. ¿Cómo puede aplicarse el desarrollo de un rumor en el marketing, incluso en campañas políticas?

    R. La base del marketing viral es que nos dejamos influenciar mucho más por nuestro círculo social que por medios de publicidad tradicionales. Los rumores tienen la finalidad de condicionar el comportamiento de los demás más allá de la información objetiva. En este contexto, un rumor puede tener la intención de popularizar tu marca, o desprestigiar a la de la competencia. La difamación de adversarios políticos es algo muy habitual, los datos que utilizamos en nuestro estudio son de esa naturaleza.

    P. ¿Se pueden hacer estudios de penetración de campañas de publicidad basadas en la propagación de un rumor?

    R. Sí, Twitter se ha convertido en una herramienta esencial para ello. No es ni de lejos la red social más popular, pero sus cuentas y mensajes son públicos por defecto. Esto ha permitido a los investigadores estudiar fenómenos globales desde un punto de vista cuantitativo por primera vez en la historia de la humanidad. Además, cuenta con una interfaz que permite que las computadoras interactúen con la red social automáticamente y sin supervisión humana, abriendo un gran abanico de posibilidades.

    P. ¿Estudios como el suyo podrían servir para controlar los efectos negativos de las crisis económicas?

    R. El paradigma de investigación que sustenta nuestro trabajo es la simulación social basada en agentes. Esencialmente, se simulan fenómenos sociológicos con la intención de comprenderlos y predecirlos. Para ello se modelan interacciones simples entre individuos con la finalidad de que emerjan patrones globales reconocibles. Esto permite plantear escenarios hipotéticos sobre los resultados de acciones individuales en el fenómeno global de estudio. Y, por supuesto, una de las preguntas más interesantes y que muchos investigadores estudian es precisamente: ¿qué podemos hacer para evitar las crisis económicas?

    P. ¿Conocer cómo va a comportarse un rumor equivale a tener una bola de cristal que permite controlar el futuro?

    R. Sí, siempre buscamos la bola de cristal. Lo que ocurre es que la sociedad es un sistema complejo adaptativo, y el conocimiento sobre las predicciones suele alterar los eventos futuros. Por ejemplo, una buena predicción sobre la bolsa solo funcionará en la medida que no sea ampliamente conocida. Saber un poco más y un poco antes que los demás puede ser muy valioso.

    P. ¿El rumor puede crear y anticipar modelos de comportamiento social o crear tendencias?

    R. Por supuesto. De ahí que haya tanto interés en su estudio. Es el caso de las profecías autocumplidas: un rumor totalmente falso sobre la quiebra de una compañía puede, de hecho, hacer que la compañía quiebre. También ocurre en el sentido contrario: rumores que exageren el valor de ciertos activos, como acciones o inmuebles, pueden disparar burbujas especulativas.

    P. ¿Qué tipo de rumor es el que más fácilmente se divulga en la red? ¿Sobre qué trataría? Por ejemplo, si intentáramos divulgar para una campaña de marketing que han aparecido extraterrestres, ¿tendría mucho recorrido en la red?

    R. No es tanto el qué como el quién. Ya hemos hablado de los nodos concentradores y de su importancia en la difusión de información en las redes sociales: si ninguno de ellos esparce un rumor, la información siempre quedará aislada en pequeñas comunidades.  No es necesario que el rumor empiece en estos nodos, pero al menos deben hacer de caja de resonancia. El segundo factor esencial es la reputación que permite apoyar, confirmar o desmentir un rumor con credibilidad. En 1938, Orson Welles adaptó a la radio el clásico de ciencia ficción La guerra de los mundos. A pesar de que se explicaba que era una dramatización en la introducción, muchos oyentes  pensaron que estaban sufriendo una invasión extraterrestre. Probablemente, pensaron que si lo decía la radio tenía que ser cierto, independientemente de lo inverosímil de la información.

    EMILIO SERRANO, CARLOS A. IGLESIAS. “Validating viral marketing strategies in Twitter via Agent-based Social Simulation”. Expert Systems With Applications, 50 (15), pp. 140-150, 2016.

fuente: UPM

Otros estudios sobre la «rumorología»

http://biblioteca.uniminuto.edu/ojs/index.php/Inventum/article/viewFile/8/8

Economía e Inteligencia Artificial

El avance de la inteligencia artificial en la empresa acelera el debate sobre cómo integrar la nueva tecnología para ganar productividad y, al mismo tiempo, generar nuevos empleos

Las ventas de las grupos que desarrollan sistemas cognitivos crecen a un ritmo anual del 55% Esta tecnología es mucho más que robots; abarca desde el coche autónomo hasta la medicina

No es ciencia-ficción; sus efectos ya están aquí. Aún resuenan las palabras del científico y programador Andrew Ng en las aulas de la escuela de negocios de Stanford: “Es la mayor revolución desde la introducción de la electricidad hace 100 años. No veo ningún sector que no vaya a transformar a medio plazo”. Se trata de la inteligencia artificial. Una tecnología que alumbra un floreciente negocio cuyos ingresos crecen a un ritmo anual del 55%.

El dinero llama al dinero y la financiación de proyectos en este campo se ha multiplicado por 8,5 veces desde 2012. Las máquinas que piensan como humanos contribuirán a mejorar la productividad impulsando con ello el crecimiento económico.

La cara b tiene su reflejo en la destrucción de cientos de miles de empleos. En un modelo económico transformado en un juego de suma cero, habrá países y empresas que ganen a costa del resto. De momento, una avanzadilla, liderada por EE UU y sus corporaciones, lleva ventaja en esta transformación.

La inmunología, gran negocio

El negocio del medicamento dedicado a las enfermedades autoinmunes como la artritis reumatoide, la psoriasis, el lupus y la espondilitis anquilosante, aumentarán de 57.700 millones de dólares en 2015 a 75.400 millones de dólares en 2022, un 4% de crecimiento.

El último informe de GBI (mercado global de la inmunología) indica que los fármacos antirreumáticos modificadores de la enfermedad, se siguen utilizando como primera línea de tratamiento de los trastornos inmunológicos. Sin embargo, un gran segmento de terapia de segunda línea ha aparecido en este mercado en los últimos años, debido al fracaso en el mantenimiento de respuestas a largo plazo de los primeros. Esto comenzó con la aprobación de Remicade (infliximab) y Enbrel (etanercept) en 1998.

En la actualidad se están desarrollando 2054 medicamentos en el área de la inmunología de los cuales casi 100 están en fase III (fase final antes de la comercialización) de la investigación.

El crecimiento de la inmunología va de la mano con el crecimiento de la Oncología  que seguirá siendo la mayor área de ventas para terapia con una tasa de crecimiento del 12,5% 2016-2022. Los analistas han pronosticado que los fármacos “inmuno-oncológicos” (que estimula las defensas naturales del cuerpo contra diferentes tipos de cancer) podrían generar unas ventas anuales de 35.000 millones de dólares a medio plazo y constituirán el 60 por ciento de los tratamientos contra el cáncer en 2023. Esto convertirá a los medicamentos de inmunoterapia oncológica en el mayor mercado de la medicina.

La suiza Roche es tal vez la empresa más importante en el campo de la oncología facturando 32.200 millones de dólares. Su posición de liderazgo la sitúa en un lugar privilegiado para aprovechar el impulso de la inmunoterapia. En este momento, los tres medicamentos que más ventas aportan a Roche son para combatir el cáncer. Los analistas estiman que el beneficio de la compañía crecerá casi un 42 por ciento entre 2017 y 2019. Los analistas estiman que el beneficio de la compañía crecerá casi un 42 por ciento entre 2017 y 2019.inmune

Otro nombre propio es el de AstraZeneca. Una de sus principales líneas de investigación será la inmunoterapia. Es el caso de durvalumab, para cáncer de pulmón, de vejiga o pancreático.Actualmente, el grupo tiene más de 30 ensayos clínicos de este medicamento en combinación con otros.

Se prevé que su beneficio aumente un 70,6 por ciento en el actual trienio.

Bristol-Myers Squibb (BMS) es pionero en el sector de la inmunoterapia. Su medicamento Opdivo será el más vendido durante los próximos años, con una facturación superior a los 14.600 millones de dólares. Está indicado para el cáncer de pulmón y en su caso, se espera que las ganancias crezcan hasta 2019 más de un 36 por ciento.

Fuente Leer Más sobre estos temas

Las 7 primeras profesiones que caerán en el olvido debido a la IA

Muchas personas comparten cierto entusiasmo sobre las comodidades que los algoritmos inteligentes y los robots van a traer a nuestra vida cotidiana y permanecen optimistas sobre sus puestos de trabajo. Mientras tanto los empleos de los que se empezará a expulsar a las personas en primer lugar no se limitarán simplemente al trabajo para los que carecen de experiencia o la labor manual.

La automatización robótica será responsable para el 2020 de la pérdida de más de 5 millones de puestos de trabajo en 15 naciones desarrolladas, informa la revista ‘Forbes’ citando un informe del Foro Económico Mundial.

Otro estudio, elaborado por la corporación IDC, supone cambios dramáticos en la mano de obra y la cultura laboral debido a innovaciones robóticas, incluidas nuevas leyes, nuevos cargos y nuevos métodos de trabajar al lado de compañeros no solamente humanos.

Camioneros

Hay unos 3,5 millones de camioneros en Estados Unidos hoy en día, pero si se cumplen las predicciones de que dentro de menos de una década un tercio de todos los camiones circularán de manera autónoma, ya es tiempo que los conductores empiecen a entrenarse para nuevos empleos.

Otto Motors, una empresa con apoyo financiero de Uber fundada por exempleados de Google responsables de la inteligencia artificial, tiene como objetivo convertir a los conductores humanos en obsoletos.

otto

Obreros

El sistema SAM es dos a tres veces más productivo que los albañiles humanos. Coloca 1.200 ladrillos al día, en comparación con los 300-500 colocados por los humanos. Y esto es solo el comienzo de la automatización en la construcción.

Los operadores de grúas y los conductores de buldóceres deben prepararse para que las máquinas inteligentes les arrebaten los empleos en breve.

Conforme al informe de Deloitte Insight, el 39% de los empleos en el sector jurídico será automatizado para el 2020. Revisar la documentación y buscar información pertinente para los casos legales son tareas que van bien con las capacidades de la inteligencia artificial.

Por el momento la infiltración de la inteligencia artificial se limita a diligencias de auditoría, la búsqueda de datos electrónicos y evaluación de contratos, pero su aplicación va expandirse en el futuro, sin duda alguna.BBz7Rzg.img

Doctores y otro personal médico

Los robots ya están siendo empleados en la medicina de hoy en día y van a responder a la demanda crítica de servicios médicos por la creciente población mundial.

Varias organizaciones médicas ya están introduciendo sistemas computarizados para la detección y tratamiento del cáncer. Los diagnósticos y cirugía son ámbitos apropiados para el uso de robots.

Contables

Calcular cifras, manejar hojas de balance, cuentas a pagar y recibir, evaluar pérdidas y ganancias y mantener el inventario son tareas donde los robots pueden ser más competentes que los humanos. Por lo tanto hay que esperar un significativo crecimiento en la contabilidad robótica en los próximos años.

El trabajo de analistas financieros también corre riesgos, dado que el análisis de la inteligencia artificial es capaz de detectar una tendencia de forma más rápida y precisa.

Escritores de informes

Los novelistas, tal vez, van a mantener el trabajo pero los escritores de informes y los escritores financieros probablemente estén en riesgo de irse al paro. Las máquinas están siendo enseñadas y son cada vez más competentes en la creación del contenido legible.

Vendedores

A medida que más personas se fijan en el comercio electrónico y la búsqueda basada en precio, especificaciones y disponibilidad de cada artículo que quieren comprar, la figura del vendedor va siendo eliminada de la ecuación.