data

Contratos «inteligentes» con blockchain, todavía vulnerables

Los programas informáticos que se ejecutan en cadenas de bloques están revolucionando el sistema financiero. Pero una gran parte del bombo de lo que ya se conoce como contratos inteligentes no es más que básicamente eso, bombo. Es un sector nuevo. Los tecnólogos están empezando a aprender a diseñarlos para garantizar que no perderán el dinero de las personas y, como lo ilustra una nueva encuesta sobre contratos inteligentes con Ethereum, los expertos en ciberseguridad no han hecho más que empezar a definir cuáles son las vulnerabilidades de un contrato inteligente.

Máquinas expendedoras digitales: el término «contrato inteligente» lo acuñó el pionero de las criptomonedas Nick Szabo que lo introdujo hace más de 20 años (puede que sea o no Satoshi Nakamoto). La idea básica, escribió Szabo, es que «muchos tipos de cláusulas contractuales (como garantías, enlaces, delimitación de los derechos de propiedad, etcétera) se pueden integrar en el hardware y software con el que trabajamos, de tal forma que incumplir el contrato se vuelve muy caro (o incluso prohibitivo) para el infractor». Szabo denominó a las máquinas expendedoras físicas como un «primitivo antecesor de los contratos inteligentes», ya que toman monedas y dispensan un producto y el cambio correcto en función del precio de compra.

Aparece el blockchain: hoy en día la idea más común de un contrato inteligente consiste en un programa de ordenador almacenado en una cadena de bloques. Esta cadena es básicamente un libro de contabilidad compartido que usa la criptografía y una red de ordenadores para rastrear los activos y proteger el libro de posibles alteraciones. Para Bitcoin, esta tecnología permite que dos partes que no se conocen entre sí tengan una garantía férrea de que una transferencia de fondos acordada sucederá como se espera, es decir, nadie será engañado.

La cosa se pone interesante con la llegada de los contratos inteligentes. Con un contrato inteligente, dos personas podrían crear un sistema que retire fondos de la cuenta de una persona, por ejemplo de uno de los padres, y los deposite en la cuenta de su hijo si el saldo del hijo cae por debajo de cierto nivel.

Este es solo el ejemplo más simple; en teoría, los contratos inteligentes se pueden usar para programar todo tipo de acuerdos financieros, desde contratos de derivados y subastas hasta depósitos controlados por blockchain.

ICO en todas partes: una de las aplicaciones más populares de los contratos inteligentes ha sido la de crear nuevas criptomonedas. Algunas de ellas son pequeños indicios de un nuevo tipo de economía, una en la cual una moneda digital hecha a propósito se puede usar para un servicio «descentralizado», como el almacenamiento de datos y el comercio de divisas digital. La emoción de los inversores sobre tales aplicaciones ha ayudado a alimentar la locura de la oferta inicial de moneda (ICO por sus siglas en inglés), que en conjunto ya han recaudado más de 4.000 millones de euros. (Si se pregunta qué diablos es un ICO ← aquí hay un manual)

Paren el carro: los tecnólogos aún no tienen una idea completa de qué aspecto tiene un agujero de seguridad en un contrato inteligente, según el científico informático del University College de Londres (Reino Unido) Ilya Sergey quien es coautor de un estudio publicado la semana pasada sobre este tema.

Los usuarios lo descubrieron a las malas en 2016 cuando un pirata informático robó unos 40 millones de euros de la Organización Autónoma Descentralizada, que estaba basada en blockchain de Ethereum.

Y en noviembre, alrededor de 120 millones de euros quedaron secuestrados repentinamente para los usuarios del servicio de billetera de Parity, que también tiene sus raíces en Ethereum.

Sergey y sus compañeros utilizaron una nueva herramienta para analizar una muestra de alrededor un millón de contratos inteligentes de Ethereum. De todos ellos, 34.000 resultaron vulnerables, incluido el que condujo al incidente de Parity. Sergey dice que el trabajo del equipo es como interactuar con una máquina expendedora, como si pulsaran botones al azar y registraran las condiciones que hicieron que la máquina actuara de forma involuntaria. Sergey concluye: «Creo que todavía hay una gran cantidad de vulnerabilidades por descubrir y que deben ser detalladas formalmente».

Fuente

Administraciones públicas, ¿con software libre?

Las administraciones que utilizan este código abierto se benefician de algunas ventajas: es una alternativa más barata —no se paga una licencia por el producto, aunque sí el soporte— y supone menos dependencia respecto al proveedor. La calidad final del programa aumenta porque es verificado por multitud de desarrolladores que se dedican a aportar su «granito de arena». Así lo explica Pedro Martínez-Juliá, que trabaja en el Instituto Nacional de Información y Comunicaciones de Tecnología de Japón.

Según Martínez-Juliá, «este modelo encaja perfectamente en lo que debe favorecer una administración pública: enriquecer, en la medida de lo posible, a la sociedad que está administrando». Y añade: «Cualquier cosa financiada con fondos públicos debe estar a disposición del público que aporta dichos fondos, lo cual no se consigue con software privativo y su licencia restrictiva, y sí con software libre y su licencia permisiva».

También es un método más transparente porque los usuarios externos pueden detectar errores y sugerir cambios. Según la Secretaría General de Administración Digital, «al estar disponible el código que hay detrás de las aplicaciones, éstas pueden ser auditadas por terceros en busca de problemas de seguridad o errores en su desarrollo, lo que redunda en una mayor seguridad».

Para aclararnos: un programa es software libre cuando cualquier persona puede acceder, modificar y distribuir su código fuente, es decir, las instrucciones que debe seguir el ordenador para ejecutar un programa o cargar una página web. Podríamos decir que con el software libre puedes editar un programa creado por otra persona para adaptarlo a tus necesidades. «Aunque hay ciertas diferencias, a grandes rasgos la filosofía es la misma que cuando se usa una licencia creative commons para textos, música o imágenes», explica David Cabo, director de la fundación Civio. «Cualquier persona puede descargarse una foto creative commons de Flickr y usarla en un libro sin pedir permiso, siempre que respete ciertas reglas, como reconocer al autor».

Crear aplicaciones con código abierto permite que cualquier usuario con conocimientos de programación pueda participar en el desarrollo de ese programa. «Todos se benefician porque se evita duplicar esfuerzos», explica Cabo. El código abierto ha tenido un enorme impacto en la industria del desarrollo de software desde los años 80. «Al principio se despreciaba la idea como algo que no era sostenible, pero hoy en día está muy presente. En los últimos años estamos viendo cómo las administraciones públicas también comienzan a adoptar esta filosofía, no solo como usuarios, sino también como generadores de software libre».

Fuente de la Noticia

¿El fin de la banca tradicional?

Sabíamos que venían y ya están aquí. La banca de las grandes redes sociales y tecnológicas impondrá su dominio de los usuarios de los smartphone.

Dentro de poco podrás hacer mucho más que compartir fotos y publicaciones a través de Facebook: la red social incorporará chatbots que te ayuden a gestionar tus reservas en hoteles, vuelos y restaurantes e incluso hacer la compra a domicilio sin salir de la aplicación. Tendemos hacia un futuro en el que se ofrecerán experiencias completas desde una sola plataforma que integre distintos servicios. De hecho, en España ya puedes enviar dinero a tus contactos a través de plataformas de mensajería como Facebook Messenger sin tener que entrar a tus aplicaciones bancarias.

Precisamente este es uno de los movimientos que las tecnológicas están haciendo: avanzar por el camino de los servicios financieros, convirtiéndose en competidores directos de las entidades bancarias.

La compra impulsiva y/0 compulsiva de los créditos rápidos (entre el 5 y el 10%) en función de los metadatos de los clientes no harán más que aumentar la indefensión de los usuarios de estas plataformas.

El grupo de comercio electrónico Alibaba ha creado un monedero virtual y los sistemas de pago de la red social WeChat está cambiando la economía china, donde el 67% de las transacciones ya se hacen a través de estos medios de pago. Los expertos consideran que interesarse por los servicios bancarios es un desarrollo natural de este negocio. Cada año que pasa el sector financiero se encuentra ante nuevos retos y el incremento de los competidores es uno de los más importantes, según el Instituto de Estudios Bursátiles (IEB), que señala en su ránking anual a los principales competidores de los bancos. Entre las grandes tecnológicas, Facebook, Apple, Google y Amazon siguen a la cabeza.

 

Los algoritmos nos facilitan la vida: así funcionan

Se ha dicho que vivimos en “la civilización de los algoritmos”; estos se han convertido en el “carbono” de la sociedad moderna. Los que trabajamos con datos los utilizamos constantemente: cada uno de nosotros tiene una “biblioteca particular de ellos y según el problema al que se enfrenta usa uno u otro. Otras veces probamos varios y nos quedamos con el que mejor funciona.

Los algoritmos resuelven problemas muy habituales en las compañías como medir la propensión de compra de productos, proponer recomendaciones de contenidos, anticipar el volumen de ventas futuro o segmentar a los clientes para diseñar productos diferenciados.

Pero no hace falta ser científico de datos para consumir algoritmos. Cuando buscamos algo en Internet, compramos un billete de avión, traducimos un texto o utilizamos el navegador del coche estamos aprovechándonos de la labor de muchos de ellos: los algoritmos nos hacen la vida más fácil.

Con la irrupción de big data ha llegado también la computación de datos en paralelo. Ahora es factible procesar grandes cantidades de datos y esto ha puesto de moda nuevas técnicas. Un ejemplo es el deep learning, que engloba un conjunto de algoritmos conocidos como redes neuronales, que imitan la forma de pensar del ser humano y que han demostrado ser prácticamente imbatibles en problemas de reconocimiento de imágenes.

Un algoritmo es una rutina: una lista de instrucciones del tipo “haga primero esto y luego esto otro”. A los ordenadores se les da muy bien seguir instrucciones sin salirse de un camino marcado, por eso se llevan bien con los algoritmos.

Para entender mejor qué son los algoritmos y algunos conceptos alrededor de ellos, vamos a analizar uno de los más famosos de la historia: el algoritmo de Euclides para calcular el máximo común divisor (mcd) de dos números enteros, es decir, el mayor número por el que ambos son divisibles. Por ejemplo, el máximo común divisor de 84 y 18 es 6.

El máximo común divisor se enseña a calcular mediante la descomposición en factores primos. Por ejemplo, los factores primos de 84 son 22, 3 y 7 y los factores primos de 18 son 2 y 32. Ahora es cuando aplicamos lo de escoger los factores comunes elevados al menor exponente. Ambas descomposiciones tienen 2 y 3 como factor común y esos son los menores exponentes (por ejemplo, 22 es solo factor de 84). Así pues, el máximo común divisor de 84 y 18 es el producto de estos números, es decir mcd (84, 18)=2×3=6.

Cuando los números son muy grandes, factorizarlos en números primos puede resultar prácticamente imposible. Hoy en día no existe de hecho ningún algoritmo eficiente que lo haga, pero hay una manera muy eficiente y hermosa de calcular el mcd de dos números sin necesidad de factorizarlos: la descubrió Euclides 300 años antes de Cristo. Euclides publicó su algoritmo en el libro 7 de sus Elementos, una de las obras más importantes de la historia de la ciencia, que sirvió de fuente de inspiración para los mayores genios de las matemáticas así como para enseñar esta disciplina durante 2.000 años.

Dados dos números enteros m y n (con m ? n), ésta es la rutina del algoritmo:

  1. Calcula el resto de dividir m por n y llámalo r
  2. Siempre que r sea distinto de 0, haz lo siguiente:
    1. Asigna a m el valor de n
    2. Asigna a n el valor de r
    3. Calcula el resto de dividir m por n y llámalo r
  3. El resultado es n

Vamos a aplicar estas instrucciones a nuestro ejemplo, en el que m=84 y n=18

  • Cuando dividimos 84 entre 18, nos queda un resto de 12 (porque 84=18×4+12); entonces r=12
  • Como r=12 es distinto de 0
    • hacemos m=18, n=12 y calculamos el nuevo resto r=6 (puesto que 18=12×1+6)
  • Como r=6 es distinto de 0
    • hacemos m=12, n=6 y calculamos el nuevo resto r=0 (puesto que 12=6×2+0)
  • Como r=0 ya salimos del paso 2 y entonces mcd (84,18)=6 (el último valor de r calculado)

Euclides evita, así, la factorización y convierte el cálculo del máximo común divisor en una sucesión de restas y divisiones.

Hay un concepto importantísimo en cualquier algoritmo, que es el criterio de parada. Como su nombre indica, es la regla que detiene el algoritmo. En este caso, es el momento en que el resto que se calcula entre m y n es 0. No siempre hay un criterio exacto de parada como éste y otras veces los algoritmos paran cuando han estado un tiempo suficiente trabajando. En esos casos las soluciones que devuelven no son óptimas, pero probablemente sean una muy buena aproximación, y eso vale en muchas ocasiones. Esos algoritmos se llaman heurísticos y son la única opción cuando el problema es computacionalmente complejo, como el estudiadísimo Problema del Viajante.

Así pues, otro concepto importante en todo algoritmo es la complejidad, que es una medida de cuánto le cuesta llegar a la solución óptima. Intuitivamente, en el caso del algoritmo de Euclides, la complejidad se puede medir como el número de divisiones necesarias para llegar a la solución óptima. En nuestro caso, calcular el mcd de 84 y 18 nos ha costado tres divisiones. Ése es el número de divisiones necesario para calcular el mcd de todas las posibles parejas de números del 1 al 10:

euclides10

La pareja más difícil es 5 y 8, cuyo mcd cuesta calcular cuatro divisiones. Éste es el gráfico de todas las parejas del 1 al 200 (un azul más oscuro significa mayor número necesario de divisiones):

euclides200

Los patrones que aparecen en el gráfico son interesantes. Algunos son fáciles de entender, como la diagonal de color claro, ya que sólo hace falta una división para calcular el mcd de dos números iguales, pero otras líneas son mucho más sorprendentes. Se ha demostrado que las parejas que necesitan más divisiones son números consecutivos de la sucesión de Fibonacci (5 y 8 son una de estas parejas).

La complejidad de un algoritmo se mide en términos de los ingredientes con los que trabaja. En el ejemplo de Euclides los ingredientes son los dos números de entrada y se ha calculado que el número de divisiones no supera cinco veces el número de dígitos del mayor de ellos. Para entender si esto es alto o bajo, imaginad que sois un profesor y le habéis prestado el bolígrafo a alguno de vuestros 30 alumnos pero no recordáis a cuál:

  1. Si para descubrirlo preguntáis a cada alumno si lo tiene él o cada uno de sus 29 compañeros, en el peor de los casos serían 302 preguntas. En este caso, para una clase de N alumnos, la complejidad de orden N2 o cuadrática en el argot matemático.
  2. Si para descubrirlo preguntáis a cada alumno si lo tiene exclusivamente él, en el caso peor serían 30 preguntas y la complejidad sería de orden N, o lineal.
  3. Si para descubrirlo dividís la clase en dos grupos iguales (o que se diferencien por un alumno cuando el total sea impar), preguntáis qué grupo lo tiene, y repetís el proceso con éste (descartando siempre el que no) hasta que queda un alumno, en el peor caso haríais cinco preguntas. La complejidad sería de orden log (N) o logarítmica.
  4. Si preguntáis en alto quién tiene el bolígrafo, sólo necesitareis una pregunta y la complejidad sería entonces de orden 1 o constante.

El algoritmo de Euclides es del tercer tipo, logarítmico, una clase de algoritmos muy eficiente. Por eso después de más de 2.300 años sigue utilizándose. Es antiguo, eficiente y elegante.

Para que un ordenador ejecute un algoritmo hay que programarlo en algún lenguaje. Éste es el código que calcula el máximo común divisor de dos números según el algoritmo de Euclides en R, uno de los lenguajes de programación más importantes para un científico de datos:

mcd = function(x,y)
{
  a=max(x,y)
  b=min(x,y)
  r=a%%b
  while(r > 0) {
    a=b
    b=r
    r=a%%b
  }
  return(b)
}

Imagen: Laineys Repertoire

Gráficos: Antonio Sánchez Chinchón

Enlace del artículo

Wikipedia revoluciona la predicción de la gripe…

¡Sorprendente! Han recurrido a Wikipedia. Su idea es que la variación en el número de personas que acceden a artículos sobre la gripe es un indicador de la propagación de la enfermedad.

This time last year, the Centers for Disease Control and Prevention in Atlanta launched a competition to find the best way to forecast the characteristics of the 2013-2014 influenza season using data gathered from the internet. Today, Kyle Hickmann from Los Alamos National Laboratories in New Mexico and a few pals reveal the results of their model which used real-time data from Wikipedia to forecast the ground truth data gathered by the CDC that surfaces about two weeks later.

Flu takes between 3,000 and 49,000 lives each year in the U.S. so an accurate forecast can have a significant impact on the way society prepares for the epidemic. The current method of monitoring flu outbreaks is somewhat antiquated. It relies on a voluntary system in which public health officials report the percentage of patients they see each week with influenza-like illnesses. This is defined as the percentage of people with a temperature higher than 100 degrees, a cough and no other explanation other than flu.

Flu takes between 3,000 and 49,000 lives each year in the U.S. so an accurate forecast can have a significant impact on the way society prepares for the epidemic. The current method of monitoring flu outbreaks is somewhat antiquated. It relies on a voluntary system in which public health officials report the percentage of patients they see each week with influenza-like illnesses. This is defined as the percentage of people with a temperature higher than 100 degrees, a cough and no other explanation other than flu.

más información

El Bid Data exprime tu cultura e interés…

A estas alturas todo el mundo es conocedor del aplastante éxito de la plataforma en streaming por excelencia Netflix.man-475559__180

Y es que, en cada país en el que pone un pie, triunfa, independientemente de si se trata de EEUU, India, México o Alemania. Lo cierto es que todo el mundo se pregunta cuáles son las claves de su popularidad pues, los contenidos originales de la compañía son ofrecidos en todo el mundo.

Lo cierto es que la plataforma cuenta con la ayuda del Big Data en su tarea de conocer en profundidad cuáles son los gustos de sus consumidores y las particularidades de los usuarios de cada región en la que da servicio.

Porque, al fin y al cabo, a pesar de la creciente globalización en la que nos encontramos, cada país tiene sus características culturales que moldean y definen los hábitos de consumo de las personas.

Y para averiguar más sobre los usuarios, Netflix ha querido analizar los datos que ofrecen sus imágenes visuales que cambian según el país en el que se muestren haciendo que, aunque los contenidos sean los mismos, la manera de presentarlos sea la más atractiva para ese público concreto.

Con 1,8 segundos para atrapar la atención de los binge-watchers, la compañía ha dado a conocer, tal y como recoge Los Replicantes, las conclusiones de su trabajo de investigación sobre las preferencias de sus usuarios.

Fuente

Centros de datos submarinos

El agua y los electrónicos usualmente no se mezclan.

Pero Microsoft piensa que tirar las computadoras en el océano podría ser la ola del futuro.

La multinacional  terminó un experimento de tres meses en el que operó un centro de datos submarino. Un estante de servidores con la potencia de 300 computadoras personales fue colocado dentro de un cilindro hermético de acero y sumergido en el océano frente a la costa del centro de California.

El loco experimento fue lanzado porque los centros de datos actuales son tristemente ineficientes. Estos son construidos donde la energía y la tierra son baratos (no cerca de donde la gente en realidad vive). Y ellos desperdician mucha energía enfriando sus computadoras.

El océano puede solucionar estos problemas. Las corrientes oceánicas pueden producir suficiente energía como para alimentar los centros de datos. El frío fondo del océano enfría lo suficiente los componentes de computación dentro del tanque. Además, si se considera que la mayoría de personas viven cerca del océano, el hecho de colocar los centros de datos bajo el agua podría aumentar potencialmente la velocidad en la que los clientes podrían tener acceso a la información guardada en la nube de Microsoft.

El experimento fue tan exitoso que Microsoft manejó el centro de datos submarino 75 días más de lo que había planificado. Este incluso empezó a operar las cargas de trabajo de los clientes reales, según Peter Lee, vicepresidente corporativo de Microsoft Research NExT.

Desde entonces, Microsoft sacó del agua el centro de datos experimental para su análisis. El próximo paso es meter un tanque más grande, que tenga por lo menos cuatro veces el poder informático, bajo el océano para probarlo.

A diferencia del primer experimento, el próximo tanque será equipado con turbinas, las cuales convertirán las corrientes del océano en electricidad.

——————-
Microsoft afirma que el calor neto de la red de centros de datos submarina será cero ya que estará alimentada por completo mediante el océano en sí mismo… una teoría confusa pero científicamente precisa. Este también descubrió que el ruido producido por su centro de datos submarino fue ahogado por los camarones y cangrejos cercanos.

Los centros de datos también son construidos con materiales reciclables y Microsoft cree que la huella de carbono total de los centros de datos submarinos será «dramáticamente más baja» que la de los actuales centros en tierra.

Dado el crecimiento en la nube, los analistas de la industria creen que la mayoría de los centros de datos del mundo aún están por ser construidos. Pero construir un centro de datos toma por los menos dos años… una eternidad en la industria tecnológica.

Como resultado, Microsoft construye sus centros de datos con el futuro en mente, por lo que les instala más poder informático y espacio de lo que actualmente necesitan.

Lee considera que el proyecto debajo el agua puede hacer que la construcción de centros de datos cambien para dejar de ser proyectos de construcción y se conviertan en empleos de fabricación.

«Qué tal si pudiéramos producir estos tanques en una línea de montaje?», reflexionó. «Podríamos entregar un centro de datos, desde su concepción hasta su operación, en 90 días. Eso es dramáticamente diferente de lo que sucede hoy en día».

¿Industria 4.0?

«Estamos en una nueva revolución global con un enorme potencial y debemos aprovechar esta ola tecnológica para transformar nuestras empresas y nuestras industrias».

Máximo Valenciano, director de Inycom, quien se refería así a la Industria 4.0, en la jornada tecnológica ‘Viaje a la Industria de Futuro’ que se celebró en el Instituto Tecnológico de Aragón (Itainnova) el pasado 14 de marzo.

El concepto de Industria 4.0 es relativamente reciente y se refiere a la cuarta revolución industrial, que consiste en la introducción de las tecnologías digitales en la industria. «Este término fue acuñado en 2011 en Alemania y permite que dispositivos y sistemas colaboren entre ellos y con otros, modificando los productos, los procesos y los modelos de negocio», explica Javier Huarte, coordinador de Tecnología de Robótica y Automática en Itainnova.

La industria 4.0 involucra la aplicación de nueve tecnologías: big data y análisis de datos, cloud computing, ciberseguridad, integración horizontal y vertical, robótica, realidad aumentada, fabricación aditiva, simulación e internet de las cosas. Itainnova lleva varios años trabajando y desarrollando conocimiento en cada una de estas nueve tecnologías, tanto en aplicaciones industriales reales como en proyectos de investigación nacionales y europeos.

Clientes digitales

¿Por qué vamos hacia esa Industria 4.0? Desde Inycom, Óscar Quintana, director de Industria, constata que «la sociedad se ha transformado en una sociedad digital compuesta por clientes digitales y la industria debe adaptarse para asegurar sus demandas: productos personalizados con disponibilidad inmediata, en cualquier parte del planeta y con buen precio». La combinación «de las tecnologías que permiten esto (internet de las cosas, big data, cloud) con las tecnologías que nos ayuden a diseñar, producir y realizar la logística de la forma más eficiente es la clave para esta imprescindible transformación digital de la industria del futuro», señala.

Se espera que esta transformación sea la llave de la competitividad para la industria occidental que, «con costes más altos de mano de obra o de energía y con un compromiso social, no puede competir exclusivamente en costes con otras industrias», añade Quintana. «Es el factor diferencial de poder adaptarse rápidamente a la demanda, de diseñar productos adecuados en tiempos menores, el poder fabricar series más cortas lo que le va a permitir ser competitiva. Para ello va a ser necesario disponer de información de los clientes, por todos los canales, desde redes sociales a internet de las cosas, y ser capaces de almacenarla, tratarla y presentarla para el análisis».

Se habla del «nuevo paradigma industrial conectado», que consiste, como indica Huarte, en que, para atender las nuevas demandas, «los medios productivos tendrán que estar conectados y ser completamente flexibles, las cadenas de suministro deberán estar integradas y los canales de distribución y atención al cliente serán digitales». En definitiva, «un modelo de industria inteligente y conectada».

Fuente: Herando de Aragón

Batalla por el big data en los coches

El informe realizado por KPMG con la opinión de 800 directivos y 2.100 conductores pone de relieve que la escala de prioridades del sector ha dado un vuelco en sólo un año. La tendencia más importante que se señala ahora es la conectividad y la digitalización, algo que en el informe del año pasado aparecía en décima posición.

El nuevo concepto de movilidad tiene sin embargo muchas preguntas sin respuesta, como destaca Xavier Busquets, profesor del departamento de Operaciones, Innovación y Data Sciences en Esade. “En el momento en que los coches se hablen entre sí, ¿cómo será el tráfico?, ¿cómo se regulará?, ¿de quién será la responsabilidad civil?, ¿se asegurará la privacidad de los datos?, ¿será posible desconectarse?, ¿cómo serán los protocolos de comunicación entre coches?”. Son sólo algunas preguntas que muestran la complejidad que implica convertir a los automóviles en “robots autónomos dotados de inteligencia”, como los define Busquets.

De momento, ya se ha desencadenado una batalla soterrada por el control de los datos que genera un vehículo durante su utilización, desde las costumbres del conductor, lo que puede tener un efecto sobre los seguros, hasta sus gustos, las webs que visita o las compras on line que realiza. El gran temor es que los datos acaben controlados por Apple y Google, los propietarios de los sistemas operativos que facilitan la conexión. Por eso, Panasonic y otros grupos japoneses están intentando desarrollar algún tipo de barrera para evitar el dominio de Apple y Google en el ámbito de los datos.

De hecho, esos dos gigantes tecnológicos ven la automoción como una enorme oportunidad de negocio, teniendo en cuenta que cada año se fabrican 100 millones de coches en todo el mundo. Los dos disponen de cash, en particular Apple, y están dispuestos a jugar fuerte en el nuevo campo que se les ha abierto.

 “El que controla los datos controla al cliente y sus posibilidades de fidelización”, argumenta Josep Maria Forcadell, responsable de ventas de la división de automoción de Ficosa…

Computación estadística con R

Interesante tutorial introductorio a la programación con R-Proyect

Análisis de datos: predicciones de tendencias 2016

El Instituto Internacional de Analítica (IIA) ha publicado su lista de predicciones para las tendencias de analítica en 2016. A diferencia de años anteriores, el IIA está dividiendo su lista en dos grupos distintos –el primero centrado en las predicciones de analítica; y el segundo se centró las prioridades de la analítica. El cofundador del IIA, Tom Davenport, y los investigadores Dan Magestro y Robert Morison, discutieron las predicciones y las prioridades durante un reciente webinar.

 «En las conversaciones que hemos tenido con los líderes y profesionales a través de las organizaciones empresariales y de todos los sectores de la industria, hemos escuchado un montón de temas consistentes, y necesidades urgentes que los presionan. Y pensamos que esto sería una gran oportunidad para ofrecer una visión concisa de las prioridades y los temas que estamos escuchando», dijo Magestro, un ex profesional de analítica en Cardinal Health, JPMorgan Chase & Co. y Nationwide Insurance, que ahora dirige los esfuerzos de investigación en el IIA.

Además, la predicción de las tendencias de análisis año tras año puede ser repetitiva. «Toma un tiempo implementar los temas más relevantes, y lleva tiempo que lleguen a buen término», dijo Davenport, profesor distinguido de tecnologías y gestión de información en la presidencia del Babson College en Babson Park, Mass., y líder destacado de la analítica.cropped-mathematics-111423__180.jpg

Robert Morison

La lista de cinco tendencias de analítica de la firma de consultoría e investigación de Portland, Ore., incluye una combinación de tecnologías avanzadas y predicciones que sugieren que los análisis serán algo más que una cosa genérica, todos los días en el 2016. «Y tener los análisis como algo cotidiano es un reflejo del avance de la madurez», dijo Morison, consultor de análisis e investigador de la IIA y moderador del webinar.

Las cinco predicciones de analítica del IIA son las siguientes:

Nº 1: La tecnología cognitiva incluye análisis automatizados

Los CIO probablemente vean una analítica automatizada, lo que tendrá efecto sobre los resultados de sus análisis, a diferencia de la tecnología cognitiva, comúnmente asociada con tecnologías como IBM Watson. Pero en 2016, la distinción entre las dos comenzará a desvanecerse, según Davenport.

Tom Davenport

La línea que separa estas dos ya es «relativamente delgada», dijo, ya que muchas de las tecnologías subyacentes de computación cognitiva –como la regresión logística, el aprendizaje profundo y las redes neuronales– son ya bien conocidas por los profesionales de analítica. «Las tecnologías cognitivas son una manera de volver a empaquetar [las tecnologías conocidas] junto con otras capacidades que las organizaciones necesitan estos días con el fin de aliviar los cuellos de botella de conocimiento y para hacer frente a más información de la que los humanos realmente pueden comprender», dijo Davenport.

La predicción podría ser una buena noticia para los CIOs y profesionales de la analítica. Mientras que los datos han tomado un papel más importante en casi todas las organizaciones, los gerentes todavía tienden a basarse en criterios distintos de análisis para tomar decisiones. Pero la integración de herramientas que asumen algunas de las funciones de toma de decisiones de forma automática significará que la analítica no puede ser evitada, dijo Davenport.

Nº 2: Micro servicios analíticos integrados en los procesosdatos

La analítica tradicional es a menudo considerada como un conjunto de capacidades, pero cada vez más, una técnica analítica específica de análisis -un micro servicio de analítica– está incrustado en los sistemas y procesos, a menudo a través de las API. Davenport ve que la tendencia de este análisis continuará en 2016.

«Aquellos de ustedes que siguen a IBM Watson saben que ya no es una aplicación monolítica de preguntas y respuestas», dijo. Watson ahora puede proporcionar 32 APIs diferentes, incluyendo el análisis de textos, traducción de texto y puntuación.

Una nota interesante: Los primeros usuarios de la tecnología de IBM Watson han sido a menudo los especialistas de dominio, como los cirujanos o los oncólogos, sobre todo porque la salud era un objetivo principal para la tecnología, según Davenport. «Pero a medida que esto permee a todas las empresas, y conforme hagamos más de este tipo de aplicaciones, creo que, en la mayoría de los casos, se combinará con los grupos de análisis dentro de las empresas», dijo.

No. 3: La ciencia de los datos, la analítica predictiva y la prescriptiva se fusionan

Las primeras charlas sobre big data la hacían sonar como si los CIOs y profesionales de la analítica tuvieran que pensar en ello como algo completamente separado de los análisis tradicionales, requiriendo incluso un grupo distinto para aislar y hacer minería de las franjas de datos que manejan las empresas. Según la investigación del IIA, esa perspectiva está cambiando. «Estas cosas, en muchos casos, se están combinando, y la ciencia de datos, en todo caso, se está convirtiendo en una rama especializada del grupo de análisis central«, dijo Davenport.

En 2016, la distinción entre la ciencia y el análisis de datos continuará desdibujándose y confundiéndose, conforme los grandes volúmenes de datos se integran más profundamente en más negocios tradicionales. «Vamos a ver a grupos enteros de análisis a los que denominarán como grupos de ciencias de datos y viceversa», dijo.

Nº 4: Se facilitará la búsqueda del talento de analítica

Los CIOs probablemente saben de memoria esta predicción que McKinsey hizo en 2011: Para 2018, los Estados Unidos experimentará un déficit de 140 mil a 190 mil científicos de datos calificados. Pero, según Davenport, los dolores de encontrar un buen talento de analítica han desaparecido –hasta cierto punto.

Las empresas se están aprovechando de los programas universitarios que generan talento especializado en análisis, o han creado «programas de re-modelaje» para capacitar a los empleados de analítica en la ciencia de datos, o preparar a los empleados de negocios para la analítica, dijo. Se refirió a Cisco como un ejemplo de ello, el cual no sólo se ha centrado en el fortalecimiento de talento interno de científicos de datos», sino que también crea ejecutivos que entienden cómo funciona esto, y pueden aplicarlo en sus unidades de negocio y funciones», dijo.

Dan Magestro

No todos están de acuerdo con Davenport. «Realmente depende de quién eres, dónde estás, en qué industria estás y si hay desafíos interesantes», dijo Magestro del IIA. Señaló a dos empresas del Medio Oeste, que no quiso nombrar, que hablaron con él acerca de la dificultad de convencer al talento para moverse a las ciudades. «Puede que en su conjunto la crisis no sea tan aguda como se había previsto, pero a un nivel más micro y en el ámbito regional, se puede ver algo de esto», dijo.

Nº 5: La analítica de hoy conserva y gestiona los datos

La preparación de los datos es uno de los mayores sumideros de tiempo para los profesionales de la analítica y los científicos de datos. Pero están surgiendo nuevas herramientas que aplican «la analítica que utilizamos normalmente para analizar los datos y conservar los datos«, dijo Davenport. En lugar de tomar un enfoque centralizado, de arriba hacia abajo, para la gestión de datos, herramientas de la talla de Tamr –donde Davenport es un asesor– Paxata y Trifacta trabajan de abajo hacia arriba, aprovechando el aprendizaje de la máquina para conservar y limpiar los datos. Davenport dijo que las herramientas han florecido en el último año, y que seguirán haciéndolo en 2016.

«Las cosas son demasiado complejas para hacerlo desde la parte superior hacia abajo en una gran organización», dijo Davenport. «No es raro tener 5.000 fuentes de datos diferentes que se refieren a lo mismo en algunas organizaciones.»

Fuente

Innovación, colaboración y tolerancia al fracaso…

Darío Gil es español y uno de los principales responsables de innovación del gigante tecnológico IBM. El vicepresidente de ciencia y Tecnología de IBM Research, de visita en España para una conferencia organizada por el Instituto Tomás Pascual Sanz, ligado a Calidad Pascual, defiende la importancia de una nueva era en la innovación en la que pone como claves la colaboración y la tolerancia al fracaso.

Pregunta. ¿Por qué pone el énfasis en estos dos conceptos?

Respuesta. La innovación abierta y colaborativa es un reflejo de la realidad de que ninguna empresa tiene todo el talento ni toda la capacidad necesaria para resolver todos los problemas a los que se enfrenta por sí misma. Esto impulsa la necesidad de incorporar nuevos talentos para detectar donde están los colaboradores que pueden hacer que la empresa tenga más éxito en el futuro.

En cuanto a la tolerancia al fallo y al fracaso, es un elemento totalmente fundamental en el proceso de innovación. Esto sea quizá uno de los contrastes mas llamativos entre España y EE UU. Es lo que más me llama la atención. Aquí existe un estigma y una concepción negativa hacia personas que han lanzado iniciativas empresariales que no han funcionado. En EE UU no existe ningún concepto similar. Es un contraste dramático.

P. ¿Qué cambios va a suponer esta nueva era?

R. Yo creo que va a ser un cambio tan fundamental como tuvo internet y la informativa en el dia a dia de los trabajadores. Utilizamos bases de datos, búsquedas. El siguiente paso es colaborar con agentes cognitivos, dentro de la actividad de cada uno. En el caso del medico, por ejemplo, el proceso de diagnostico será el conocimiento y la propia experiencia del profesional junto con el aprendizaje de los sistemas cognitivos.

P. ¿Existe temor todavía a los riesgos de esta tecnología y la inteligencia artificial?

R. Desde el punto de vista de polémica sigue extiendo pero en las empresas que lo están trabajando no existe. Por ejemplo, en el caso de la medicina, en EE UU la tercera causa de mortalidad son los errores médicos. Los sistemas cognitivos pueden ayudar, sin remplazar a los médicos. Estamos creando sistemas que permiten aprender de las publicaciones y los estudios y ayudar a la decisión de los médicos. Ese es el valor a crear. No creamos sistemas para reemplazar sino para colaborar. Entiendo la polémica, pero se distancia de la realidad. Nuestra visión es que la era cognitiva está basada en la relación con las personas. Hay que hacer que la gente sea capaz de tomar mejores decisiones

P. ¿Son todos los sectores conscientes de esta nueva era?

R. Yo creo que hay sectores mas conscientes que otros pero al final sí que hay una unanimidad, al igual que ya es raro que se dude de la transformación digital. Estamos viendo cada vez mas ejemplos de empresas de distintos sectores que se estén uniendo. Los que al principio no eran reticentes se beneficiaron mas de la transformación digital.

P. ¿Cuáles cree que son las empresas más innovadoras ahora mismo?

R. Sobre todo hemos visto en los últimos años todo el mundo de internet, con buscadores y redes sociales, pero también en móviles y demás, donde los chinos están avanzando mucho a precios muy bajos. No diría tanto ejemplos de empresas concretas como sectores. Las tecnologías de la información siguen siendo el más dinámico porque también es el menos regulado.

Data mining, big data y los peligros del gran hermano informático

La gran mayoría de personas lleva años utilizando tarjetas de fidelización en supermercados y franquicias. En principio no hay más que ventajas, ya que permiten acumular puntos canjeables y beneficiarse de ofertas y promociones. Pero muy pocas personas son conscientes que incluso ese gesto tan cotidiano constituye ya de por sí una forma de minería de datos.big data

Read More

Python Tools for Machine Learning

Python is one of the best programming languages out there, with an extensive coverage in scientific computing: computer vision, artificial intelligence, mathematics, astronomy to name a few. Unsurprisingly, this holds true for machine learning as well.phyton

 

Read More

Machine Learning

Ron Bekkerman, Machine Learning: Basic

La ciencia de los datos requiere especialistas

Internet, los dispositivos móviles y las redes sociales hacen que el material disponible aumente exponencialmente, de ahí que la ciencia de datos cobre relevancia. Por ello, se requieren cada vez más personas especializadas en su manejo y capacitadas en indagación y docencia en el rubro, señaló Sergio Rafael Coria Olguín, investigador visitante en el Centro de Ciencias de la Atmósfera.  (México)

Read More