febrero 23, 2016

Bacterias ¿cooperan?

Científicos de la Universidad Rice (Texas, EEUU) han desarrollado un circuito biológico a partir de múltiples tipos de bacterias, que incita a dichas bacterias a cooperar para alterar la expresión de proteínas.

Según informa la Universidad Rice en un comunicado, el proyecto es un equivalente biológico a los circuitos computacionales que contiene múltiples organismos destinados a influir en una población.

¿Para qué serviría esto? Pues para modificar sistemas biológicos mediante el control de la influencia de unas bacterias sobre otras. Por ejemplo, el circuito podría alterar beneficiosamente el microbioma intestinal de los seres humanos, es decir, el gran “consorcio” de bacterias que trabajan en equipo en los intestinos de las personas.

Bacterias que cooperan

En su trabajo, los investigadores desarrollaron dos cepas de bacterias manipuladas que regulan la producción de proteínas esenciales para las vías de señalización intercelular, que permiten a las células coordinar esfuerzos de manera beneficiosa.

La bacteria escogida para la manipulación fue la Escherichia coli común. Mediante la creación y combinación de dos poblaciones genéticamente distintas de esta bacteria, los científicos lograron que todas ellas formaran un “equipo de trabajo”.

En concreto, las Escherichia coli  modificadas trabajaron juntas haciendo tareas opuestas: Uno de los grupos se convirtió en activador de la expresión de determinados genes, y el otro en un represor genético.

Todas unidas generaron así oscilaciones rítmicas -picos y valles- de transcripción genética dentro la propia población bacteriana. Es decir, que coordinaron sus comportamientos del mismo modo que lo hacen en el interior de los organismos.

Análisis de datos: predicciones de tendencias 2016

El Instituto Internacional de Analítica (IIA) ha publicado su lista de predicciones para las tendencias de analítica en 2016. A diferencia de años anteriores, el IIA está dividiendo su lista en dos grupos distintos –el primero centrado en las predicciones de analítica; y el segundo se centró las prioridades de la analítica. El cofundador del IIA, Tom Davenport, y los investigadores Dan Magestro y Robert Morison, discutieron las predicciones y las prioridades durante un reciente webinar.

 “En las conversaciones que hemos tenido con los líderes y profesionales a través de las organizaciones empresariales y de todos los sectores de la industria, hemos escuchado un montón de temas consistentes, y necesidades urgentes que los presionan. Y pensamos que esto sería una gran oportunidad para ofrecer una visión concisa de las prioridades y los temas que estamos escuchando”, dijo Magestro, un ex profesional de analítica en Cardinal Health, JPMorgan Chase & Co. y Nationwide Insurance, que ahora dirige los esfuerzos de investigación en el IIA.

Además, la predicción de las tendencias de análisis año tras año puede ser repetitiva. “Toma un tiempo implementar los temas más relevantes, y lleva tiempo que lleguen a buen término”, dijo Davenport, profesor distinguido de tecnologías y gestión de información en la presidencia del Babson College en Babson Park, Mass., y líder destacado de la analítica.cropped-mathematics-111423__180.jpg

Robert Morison

La lista de cinco tendencias de analítica de la firma de consultoría e investigación de Portland, Ore., incluye una combinación de tecnologías avanzadas y predicciones que sugieren que los análisis serán algo más que una cosa genérica, todos los días en el 2016. “Y tener los análisis como algo cotidiano es un reflejo del avance de la madurez”, dijo Morison, consultor de análisis e investigador de la IIA y moderador del webinar.

Las cinco predicciones de analítica del IIA son las siguientes:

Nº 1: La tecnología cognitiva incluye análisis automatizados

Los CIO probablemente vean una analítica automatizada, lo que tendrá efecto sobre los resultados de sus análisis, a diferencia de la tecnología cognitiva, comúnmente asociada con tecnologías como IBM Watson. Pero en 2016, la distinción entre las dos comenzará a desvanecerse, según Davenport.

Tom Davenport

La línea que separa estas dos ya es “relativamente delgada”, dijo, ya que muchas de las tecnologías subyacentes de computación cognitiva –como la regresión logística, el aprendizaje profundo y las redes neuronales– son ya bien conocidas por los profesionales de analítica. “Las tecnologías cognitivas son una manera de volver a empaquetar [las tecnologías conocidas] junto con otras capacidades que las organizaciones necesitan estos días con el fin de aliviar los cuellos de botella de conocimiento y para hacer frente a más información de la que los humanos realmente pueden comprender”, dijo Davenport.

La predicción podría ser una buena noticia para los CIOs y profesionales de la analítica. Mientras que los datos han tomado un papel más importante en casi todas las organizaciones, los gerentes todavía tienden a basarse en criterios distintos de análisis para tomar decisiones. Pero la integración de herramientas que asumen algunas de las funciones de toma de decisiones de forma automática significará que la analítica no puede ser evitada, dijo Davenport.

Nº 2: Micro servicios analíticos integrados en los procesosdatos

La analítica tradicional es a menudo considerada como un conjunto de capacidades, pero cada vez más, una técnica analítica específica de análisis -un micro servicio de analítica– está incrustado en los sistemas y procesos, a menudo a través de las API. Davenport ve que la tendencia de este análisis continuará en 2016.

“Aquellos de ustedes que siguen a IBM Watson saben que ya no es una aplicación monolítica de preguntas y respuestas”, dijo. Watson ahora puede proporcionar 32 APIs diferentes, incluyendo el análisis de textos, traducción de texto y puntuación.

Una nota interesante: Los primeros usuarios de la tecnología de IBM Watson han sido a menudo los especialistas de dominio, como los cirujanos o los oncólogos, sobre todo porque la salud era un objetivo principal para la tecnología, según Davenport. “Pero a medida que esto permee a todas las empresas, y conforme hagamos más de este tipo de aplicaciones, creo que, en la mayoría de los casos, se combinará con los grupos de análisis dentro de las empresas”, dijo.

No. 3: La ciencia de los datos, la analítica predictiva y la prescriptiva se fusionan

Las primeras charlas sobre big data la hacían sonar como si los CIOs y profesionales de la analítica tuvieran que pensar en ello como algo completamente separado de los análisis tradicionales, requiriendo incluso un grupo distinto para aislar y hacer minería de las franjas de datos que manejan las empresas. Según la investigación del IIA, esa perspectiva está cambiando. “Estas cosas, en muchos casos, se están combinando, y la ciencia de datos, en todo caso, se está convirtiendo en una rama especializada del grupo de análisis central“, dijo Davenport.

En 2016, la distinción entre la ciencia y el análisis de datos continuará desdibujándose y confundiéndose, conforme los grandes volúmenes de datos se integran más profundamente en más negocios tradicionales. “Vamos a ver a grupos enteros de análisis a los que denominarán como grupos de ciencias de datos y viceversa”, dijo.

Nº 4: Se facilitará la búsqueda del talento de analítica

Los CIOs probablemente saben de memoria esta predicción que McKinsey hizo en 2011: Para 2018, los Estados Unidos experimentará un déficit de 140 mil a 190 mil científicos de datos calificados. Pero, según Davenport, los dolores de encontrar un buen talento de analítica han desaparecido –hasta cierto punto.

Las empresas se están aprovechando de los programas universitarios que generan talento especializado en análisis, o han creado “programas de re-modelaje” para capacitar a los empleados de analítica en la ciencia de datos, o preparar a los empleados de negocios para la analítica, dijo. Se refirió a Cisco como un ejemplo de ello, el cual no sólo se ha centrado en el fortalecimiento de talento interno de científicos de datos”, sino que también crea ejecutivos que entienden cómo funciona esto, y pueden aplicarlo en sus unidades de negocio y funciones”, dijo.

Dan Magestro

No todos están de acuerdo con Davenport. “Realmente depende de quién eres, dónde estás, en qué industria estás y si hay desafíos interesantes”, dijo Magestro del IIA. Señaló a dos empresas del Medio Oeste, que no quiso nombrar, que hablaron con él acerca de la dificultad de convencer al talento para moverse a las ciudades. “Puede que en su conjunto la crisis no sea tan aguda como se había previsto, pero a un nivel más micro y en el ámbito regional, se puede ver algo de esto”, dijo.

Nº 5: La analítica de hoy conserva y gestiona los datos

La preparación de los datos es uno de los mayores sumideros de tiempo para los profesionales de la analítica y los científicos de datos. Pero están surgiendo nuevas herramientas que aplican “la analítica que utilizamos normalmente para analizar los datos y conservar los datos“, dijo Davenport. En lugar de tomar un enfoque centralizado, de arriba hacia abajo, para la gestión de datos, herramientas de la talla de Tamr –donde Davenport es un asesor– Paxata y Trifacta trabajan de abajo hacia arriba, aprovechando el aprendizaje de la máquina para conservar y limpiar los datos. Davenport dijo que las herramientas han florecido en el último año, y que seguirán haciéndolo en 2016.

“Las cosas son demasiado complejas para hacerlo desde la parte superior hacia abajo en una gran organización”, dijo Davenport. “No es raro tener 5.000 fuentes de datos diferentes que se refieren a lo mismo en algunas organizaciones.”

Fuente