Tendencias de la investigación por Joi Ito director de MIT Media Lab

Como director del MIT Media Lab, Joi Ito anticipa algunas de las novedades tecnológicas que veremos en un futuro muy cercano y cambiarán nuestra vida cotidiana: ciudades eficientes y conectadas, casas en las que el mobiliario y los muros se mueven para adaptarse a nuestras necesidades, robots sociales que se relacionan con humanos o medicina a molecular capaz de modificar las neuronas del cerebro.

Ciudades inteligentes

“Tenemos un programa llamado City Science, en el que utilizamos piezas de Lego para crear modelos de ciudades. De esta manera, los usuarios pueden interactuar con ellos y jugar con el diseño. Y proyecta cosas como la evolución del tráfico y el paso de los peatones. De modo que crea una interfaz accesible a la gente”

Cuerpo humanocolab

“Cuanto más entendemos al cuerpo humano, nos damos cuenta de que es un sistema complejo que abarca cómo se trata a las personas en casa, cómo se sienten, la interacción de muchas cosas…”

“Estamos creando una forma de captar imágenes, para poder ver las moléculas, no solo las células, y poder entender cómo funciona de verdad una neurona…”

“Se está creando una tecnología llamada “optogenética”, que permite adherir material fotosensible a las neuronas. Hoy en día, cuando tomas una medicación para una enfermedad mental, afecta a todo el cerebro y provoca todo tipo de efectos secundarios. Se puede utilizar un rayo de luz y actuar solamente sobre las neuronas necesarias”

Agricultura

Agricultura hiper controlada: “Son entornos controlados en los que contrastamos todas las sustancias químicas, los nutrientes, la iluminación, y estamos aprendiendo mucho sobre las plantas. Por ejemplo, podemos hacer que el brócoli crezca cinco veces más rápido. Podemos ajustar el sabor, el valor dietético…”

Redes sociales y política…

“Hay muchas herramientas en desarrollo. Tenemos todos los datos de Twitter. Una de las investigaciones que llevamos a cabo consiste en analizar esos datos para comprender qué es un rumor y qué no lo es. Intentamos identificar los temas que más preocupan a la gente y se lo comunicamos a los periodistas, para mejorar el periodismo. Yo creo que en el futuro existirá lo que nosotros llamamos “La Esfera Pública”: los legisladores, los periodistas, los ciudadanos, los políticos…”

Extacto de entrevista a Joi Ito Director de MIT Media Lab

La ciudad inteligente: visión crítica

La música actual sobre este tema de las ciudades inteligentes suena de esta manera en todos los medios…

Se dice que las Smart Cities o ciudades inteligentes son aquellas ciudades que, utilizando como soporte las tecnologías de la información y de la comunicación (TIC), consiguen convertir a las ciudades en espacios más sostenibles, innovadores y eficientes al servicio del ciudadano, mejorando su gestión, al menos teóricamente. Un modelo de gestión complejo que sabe aprovechar las ventajas de una sociedad hiperconectada, colaborativa  y en desarrollo tecnológico constante.cerebro y tecnologia

Aunque a simple vista parezca algo que solo pudiéramos ver en películas futuristas, las ciudades inteligentes son ya una realidad. Han dejado de ser proyectos piloto para pasar a ser algo tangible. Entre las ciudades más avanzadas en estos temas se encuentra Tokyo.

No obstante, la carrera está aún lejos de llegar a la meta, y todavía quedan muchas cuestiones que pulir para descubrir hasta qué punto seremos capaces de aprovecharlo en el Bien Común.

Si analizamos la situación actual,  más de la mitad de la población mundial habita en ciudades, que se han instaurado como centros de importante actividad económica y social. Según una previsión de la Organización de Naciones Unidas (ONU) en el año 2050, el 70% de la población mundial vivirá en centros urbanos, lo que supondrá un serio problema, si no existe un equilibrio social-laboral  y de convivencia (sin violencia). ¿Esto lo garantiza por si solo la conectividad? Lo dudamos.

Además y reforzando lo anterior,  las ciudades son grandes centros de consumo de recursos siendo responsables del gasto del 75% de la energía mundial y generando el 80% de los gases responsables del efecto invernadero. Países como Estados Unidos, tiene al 80% de la población viviendo en núcleos urbanos. Y en España tampoco nos quedamos atrás, con cerca de un 70% de la población residiendo en áreas de más de 50.000 habitantes; siendo la tercera ciudad Europea en grado de urbanización.

Visión crítica del tema: Control y democracia

Después de unos años en los que la perspectiva dominante ha sido la tecnológica, han ido ganando protagonismo aquellos planteamientos que ponen el foco en el ciudadano como epicentro. Hablamos del paso de un ciudadano-consumidor, que se limitaba a usar la tecnología y convertirse en emisor de datos, a un ciudadano inteligente que hace un uso activo de todas las herramientas que tiene a su alcance. Y que protagoniza su condición de ciudadanía con una tecnología que le permite reapropiarse de la ciudad, de sus espacios públicos, de sus servicios.

En el origen de este debate se sitúa Dan Hill, experto en urbanismo, que afirmaba que “la ciudad inteligente es una idea equivocada presentada del modo equivocado a la gente equivocada”. Según Hill, todo el debate alrededor de las smart cities aún no ha sido capaz de responder a algo tan sencillo como cuál será el impacto que la adopción de las tecnologías por parte de las ciudades tendrá en el día a día de las personas que viven en ellas.

Esta es una de las ideas que The Guardian recogía en un artículo en el que se exponían los peligros que las ciudades inteligentes podrían tener para el futuro de la democracia.

Sensores que permiten un control excesivo sobre la ciudadanía, políticos que toman decisiones amparándose en lo que dicen los datos y que por tanto rehuyen de su responsabilidad, o grandes firmas tecnológicas diseñando las mejores soluciones para las ciudades al margen de sus habitantes, entidades sociales y Gobiernos, serían algunos ejemplos.

Parece obvio que focalizar la visión de futuro de las ciudades alrededor de la eficiencia no es suficiente. Las respuestas a muchas de las demandas ciudadanas se pueden obtener a partir de la tecnología, pero no pueden ser sólo tecnológicas.

Influencia de la pobreza en el proceso cognitivo

Un estudio realizado publicado por el American Journal of Preventive Medicine, señala que la pobreza y las dificultades económicas están fuertemente asociadas con un empeoramiento de la función cognitiva en personas relativamente jóvenes; por lo que podrían ser factores contribuyentes al envejecimiento prematuro en poblaciones más pobres.

Investigaciones previas ya habían señalado que la exposición a condiciones socioeconómicas pobres durante la infancia está asociada a un déficit cognitivo, pues tienen efectos negativos en el desarrollo del cerebro. En consecuencia, los niños que padecen esta condición pueden tener problemas de depresión durante toda su vida y un rendimiento académico más bajo.

Otros estudios sobre población adulta y pobreza, han incluido sobre todo a adultos de edad avanzada, por lo que sus resultados podrían estar relacionados no solo con dicha pobreza, sino también con las consecuencias directas del paso de la tiempo.

La vía de análisis del sueldo de los individuos estudiados también ha sido importante. “El sueldo es dinámico y la mayoría de las personas, especialmente al principio de la edad adulta, sufren muchos cambios salariales”, explica Adina Zeki Al Hazzouri, directora de la investigación y doctora especializada en epidemiología del departamento de Ciencias de la Salud Pública de la Universidad de Miami.

Este estudio incluía a mujeres y hombres de entre 18 y 30 años de edad, y comenzó en 1985 y 1986. En él se recogieron datos de dichas personas seis veces, entre 1985 y 2010; y se definió la “pobreza sostenida” como el porcentaje de tiempo en que los miembros de un hogar habían percibido ingresos inferiores al 200% del nivel de pobreza federal.

Los participantes fueron divididos en cuatro grupos: los que no habían padecido nunca la pobreza; los que sí durante menos de un tercio del tiempo estudiado; de un tercio a casi la totalidad del tiempo; y los que y siempre habían estado de pobreza.

El corte del 200% de pobreza federal para un domicilio con 4 ocupantes estaba en 26.718 dólares en 1990, 28.670 dólares en 1992, 31.138 dólares en 1995, 35.206 dólares en 2000, 39.945 dólares en 2005 y 44.630 dólares en 2010.

 

Del orden al caos con NetLogo

¿Qué es NetLogo?

NetLogo es un entorno programable de modelado  para simular fenómenos naturales y sociales. Es especialmente adecuado para modelar sistemas complejos  que se desarrollan en el tiempo. Los modeladores pueden dar instrucciones a cientos o miles de “agentes” independientes todos operando en paralelo. Esto hace que sea posible explorar la relación entre el nivel micro del comportamiento de los individuos y los patrones a nivel macro que emergen de la interacción de muchos individuos.

Se acaba el debate de neutralidad en la red

Stanford crea una tecnología que puede acabar con el debate sobre la neutralidad de la red |

La nueva tecnología, llamada Cookies Network (Red de Cookies), permitiría a los clientes de banda ancha decidir qué partes de su tráfico de red tiene prioridad de entrega y cuáles serían menos sensibles al paso del tiempo. Un cliente de banda ancha podría entonces decidir que el vídeo de Netflix tenga trato preferente, frente a su correo electrónico, por ejemplo.

El avance podría poner fin al actual debate (si es que alguno se lo creía todavía) sobre la neutralidad de la red y si los proveedores de banda ancha pueden dar prioridad a cierto tráfico,  bloquear o degradar el resto, como afirman los profesores, Nick McKeown y Sachin Katti, y el alumno de la universidad, Yiannis Yiakoumis, que promueven la iniciativa.

ganar-dinero-haciendo-clic-en-publicidad-onlineEsta Network Cookies se describió por primera vez en una conferencia en Brasil del pasado mes de agosto y abriría un nuevo tiempo en el que los operadores de red y los proveedores de contenido web podrían atender las preferencias reales del usuario.

Pero, no está claro si los proveedores de banda ancha apoyarán esta nueva tecnología, ya que al final supone para ellos perder control de red en manos de terceros. Sin embargo, el propio Yiakoumis defiende la utilidad de esta idea para los proveedores de banda ancha. “Los ISP podrán diferenciarse de la competencia y fomentar la participación de sus clientes”, asegura.

Además, los proveedores de banda ancha seguirían controlando su infraestructura, y podrían decidir proporcionar un servicio de baja latencia y otro de más ancho de banda, en función de los casos de uso.

“Sin embargo, los usuarios pueden decidir por sí mismos cómo utilizar estos servicios y con qué tipo de contenidos, lo que es más interesante para los proveedores de Internet. En lugar de adivinar lo que los usuarios quieren pueden dejarles elegir directamente por sí mismos”, resumen los promotores.

Los expertos Stanford ya han probado su propuesta en entornos caseros y, trabajando con Google, ofrecieron a 161 hogares acceso a una aplicación llamada Boost para decidir si dar prioridad a sitios web relacionados con noticias, video, voz, o deportes.

Ver más en

http://www.networkworld.es/telecomunicaciones/stanford-crea-una-tecnologia-que-puede-acabar-con-el-debate-sobre-la-neutralidad-de-la-red

Los microbios ayudan a las plantas a sobrevivir a la sequía

Con California en su quinto año de sequía severa y muchos estados del oeste de EE.UU. experimentando otro año de condiciones inusualmente secas, las plantas están estresadas.

———————————————————————————————————————

Los cultivos agrícolas, pastos y plantas de jardín pueden enfermar y morir cuando factores como la sequía y el exceso de sol les obligan a trabajar más duro para sobrevivir.

Ahora, las plantas pueden tolerar mejor la sequía y otros factores de estrés con la ayuda de microbios naturales, según una investigación de la Universidad de Washington (Seattle, noroeste de EE.UU.). En concreto, las plantas a las que se les da una dosis de microbios permanecen verdes más tiempo y son capaces de soportar condiciones de sequía desarrollando más hojas y raíces y usando menos agua.

“Las plantas están menos estresadas ​​con estos microbios naturales”, dice la autora principal, Sharon Doty, profesora de ciencias ambientales y forestales, en la información de la UW. “Ayudarán a las plantas a afrontar los problemas ambientales…” Los hallazgos se han publicados en línea este mes en la revista Current Plant Biology.

Los microbios y sus beneficios para las plantas son un campo floreciente, y el laboratorio de Doty ha explorado en los últimos 15 años muchos aspectos diferentes de esta simbiosis mutua. A principios de este año, su equipo demostró que los microbios de las plantas les ayudan a crecer en ambientes de lo contrario inhóspitos, sirviendo esencialmente de fertilizante natural.

Proporcionar nutrientes y aumentar la resistencia a la sequía de forma natural podría hacer más fácil y más respetuoso con el medio ambiente el cultivo de cereales y hortalizas, árboles frutales y de nueces, e incluso mantener los campos de golf verdes sin usar cantidades excesivas de agua y fertilizantes químicos.

“Cuanto más aprendo, cuanta más investigación hago en este campo, más emocionante se pone, sobre todo en cuanto a su aplicación”, dice la autora principal Zareen Khan, investigadora en ciencias ambientales y forestales.

Fuente Tendencias 21

Planes de Google para alcanzar supremacía cuántica

No es ningún secreto que Google es, probablemente, la empresa tecnológica más poderosa y avanzada del mundo. En muchos campos, en efecto, su liderazgo en los más modernos sistemas de computación e inteligencia artificial resulta indiscutible. Pero algo nuevo se está cociendo en sus laboratorios de California. Algo que llevará al gigante norteamericano a dominar, aún más, el futuro de la tecnología mundial. Allí, en efecto, Google está construyendo, ya, un dispositivo destinado a inaugurar una nueva era en la computación. Se trata, ni más ni menos, que del primer “ordenador cuántico” plenamente funcional construido hasta ahora. La máquina estaría diseñada expresamente para probar, de una vez por todas, que las propiedades de la materia a nivel subatómico pueden aprovecharse para construir computadores miles de veces más poderosos que los mayores superordenadores de la actualidad.

Según publica la revista New Scientist tras una extensa investigación, la “super máquina de Google” responde a un detallado plan de la compañía para hacerse, de un solo golpe, con la supremacía mundial en el terreno de la computación cuántica. Y no se trata ya de un simple experimento de laboratorio, ni de una visión de futuro sin fecha concreta. El nuevo ordenador cuántico podría estar terminado y funcionando a finales del año que viene.

La idea de la “computación cuántica” viene de muy atrás. En las últimas décadas del pasado siglo, en efecto, los físicos teóricos imaginaron un ordenador basado en los principios de la mecánica cuántica, uno cuya potencia dejara pequeña a la de los mayores superordenadores del mundo. El problema, claro, estaba en cómo construir una cosa así. Ahora, sin embargo, lo que entonces parecía imposible se acerca, poco a poco, a a realidad.

Numerosos equipos de investigadores de todo el mundo trabajan hoy en computación cuántica, entre ellos el español Ignacio Cirac, que dirige el Instituto Max Planck de Óptica Cuántica, en Munich, uno de los laboratorios más avanzados del mundo en esa clase de cuestiones. Y fue el propio Cirac quien, en una entrevista que ABC publicó hace ya más de un año, anunciaba los planes de Google para construir el primer ordenador cuántico de la historia. “El proyecto de Google -decía entonces Cirac- es el de desarrollar las tecnologías necesarias para construir un ordenador cuántico a gran escala. Se trata de un desafío muy grande y el primero que llegue obtendrá enormes beneficios”.

Planes secretos

Según explica New Scientist, “los planes de la firma son secretos, y Google se ha negado a hacer comentarios a esta revista”. Pero todos los investigadores contactados por New Scientist creen, basándose en detalles de múltiples presentaciones, conferencias y reuniones privadas, que la compañía está “a punto de dar un gran salto”. Por ejemplo, hace apenas un mes, los ingenieros de Google publicaron, sin hacer demasiado ruido, un artículo en el que se detallaba una parte de sus planes. Y el objetivo, al que llamaban sin tapujos “supremacía cuántica”, era el de construir el primer ordenador cuántico capaz de llevar a cabo tareas que un ordenador convencional no puede abordar.

Leer más

 

La importancia de la psicología en las decisiones económicas

La teoría económica clásica se sustenta en una idea fundamental: el ser humano toma sus decisiones de forma racional dentro de un mercado que funciona de forma eficiente.

La teoría de la elección racional ( rationalchoice), presente en la disciplina desde Adam Smith hasta Milton Friedman, concibe al individuo como alguien cuyas acciones van dirigidas a maximizar la utilidad y beneficio que pueda sacar de cada situación.

Esta visión de las personas ha sido severamente contestada en las últimas décadas por varios economistas, que han demostrado que los mecanismos de toma de decisiones no son tan fríos como la ortodoxia neoclásica describe.

Richard H. Thaler, considerado el padre de la psicología económica ( behavioral economics), fue de los primeros. “Los modelos económicos se basan en una descripción idealizada y poco realista del comportamiento humano. Yo llamo a estas criaturas ficticias econs, un diminutivo de homo economicus”, explica desde EE UU a CincoDías. “Los econs son tan listos como el más brillante de los economistas, hacen tan buenas predicciones como el mejor econometrista y no sufren ningún problema de autocontrol, dado que siempre escogen lo que es óptimo. Estas criaturas son como el Spock de StarTrek. La gente real, la que yo estudio, se parece más a Homer Simpson, por lo que yo les llamo Homereconomicus”, espeta.

Su tono bromista e irónico le ha valido una merecida popularidad en su país, especialmente a raíz de su cameo en la oscarizada Lagranapuesta, donde, sentado en una mesa de blackjack, explica en dos minutos junto a Selena Gómez la crisis de las hipotecas subprime. Entre los economistas, en cambio, hace décadas que este profesor de la escuela de negocios de la Universidad de Chicago es bien conocido por ser pionero en la economía conductual.

En su nuevo libro, Todo lo que he aprendido con la psicología económica (Deusto), Thaler hace un repaso de cómo ha evolucionado su disciplina en los últimos 46 años. En resumen, ha pasado de ser considerada una sandez a tomarse muy en serio. “Las primeras reacciones de la comunidad científica a mi trabajo eran o bien ignorarlo, o bien buscar todo tipo de excusas para justificar los casos en los que la teoría económica no funcionaba”, recuerda.

Todo cambió con la crisis de octubre de 1987. “La Bolsa cayó un 20% o más en todo el mundo en un solo día en el que, por cierto, no hubo ninguna noticia sobresaliente. No empezó una guerra y no murió líder político alguno: lo único que pasó fue que se derrumbaron los precios. Muchos economistas empezaron a cuestionar sus modelos a partir de ese momento”, apunta. Por supuesto, el estallido de la burbuja tecnológica y la Gran Recesión de 2008 acabaron de evidenciar que algo no funcionaba en la sala de máquinas de la teoría económica.

“Yo no digo que la gente sea irracional”, aclara Thaler, “sino que se comporta de forma muy diferente a la de las predicciones de los modelos económicos. La gente es simplemente humana”, insiste. “La economía no tiene nada parecido a una ley de la gravedad, no hay verdades absolutas”, ilustra el profesor. “La estructura básica de la oferta y la demanda funciona: si hay escasez de un bien y libertad de precios, lo normal es que estos suban. Los problemas llegan cuando se hacen predicciones más precisas, por ejemplo, que la gente ahorrará exactamente lo que necesite para la jubilación. Esa tarea es difícil tanto a nivel conceptual (¿cuánto necesito?) como motivacional (sé que debo ahorrar, pero quiero una televisión nueva)”.

Como Homer economicus que somos, nuestros valores, deseos, miedos, prejuicios y hasta el estado de ánimo condicionan nuestras acciones. Y eso, por supuesto, complica la tarea de los economistas para tratar de explicarlas. Pareto dejó escrito en 1906: “Llegará un día en que podamos deducir las leyes de las ciencias sociales a partir de la psicología”. La política económica, decía, no sería una excepción. Tras más de 40 años de trabajo, el profesor Thaler ha contribuido a demostrar que Pareto no estaba tan equivocado.

Fuente 5 Dias

El hipocampo de los taxistas de Londres

Maguire (investigador) se preguntó ¿igual que cuando ejercitamos un músculo este crece, crecen también las áreas cerebrales que ejercitamos? Y por lo tanto ¿se modifica el cerebro durante toda la vida y no solo en la infancia? Para comprobarlo estudió el cerebro de los taxistas de Londres.

 

Los taxistas de Londres tiene que superar una durísima prueba para obtener la licencia. Se llama The Knowledge y consiste en memorizar 25.000 calles y miles de lugares. El aprendizaje medio es de 3 a 4 años y solo la mitad de los aspirantes aprueba.

En el estudio de 2000, Maguire escaneó el cerebro de los taxistas y demostró que en ellos es mayor el hipocampo posterior. En este nuevo estudio, ha realizado un seguimiento de en grupo de 79 que intentaron superar The Knowledge tomando imágenes con resonancia magnética durante el tiempo de preparación. De ellos solo 39 superaron el examen. Esto proporcionaba a los investigadores tres grupos de estudio: los que lo intentaron y lo consiguieron, los que lo intentaron pero no lo consiguieron y un grupo de control de sujetos que no lo habían intentado. Los resultados mostraron que no había diferencias al principio del aprendizaje pero que tras 4 años, los aspirantes que habían superado la prueba tenían un hipocampo posterior significativamente mayor.

El cerebro cambia constantemente por efecto del entrenamiento y la experiencia y la plasticidad continua toda la vida si bien con menor vigor que en los primeros años. Nunca es tarde para aprender.

Jerome Lejeune, un premio Nóbel que nunca llegó a concederse

Este programa de radio nos informa de la figura de Jerome Lejeune, genetista (padre de la genética moderna), defensor de la vida y de la verdad…

En la empatía… vale más la reflexión que la intuición

El razonamiento sistemático resulta más certero que la intuición a la hora de valorar los sentimientos de los demás, según un estudio reciente.

Ponerse en la piel de los demás, ser sensible, reconocer los sentimientos de alegría, dolor o pena ajenos. En definitiva, ser empático. ¿De qué depende? Según la creencia popular, es una cuestión de intuición más que de reflexión. Un estudio reciente revela, sin embargo, que las personas podemos percibir y entender mejor las emociones de nuestros congéneres, es decir, empatizar con ellos, si pensamos de manera sistemática y sopesamos toda la información que si nos fiamos de nuestra intuición.

«Tener éxito en las relaciones personales y profesionales requiere la capacidad de inferir con precisión los sentimientos de los demás, es decir, de ser empáticamente certeros. Algunas personas son mejores que otras en eso, una diferencia que puede explicarse en parte por el tipo de pensamiento», explica Jennifer Lerner, de la Universidad Harvard y autora principal del estudio. «No obstante, hasta ahora poco se sabía acerca de qué modo de pensamiento, si el intuitivo o el sistemático, ofrece una mayor precisión a la hora de percibir de los sentimientos del otro», señala.

Cuestión de cabeza

Los investigadores evaluaron la empatía de más de 900 participantes a partir de cuatro experimentos. En primer lugar, averiguaron qué capacidad relacionaban los propios probandos con la habilidad de percibir los sentimientos de otra persona: ¿la reflexión o la intuición? La mayoría de los encuestados se decantaron por la intuición.

En una segunda prueba, los experimentadores pidieron a los participantes que mantuvieran, por parejas, una entrevista de trabajo ficticia. Los roles de jefe y de candidato se adjudicaron al azar. Después de la conversación, se pidió a los sujetos que indicasen, mediante un cuestionario, cómo se habían sentido ellos mismos y cómo creían que se había sentido su interlocutor durante la entrevista. Además, evaluaron, a partir de una prueba cognitiva, si los probandos pensaban de manera sistemática o, por el contrario, tendían a confiar en su intuición. En un experimento final, los investigadores examinaron las estrategias de pensamiento de los participantes. También en este caso constataron que los que pensaban de manera reflexiva presentaban una mejor capacidad para comprender los sentimientos de los demás.

Según concluye Lerner, los hallazgos de este estudio resultan de interés para las personas que ocupan puestos directivos, puesto que sugieren que se debe utilizar más la cabeza y menos la intuición para ponerse en la piel de los empleados.

Más información en American Psychological Association

Fuentes: Spektrum.de / Daniela Zeibig y APA

Fuente artículo

Cada vez ganamos menos pero la tecnología…

Si analizamos la historia de los salarios de los trabajadores en Estados Unidos descubriremos, a simple golpe de ojo, que 1973 fue el año que dicho salario alcanzó su máximo nivel, y que a partir de entonces no ha dejado de descender. Casi la mitad de los trabajadores de ese año ganaba lo que hoy equivaldría a 767 dólares a la semana. Actualmente, ese mismo trabajador recibe 664 dólares semanales.

¿A qué se debe este descenso sostenido que ya ha alcanzado el 13%? Básicamente, a la tecnología.

Si bien es cierto que los ingresos medios de las familias no ha descendido de este modo, sino que incluso se ha incrementado, ese aumento se debe a la incorporación de la mujer al mercado laboral. Tal y como explica Martin Ford en El auge de los robots:

…………………………………….

El verdadero problema estriba en el hecho de que la productividad aumenta, pero que los beneficios que supone la innovación de hoy en día benefician más a los empresarios y  a los inversores que a los trabajadores. Añade Ford:

La diferencia más significativa se observa entre los años 2000 y 2009: aunque en este periodo el crecimiento de la productividad fue casi el mismo que durante el periodo 1947-1973 (la edad de oro de los años de posguerra), la compensación se queda muy atrás. Es difícil ver esta gráfica y no tener la impresión de que el crecimiento productivo supera claramente los aumentos salariales de los trabajadores.

Es decir, a la tecnología hay que sumar otro factor al hecho de que cada vez se nos remunere peor: una política que ha hecho dejación de su compromiso de repartir mejor las rentas entre los ciudadanos, lo que finalmente desemboca en mayores desigualdades y menor prosperidad general (incluidos los más ricos).

En 2011, las grandes empresas generaron un promedio de 420.000 dólares de ingresos por empleado, un aumento de más del 11% desde 2007, cuando el promedio había sido de 378.000 dólares. El gasto en nuevas instalaciones y nuevos equipos, incluyendo la tecnología de la información, de las empresas del índice S&P 500, se ha doblado en tan solo un año, haciendo que la inversión de capital como porcentaje de los ingresos haya vuelto a niveles anteriores a la crisis.

Un problema que obviamente no se limita a Estados Unidos: los economistas Loukas Karabarbounis y Brent Neiman, de la Escuela de Negocios de la Universidad de Chicago, han analizado datos de 56 países diferentes, descubriendo que en 38 de ellos se había dado también una caída significativa de la participación de los trabajadores en la renta nacional, y que este desplome se debe a una “mayor eficiencia de los sectores que producen capital que cabe atraibuir a los avances en la informática y en la tecnología de la información”.

Artículo original

Cada vez ganamos menos y la técnología…

Wikipedia revoluciona la predicción de la gripe…

¡Sorprendente! Han recurrido a Wikipedia. Su idea es que la variación en el número de personas que acceden a artículos sobre la gripe es un indicador de la propagación de la enfermedad.

This time last year, the Centers for Disease Control and Prevention in Atlanta launched a competition to find the best way to forecast the characteristics of the 2013-2014 influenza season using data gathered from the internet. Today, Kyle Hickmann from Los Alamos National Laboratories in New Mexico and a few pals reveal the results of their model which used real-time data from Wikipedia to forecast the ground truth data gathered by the CDC that surfaces about two weeks later.

Flu takes between 3,000 and 49,000 lives each year in the U.S. so an accurate forecast can have a significant impact on the way society prepares for the epidemic. The current method of monitoring flu outbreaks is somewhat antiquated. It relies on a voluntary system in which public health officials report the percentage of patients they see each week with influenza-like illnesses. This is defined as the percentage of people with a temperature higher than 100 degrees, a cough and no other explanation other than flu.

Flu takes between 3,000 and 49,000 lives each year in the U.S. so an accurate forecast can have a significant impact on the way society prepares for the epidemic. The current method of monitoring flu outbreaks is somewhat antiquated. It relies on a voluntary system in which public health officials report the percentage of patients they see each week with influenza-like illnesses. This is defined as the percentage of people with a temperature higher than 100 degrees, a cough and no other explanation other than flu.

más información

El “Clic” importa más que la verdad

Una nueva forma de consumo

La creciente prevalencia de esta manera de ver las cosas indica que estamos en mitad de un cambio fundamental en los valores del periodismo: un cambio en la forma de consumo. En lugar de fortalecer los vínculos sociales o crear una sociedad informada, o la idea de que las noticias son un bien cívico, una necesidad democrática, crea grupitos que difunden falsedades instantáneas que encajan con sus ideas, reforzando mutuamente las creencias, haciendo que cada uno se atrinchere aún más en esas opiniones compartidas, en lugar de en hechos comprobados.

Pero el problema es que el modelo de negocio de la mayoría de medios digitales se basa en los clics.

Medios de todo el mundo se han dejado llevar por una fiebre de frenéticos anuncios al por mayor para rascar los céntimos de la publicidad digital. (Y no hay mucha publicidad que conseguir: en el primer cuarto de 2016 el 85% de cada dólar gastado en publicidad online en Estados Unidos fue a Google y Facebook. Eso antes iba a los medios.)

En el flujo de noticias del móvil todas las noticias parecen lo mismo, procedan de una fuente fiable o no. Y, cada vez más, fuentes que por lo demás son fiables también publican noticias falsas, engañosas o deliberadamente indignantes. “La búsqueda del clic manda, así que las redacciones publicarán acríticamente algunas de las peores cosas que corren por ahí, lo cual da legitimidad a la inmundicia —dijo Brooke Binkowski, editora de la desacreditada web Snopes, en una entrevista con el Guardian en abril—. No todas las redacciones son así, pero muchas lo son.”

La nueva medida de valor para demasiados medios es la viralidad, en lugar de la verdad o la calidad

Deberíamos tener cuidado de no desdeñar cualquier cosa con un atractivo titular digital como carnaza: los titulares atractivos son buenos si llevan al lector a un periodismo de calidad, sea serio o no. Creo que lo que distingue el buen periodismo del malo es el trabajo: el periodismo que la gente más valora es aquel que muestra que alguien le ha dedicado mucho tiempo, en el que se percibe que el esfuerzo se ha hecho para el lector, sea sobre asuntos grandes o pequeños, importantes o de entretenimiento. Es lo contrario del churnalism2, el reciclaje infinito de las historias de otros para conseguir clics.

Más sobre el tema

Las nuevas tecnologías cambian nuestro cerebro

No sólo se llevan en los genes aspectos físicos como el color del pelo, de los ojos o de la piel . También nuestra forma de ser, incluso, nuestras ideas están condicionadas por la genética. Pero hay escapatoria: el camino de la libertad está en la educación y el conocimiento de nuestro cerebro. Esta es la tesis que defiende el nuevo libro del neurocientífico David Bueno i Torrens, Cerebroflexia (Plataforma Editorial).

Utilizando el símil de la papiroflexia –el arte de hacer figuras tridimensionales en una hoja de papel-, este profesor e investigador de Genética de la Universidad de Barcelona (UB) explica cómo la biología y el ambiente en el que vivimos cambian nuestro cerebro. Con más de diez libros de divulgación y sesenta artículos científicos especializados publicados, en este nuevo trabajo Bueno asegura que, si nos lo proponemos, podemos modular nuestro órgano rector y también el de nuestros hijos.

¿Las nuevas tecnologías están modificando el cerebro humano?

Sí, lo están cambiando. Los nativos digitales tienen menos conexiones en la zona de gestión de la memoria del cerebro porque parte de esta función la han externalizado hacia los aparatos digitales: ya nadie recuerda el número de teléfono de sus amigos.

¿Qué otros cambios se han detectado en esta nueva generación de humanos?

Estas personas tienen una mayor robustez de conexiones en las zonas de integración del cerebro, lo que permite incorporar muchos datos diferentes en un mismo trabajo. Mientras antes ibas a buscar un libro o dos a la biblioteca, ahora las nuevas tecnologías nos permiten tener veinte páginas abiertas en el ordenador o tableta e ir tomando ideas de todas ellas.

Imagen de un cerebro 

Estos cambios forman parte de la cerebroflexia, ¿qué significa este término?

Imaginemos que cogemos una hoja de papel al azar de una bolsa donde hay otras de diversos tamaños, formas y calidades. Este sería nuestro sustrato genético ineludible -heredado de nuestros padres, un 50% de cada progenitor- que determina qué potencialidades puede tener nuestro cerebro, pero no cuál va a ser el resultado final.

Entonces, ¿qué acaba determinando nuestra manera de ser?

El cerebro se va formando en interacción con el medio ambiente. Un cerebro estimulado -y no sobreestimulado- tendrá más conexiones que el de otra persona que no haya recibido tantos estímulos cuando era niña y adolescente, y sacará más provecho de sus conocimientos, habilidades, actitudes y aptitudes.

¿Estamos sólo al inicio de descubrir qué hay detrás de nuestro órgano rector?

Empezamos a tener buenas ideas sobre aspectos generales de su funcionamiento, pero todavía nos queda mucho camino por recorrer para entender bien cómo funciona.

Uno de los aspectos que da placer al cerebro es la sociedad

David Bueno

Doctor en Biología y profesor e investigador de Genética de la UB

¿Por qué es mentira que sólo usamos el 10% de su capacidad?

Cuando al analizar el cerebro por primera vez con técnicas que permitían teñir las neuronas, se vio que estas ocupan una parte muy pequeña del cerebro –el 10%-, por eso se dijo que había una gran parte que no usamos. Pero el resto del cerebro tiene otras funciones distintas a la transmisión de impulsos nerviosos.

¿Y qué ocurre con el 90% restante?

Hay una serie de células –las de la glía- que alimentan a las neuronas, detoxifican el cerebro, tienen funciones de sistema inmunitario y también construyen unas cubiertas protectoras de los axones de las neuronas –mielina-, que son las prolongaciones que hacen las neuronas para conectarse a distancias muy largas dentro del cerebro.

Por ejemplo, la corteza cerebral tiene muchas más células de la glía que neuronas.

Porque necesita su protección. De hecho, es la zona más activa del cerebro y la que más ha crecido durante la línea evolutiva de los primates. En ella se gestionan las funciones más elaboradas, como la empatía, el lenguaje, el raciocinio, la toma de decisiones y el control ejecutivo.

Más información en el enlace original. Fuente: La Vanguardia

Hacia el ser humano ¿síntético?

El 10 de mayo de 2016, Día de la Madre, una reunión secreta de 150 científicos, abogados y empresarios en la Universidad de Harvard comenzó a considerar la creación de un genoma humano totalmente sintético, un ser humano sin madre ni padre.
Silvia Ribeiro*

La construcción se haría a partir de los químicos esenciales que componen el ADN (citosina, guanina, timina, adenina o C,G,T,A) y computadoras que sintetizan secuencias genéticas usando como “programa” la información de mapas genómicos, muchos de los cuales están en Internet. El proceso no es tan simple como podría parecer, pero los medios técnicos avanzan rápidamente. Los que llamaron a la reunión –que no iba a ser conocida por público ni prensa– afirmaban en su convocatoria que es necesario crear un ambiente de competencia, “un gran desafío”, para captar fondos de inversionistas privados y públicos y acelerar el desarrollo de las tecnologías que harían posible esta construcción.
La reunión se volvió noticia porque uno de los invitados –Drew Endy, profesor de bioingeniería en la Universidad de Stanford y co-fundador de la compañía Gen9 Inc, que construye y vende secuencias genéticas– consideró que el tema era demasiado relevante a toda la sociedad para discutirlo en reunión secreta y con intereses comerciales.

Sintetizar un genoma humano
En la nota que Endy difundió con Laurie Zoloth, profesora de bioética, señalan que originalmente los organizadores proponían discutir “los resultados que se pueden obtener y el involucramiento de la industria”, con una meta primaria de “sintetizar un genoma humano completo en un periodo de 10 años”.Esto se haría con un método similar al que utilizó el equipo de Craig Venter, que un mes atrás anunció la creación completa y funcional, desde cero, del genoma de un bacteria, la más pequeña que pudo usar. Aun así, el proceso le llevó varios años y muchos intentos. (La Jornada, 2/4/16 http://goo.gl/YCRqKJ).
El ritmo del desarrollo de la biología sintética, según sus promotores, se mueve a un ritmo cinco veces mayor que la “Ley de Moore”, básicamente doblando sus capacidades y reduciendo sus costos a la mitad cada cuatro meses. Según explica Endy, el costo de ensamblar sintéticamente material genético bajó de cuatro dólares por par de bases o “letras” del ADN en 2003, a tres centavos de dólar. El precio estimado de sintetizar los 3 mil millones de pares de bases del ADN humano bajó de 12 mil millones a 90 millones de dólares. Si siguiera ese ritmo, el costo se reduciría en unos 20 años a 100 mil dólares. Sin embargo, afirma Endy, esta reducción de costo podría no suceder si no existe una gran demanda.sintetico

Una perspectiva aterradora
La pregunta es ¿qué significa “aumentar la demanda” en este caso? ¿Promover la construcción en serie de genomas humanos sintéticos? ¿Por ejemplo, robots vivos para soldados, sirvientes, trabajadores, repuestos vivientes de órganos, que sean lo más barato posible? La perspectiva es aterradora y tiene tantas implicaciones que hasta es difícil imaginar los escenarios. Pero definitivamente no podemos cerrar los ojos, porque la idea está en marcha.
Endy y Zoloth proponen que este tipo de iniciativa debería ser discutida abiertamente en un amplio debate social que incluya desde los más críticos a sus proponentes, ya que se trata de manipular nuestra propia especie. Pero pese a su disenso, la reunión se realizó y el interés comercial no es poco.

Modificar embriones humanos
Una nota en The New York Times (http:/nyti.ms/24QgY4o) reveló que entre los organizadores está George Church, de la Escuela Médica de Harvard, promotor de la biología sintética, la edición genómica y otras nuevas biotecnologías. Hace unos meses llamó a una “moratoria” en el uso de estas técnicas para modificar embriones humanos, luego de que un equipo de científicos chinos publicara su experimento con la técnica CRISPR/Cas9 en éstos.
Pese a esta aparente actitud supuestamente precautoria, David King, de Human Genetics Alert del Reino Unido, señaló que pedir una moratoria cuando existe la prohibición en 40 países de modificar genéticamente embriones humanos, fue en realidad un retroceso, irónicamente disfrazado de aparente cautela.

La ciencia es decidida por quienes las auspician y financian
Luego de que la reunión en Harvard saliera a la luz –era secreta porque se le pidió a los invitados no mencionar nada sobre su realización o contenido– los organizadores cambiaron la descripción del proyecto. Inicialmente se llamaba HGP2 (Proyecto Genoma Humano 2, por sus siglas en inglés), Proyecto de Síntesis del Genoma Humano, con acento en que no se trata de leer sino escribir el genoma humano. Ahora lo cambiaron a “HGP-Escritura: Prueba de genomas sintéticos grandes en células”.
Coincidentemente, el mismo día de la reunión, la Unión de Científicos Comprometidos con la Sociedad y la Naturaleza en América Latina (UCCSNAL) publicó una carta abierta sobre nuevas biotecnologías donde declaran: “No pedimos para estas tecnologías la aplicación de normas de bioseguridad ni el desarrollo de estrictas evaluaciones de riesgo, sino la suspensión de toda la experimentación en este campo.

Cuestionamos el exagerado rol que se da a ‘la ciencia’ y al sistema científico tecnológico en el proceso de toma de decisiones relacionado con la adopción de nuevas tecnologías, pues sabemos que la investigación científica encarna las mismas relaciones de poder que se dan en la sociedad, y que las principales líneas de investigación son decididas por quienes las auspician y financian.” (http://goo.gl/LHkAaH).

Esta actitud por una “Ciencia Digna”, como la llama UCCSNAL, es esencial ante el rápido desarrollo de estas poderosas tecnologías, así como involucrarnos desde toda la sociedad para impedir que unos pocos y su voracidad de lucro manipulen hasta nuestra propia especie.

*Investigadora del Grupo ETC

Fuente

Tecnología y consumo ¿economía colaborativa?

Muchos se preguntan si se puede llamar a plataformas de este tipo “colaborativas”…

Es evidente que la evolución del homo consumidor y la tecnología permiten negocios, en los que muchos colaboran, pero no nos engañemos, unos pocos salen muy beneficiados.

Hace poco D. José Antonio Lorenzo, Director General de IDC España afirmaba que la economía colaborativa es una de las tendencias tecnológicas más disruptivas que se han vivido en las últimas décadas.

Y lo es no por su innovación técnica (consistente en la mayoría de los casos en una simple aplicación web y móvil) sino por el concepto y el cambio de paradigma que encierra en su interior: que los ciudadanos dejen de ser simples consumidores de bienes y servicios para compartir sus propios recursos con otros usuarios, sin intermediarios ni empresas de por medio, a cambio de dinero.

Una nueva fórmula de actividad que ya mueve un ingente negocio en todo el mundo… y las perspectivas señalan un futuro donde la economía colaborativa seguirá creciendo exponencialmente. En la actualidad, la firma de análisis IDC estima un negocio alrededor de la economía colaborativa en torno a los 15.000 millones de dólares, cifra que se incrementará hasta los 350.000 millones de dólares en apenas cinco años.

Todos los sectores e industrias se están viendo afectados en mayor o menor medida por la nueva economía colaborativa; incluso las mayores empresas nativas digitales se tienen que enfrentar a esta inusitada competencia.

Un claro ejemplo de esta disrupción es Etsy: una plataforma de venta colaborativa online que cuenta con más de 800.000 tiendas, más de 1.400 millones de visitas mensuales y más de 18 millones de productos en venta. Con estas cifras, Etsy y su modelo de negocio basado en la colaboración, es un serio competidor no solo para los retailers tradicionales, sino también para los grandes monstruos del B2C online como Amazon, Jet.com o Ebay.

Foxconn: Deciden reemplazar a 60.000 trabajadores chinos

La revolución robótica ha desembarcado oficialmente en China.

La multinacional taiwanesa Foxconn, el mayor fabricante de móviles del mundo, que ensambla terminales de casi todas las marcas, entre ellas Apple y Samsung, ha decidido reemplazar a 60.000 de sus trabajadores chinos por robots. Las máquinas realizarán las tareas más mecánicas y repetitivas de la cadena de montaje. La empresa ha informado a medios locales y a la BBC de que su centro de producción en la localidad de Kunshan, cercana a Shanghái, seguirá necesitando a seres humanos, pero no ha especificado si los trabajadores reemplazados serán despedidos.

Con esta operación, Foxconn, una empresa que trabaja con gigantes tecnológicos como Acer, Apple, Amazon y Samsung, sustituye al 55% de su plantilla (reduce los empleados de 110.000 a 50.000) en una de sus 13 fábricas distribuidas en nueve ciudades chinas, según informa el diario local South China Morning Post. La firma, que emplea a más de un millón de personas, ha descartado que el proceso de automatización se traduzca en una reducción de la plantilla. “Muchas de las tareas asociadas con nuestras operaciones seguirán automatizándose”, ha revelado la empresa en declaraciones a la BBC, en las que ha subrayado que los robots se encargarán únicamente de los trabajos más repetitivos.

“Cada vez hay más empresas propensas a hacer lo mismo”, ha declarado Xu Yulian, el director de publicidad de la empresa para la zona de Kunshan. La firma sostiene que la segunda fase de esta operación será formar a los empleados para que desarrollen tareas más específicas y complejas. “Mediante la formación permitimos a nuestros empleados centrarse en elementos de mayor valor añadido, como la investigación y desarrollo, el control de procesos de calidad”, informó.

Otras tecnológicas tienen planes parecidos

Kunshan es una de las regiones más importantes de China en cuanto a producción de ordenadores y móviles, donde se hallan unas 4.800 empresas que aportan el 60% del PIB de esta ciudad, y el plan de automatización de Foxconn no ha sido el único del sector. Los diarios locales destacan que otras 600 grandes compañías de la zona tienen planes parecidos. Mientras que en otra región de China, el Guangdong, desde septiembre de 2014, más de 500 firmas han invertido 4.200 millones de yuanes (563 millones de euros) en robots, con el objetivo de sustituir a miles de sus trabajadores.

Y es que las advertencias sobre la pérdida de trabajo causada por los autómatas fueron objeto de debate del último foro de Davos de enero. Entonces los economistas y expertos del Foro Económico Mundial acuñaron el lema de la “cuarta revolución industrial“, para explicar que debido al proceso de automatización peligrarían unos cinco millones de empleos en el mundo de aquí a 2020. Por su parte, la Federación Internacional de Robótica calcula que en los próximos dos años se venderán más de 8.000 robots “ayudantes” o “humanoides” que podrán realizar las tareas cotidianas de la oficina y del hogar…

Fuente: Diario El Pais

Todo lo que pasa en un segundo en internet

¿Sabes todo lo que se cuece en un internet en un solo segundo?

Un estudio llamado Internet Live Stats lo ha calculado, y estas son las cifras.

Cada segundo se realizan más de 54.000 búsquedas en Google, se escriben 7.000 tweets y se envían más de dos millones de emails.

En el mismo espacio de tiempo se suben más de 700 fotos a Instagram, se ven más de 125.000 vídeos en Youtube, y se realizan 2.177 llamadas vías Skype.

Fuente: Internet Live Stats.

1 segundo = 54.000 búsquedas en Google
1 segundo = 7.000 tweets
1 segundo = 2.000.000 emails
1 segundo = 700 fotos en Instagram
1 segundo = 125.000 vídeos Youtube
1 segundo = 2.177 llamadas vía Skype