En una célula de tu piel, está tu cerebro entero

En una sola célula de tu piel está tu cerebro entero, y no es una metáfora. Partiendo de células madre derivadas de la piel, los científicos ya saben generar una especie de bloques de construcción del cerebro humano: se llaman esferoides, y son unas bolitas de un milímetro de radio, cada una con un millón de neuronas dispuestas en las seis capas típicas del córtex cerebral, la sede de nuestra mente. También saben dotar a cada esferoide de una identidad cerebral, yuxtaponerlos y reproducir los complejos procesos de migración de uno a otro que caracterizan el desarrollo fetal, incluida la formación de circuitos funcionales.

Han empezado a cultivar trozos de cerebro humano en una placa de cultivo.

La parte más nueva de nuestro córtex (o corteza) cerebral, la que se ha desarrollado más a lo largo de la evolución de los homínidos, son los lóbulos frontales, justo detrás de la frente. Es allí donde residen nuestras más altas funciones mentales, como el entendimiento, el razonamiento y la creatividad artística. Y es allí donde se centra la investigación de los científicos de las universidades de Stanford, en California, y Harvard, junto a Boston. Los trozos de cerebro que han generado no son cualquier trozo de cerebro, sino justo el que nos hace humanos.

Esferoide significa “algo parecido a una esfera”, y tal vez convenga que nos vayamos acostumbrando a ese término. Lo vamos a leer a menudo en los próximos años y décadas. Una bolita de neuronas de un milímetro, que se puede por tanto ver a simple vista, y que revela al microscopio las mismas estructuras y tipos neuronales que descubrió Cajal, merece al menos un nombre, y esferoide no es tan feo como parece. Los objetivos de estas investigaciones son entender a fondo el desarrollo normal del córtex cerebral humano, y también descubrir los fundamentos de la enfermedad mental. Y los neurocientíficos ya han descubierto con sus esferoides un dato esencial sobre el origen del autismo y la esquizofrenia.

Fuente

Riesgos de la inteligencia artificial

Nick Bostrom, en su reciente libro Superinteligencia, plantea interesantes e inquietantes cuestiones. Desde el análisis calmado de la previsible llegada de la llamada Singularidad (V. Vinge, R. Kurzweil) y las posibles vías de cómo se alcanzará esa explosión de inteligencia hasta el tratamiento riguroso de escenarios para poder controlar dicha explosión, tan inevitable como posible. Está hablando de una superinteligencia artificial. En su última página hace un llamamiento al sentido colectivo común para que las mentes mejor preparadas se pongan en pie para establecer buenas prácticas, ahondar en las implicaciones sociales, económicas y existenciales que provocará esta singularidad, y definir mecanismos de control que garanticen la seguridad futura.

El reclamo no es trivial. De hecho, Elon Musk, tras su lectura, no pudo menos que enviar un mensaje a través de Twitter alertando sobre la necesidad de ser “supercautelosos” con la Inteligencia Artificial que, compara, es potencialmente más peligrosa que las armas nucleares.

Afortunadamente, se han producido hechos recientes que parecen responder la llamada de Bostrom, al menos en el mundo occidental. Fue en octubre de 2016 cuando la Administración Obama emitió el National Artificial Intelligence Research and Development Strategic Plan recomendando la identificación de oportunidades, la coordinación de las iniciativas en investigación y el análisis de la fuerza laboral existente en el campo de la IA para implementar medidas que refuercen el conocimiento y la especialización en el país.

Tres meses más tarde se desarrolló una cumbre de investigadores en Inteligencia Artificial junto a destacados especialistas en economía, derecho, ética y filosofía en Asilomar (California). Organizado por el Instituto Future of Life, emitieron un comunicado que se ha dado en llamar Los Principios de Inteligencia Artificial de Asilomar. Establece pautas para la investigación y resalta aspectos éticos relacionados con la seguridad, responsabilidad, privacidad, libertad o prosperidad compartida, así como alusiones a riesgos derivados de la carrera armamentística y otros tipos de catástrofes derivadas de un mal uso de la IA. Robot-Counsellor-900x540

En febrero de este año se aprobó en el Parlamento Europeo un informe consistente en un conjunto de propuestas relacionadas con la fijación de responsabilidades junto a una alerta sobre las consecuencias para el empleo en Europa debido al uso de la IA. A la vez, propone un código de conducta en la investigación que garantice que la IA cumpla una serie de estándares legales y éticos, respetando la dignidad de las personas. También propone la creación de una Agencia Europea de Robótica e Inteligencia Artificial, similar a la ya creada en EEUU. El año próximo habrá de ser votada esta iniciativa en la Comisión Europea. Finalmente, el mes pasado y ya en nuestro país, se organizó en Barcelona el evento Inteligencia Artificial: Sueños, riesgos y realidad, con presencia de expertos de todo el mundo. El resultado es un manifiesto que pretende sensibilizar a la sociedad de los riesgos y beneficios que supone. Igualmente, propone una serie de principios de transparencia, prudencia, etcétera.

No deja de ser significativo que en el transcurso de muy pocos meses se hayan movilizado iniciativas tanto en EEUU como en Europa para alertar, analizar y emitir recomendaciones alineadas con las tesis de Bostrom. Se trata de una gran noticia y es de esperar que la respuesta sea esa coordinación necesaria -como compleja- entre estados. Tenemos noticias constantes acerca de inversiones importantes en el campo de la IA, procedentes de empresas las tecnológicas que se han adherido a alguna de las iniciativas anteriores. Pero tampoco era de extrañar ya que algunas de ellas financian precisamente dichas iniciativas.

Menos sabemos de las inversiones realizadas por las agencias de Defensa de los distintos países.

Y existen, ya que la IA confiere considerables ventajas en materia de defensa y ataque militar frente a las estrategias y el armamento convencional. La Agencia de Proyectos Avanzados en Defensa americana (DARPA) está licitando y adjudicando importantes contratos para desarrollos en armamento sofisticado, algunos de ellos dotados de IA con capacidad para matar de forma autónoma (es decir, el algoritmo decide). En el otro lado del mundo, el Ejército Popular de Liberación chino está mejorando la precisión en combate en el espacio y en el ciberespacio, aspecto este último en el que Rusia también destaca. Sin duda, el uso de la IA en estos países será bien diferente, dada las culturas tan divergentes que exhiben.

Riesgos de la Inteligencia Artificial . Diario de Sevilla

Robots sustituyen a trabajadores de bajos salarios

El número de robots industriales ha aumentado en todo el mundo desarrollado. En 2013, por ejemplo, se calculaba que había alrededor de 1,2 millones de robots en uso. Esta cantidad ascendió hasta casi 1,5 millones en 2014 y se prevé que llegue a 1,9 millones en 2017.

Japón tiene la cifra más alta, con 306.700, seguido de Norteamérica (237.400), China (182.300), Corea del Sur (175.600) y Alemania (175.200). En total, se espera que el sector de la robótica crezca de los 15.000 millones de dólares actuales hasta los 67.000 millones en 2025.5 Un estudio de RBC Global Asset Management muestra que se han reducido sustancialmente los costes en robótica y automatización.

En el pasado, «los altos costes de la robótica industrial restringían su uso a unos pocos sectores de salarios altos, como el automovilístico. Sin embargo, en los últimos años, los costes medios de los robots se han abaratado y en muchas industrias estratégicas de Asia empiezan a converger el coste de los robots y los costes unitarios de una mano de obra con bajos salarios…

Amazon ha organizado un «concurso de recogida de pedidos» para ver si los robots pueden «coger artículos de un estante y meterlos en un recipiente de manera autónoma». La compañía tiene alrededor de 50.000 personas trabajando en sus almacenes y quiere saber si los robots podrían desempeñar las tareas de seleccionar artículos y transportarlos a distintos puntos del almacén. Durante la competición, un robot de Berlín consiguió realizar satisfactoriamente diez de las doce actividades asignadas…

Para mover artículos en el almacén, la compañía ya utiliza 15.000 robots y se espera que adquiera más en el futuro.

En el sector de la restauración, las empresas están empleando la tecnología para sustituir al personal humano en tareas de entrega.

Así, algunos establecimientos usan tablets que permiten a los clientes hacer sus pedidos directamente a la cocina sin necesidad de un camarero. En otros pueden pagar directamente, eliminando la necesidad de personal de caja. Los hay que incluso indican al chef qué cantidad de un determinado ingrediente quieren en un plato, lo que ahorra costes.

Robots sociales

En el mundo contemporáneo hay muchos robots que realizan funciones complejas. Según una presentación sobre robots, «a principios del siglo xxi asistimos a la primera oleada de robots sociables. Eran mascotas pequeñas y encantadoras, como AIBO, Pleo y Paro. A medida que la robótica ha avanzado, gracias en gran parte al teléfono inteligente, ha nacido una nueva generación de robots sociales, con los humanoides Pepper y Jimmy y el casi humano Jibo  y Sophie, un software robótico de Geppetto Avatars. Robot-Counsellor-900x540

Un factor fundamental de las habilidades sociales de los robots es su capacidad para entender y responder correctamente al discurso humano y a sus contextos subyacentes y emocionales».

Estas máquinas están habilitadas para ser creativas. El antropólogo Eitan Wilf, de la Universidad Hebrea de Jerusalén, nos dice que los robots sociables constituyen «un recurso cultural para negociar problemas de intencionalidad».

Describe un «robot humanoide que improvisa jazz con su marimba», capaz de interpretar un contexto musical y responder creativamente a las improvisaciones de los otros músicos. Sus creadores pueden ponerlo en una banda de jazz, e improvisará con el resto de los músicos sin desentonar. Si alguien estuviera escuchando la música no podría distinguir el intérprete humano del robot…

Fuente BBVA

Bacterias sintéticas superan test deTouring

El test de Turing fue ideado para tratar de distinguir la inteligencia artificial de la de un ser humano. Un equipo de investigadores de la Universidad de Trento, en Italia, han logrado pasar un equivalente a este test, pero entre bacterias. La prueba abre nuevos tratamientos a enfermedades.

Lo que el equipo ha logrado ha sido crear una célula sintética capaz de comunicarse con sus contrapartidas naturales y hacerlas reaccionar como si se tratara de un semejante. Aunque son seres vivos muy simples, engañar a una bacteria tiene más mérito del que parece. Organismos como la E. coli se comunican mediante secreciones de diferentes proteínas.

Las células artificiales creadas para el experimento fueron dotadas de pequeños orgánulos con ADN capaces de secretar sus propias cadenas de proteínas en presencia de otras células. Este mecanismo permite a las células creadas en laboratorio saber cuándo entran en contacto con otras y recibir sus mensajes. El siguiente paso era dotarles de un sistema de comunicación bidireccional. En otras palabras, lograr que se comuniquen con sus equivalentes naturales mediante otras moléculas químicas.

Una vez establecida la comunicación, el objetivo es lograr que la célula artificial pueda generar sus propias cadenas de proteínas más allá de las que les han suministrado sus creadores. ¿Por qué tomarse tantas molestias en desarrollar una célula-robot capaz de comunicarse con otras naturales? El experimento tiene múltiples aplicaciones. En el futuro podría abrir la puerta a tejidos sintéticos que no provoquen rechazo, pero de momento tiene una aplicación más retorcida: boicotear el trabajo de las bacterias.

Los investigadores han comprobado que el trabajo de las células artificiales puede interrumpir la actividad normal de los microorganismos naturales. En algunos escenarios, las falsas bacterias podrían impedir el avance de infecciones impidiendo que las naturales se repliquen o formen una colonia mediante mensajes contradictorios. El futuro de los antibióticos es realmente fascinante

El impuesto a los robots y la renta básica universal

Hemos visto como el fundador de Microsoft defiende que los robots deberían compensar fiscalmente los puestos de trabajo que reemplazan. Gates propone que esa recaudación se destine a los colectivos más vulnerables y a la creación de puestos de trabajo de carácter social.Robot-Counsellor-900x540

“Si usted adopta una máquina que es capaz de realizar las tareas que antes hacía un trabajador, y a través de la financiación y formación correctas poner a esa persona a hacer otras cosas, entonces usted irá un paso por delante. Pero ese empleado pagaba impuestos a los que no puede renunciar, porque ésa es precisamente una de las maneras de financiar esa formación“, señala el fundador de Microsoft.

¿Deben los robots pagar impuestos? ¿En concepto de qué, si no reciben a cambio servicios de salud, educación, pensiones…? Gravar fiscalmente el desarrollo tecnológico para frenar la destrucción de empleo, ¿será beneficioso o perjudicial para la sociedad a largo plazo? Este debate está ahora sobre la mesa, ante la rapidez con la que evoluciona el mundo digital.

El propio Parlamento Europeo estudia una propuesta, conocida como Informe sobre Personas Electrónicas, que pretende que las máquinas inteligentes paguen impuestos y coticen a la Seguridad Social. Esta idea, que cuenta tanto con apoyos incondicionales como con detractores, propone “la creación de un estatuto jurídico específico para los robots, para que al menos los que sean autónomos y más sofisticados tengan la condición de personas electrónicas, con derechos y obligaciones específicas”.tema 5_Neuro-Management

Y hace aproximadamente un año, un grupo de 400 científicos, académicos y otros expertos, entre ellos Stephen Hawking y Elon Musk (fundador de PayPal y Tesla), firmaron una carta en la que reclamaban un desarrollo tecnológico “responsable”, y proponían estudiar si la implantación de una renta universal (de algún tipo) podría contribuir a una transición menos dolorosa hacia la aclamada “era del conocimiento”.

Otros son más críticos con la RBU, ya que para ellos supondrá más dependencia de los trabajadores, más ataduras de la sociedad de un poder benefactor que suministra unas cantidades a cambio de una estabilidad política, y una colonización cultural de los principales actores (instituciones con gran poder financiero y tecnológico) hacia la sociedad en su conjunto.

Algunos también consideran el triunfo sobre el liberalismo capitalista, otros sin embargo estiman que es al revés, al ver un sometimiento de las voluntades mucho mayor. El debate está en la calle. ¿Impuestos a los robots y a estas empresas, implica directamente renta básica universal?

Isaac Asimov en sus novelas no imaginó la 4º ley de la robótica: “pagar impuestos”

M. Faraday : “un niño pobre e inquieto entre libros”

El 22 de septiembre de 1791 nacía Michael Faraday (1791-1867), uno de los científicos más importantes de la historia al que Einstein consideraba el origen de la ciencia moderna.

Faraday nació en Newington Butts (Southwarks), un pueblo en el sur de Londres (al sur del puente de Blackfriars). Los padres de Michael Faraday, James y Margaret, habían emigrado en 1786 desde Westmorland, situada en el noroeste de Inglaterra y una de sus regiones menos pobladas, a Newington Butts; donde nacieron sus hijos Elisabeth (1787), Robert (1788), Michael (1791) y Margaret (1802).

La familia Faraday era muy pobre; el padre trabajó en diversos oficios, encontrando trabajo como herrero en un barrio del oeste de Londres, donde la familia se trasladó a mitad de la década de 1790s. Faraday siempre reconoció que el traslado desde Westmorland a los alrededores de Londres le permitió realizar una carrera científica, lo que hubiese sido imposible en el pueblo de origen de sus padres.

La familia tenía fuertes convicciones religiosas; eran sandemanianos,  no aceptaban el poder de la iglesia anglicana ni estaban de acuerdo con sus doctrinas (eran disidentes, dissenter, frecuentes en la Gran Bretaña de la época). Este hecho marcó la vida de Faraday, pues si no se pertenecía a la iglesia anglicana no se podía ingresar en ciertas instituciones, como las universidades de Oxford o Cambridge. Curiosamente, John Dalton también «sufrió» esta circunstancia, pues era cuáquero, otra secta disidente. Su implicación con los sandemanianos hizo que Faraday no asistiese a actos oficiales, como bodas reales, o se encontrase alejado de algunas instituciones, como algunas sociedades científicas.

En cualquier caso, el ambiente familiar hizo que Faraday sólo pudiera recibir una educación muy elemental y tuvo que trabajar desde la niñez (lo que tampoco era extraño en la época). A la edad de 13 años, Faraday encontró trabajo en una imprenta y librería regentada por el Sr. Ribeau, empezando como repartidor de periódicos y aprendiz de encuadernador. Este trabajo fue una bendición para el joven Michael, pues le permitió leer mucho de lo que encuadernaba o vendía, mostrando especial interés por libros científicos, como la sección de electricidad de la Enciclopedia Británica, o el libro de divulgación Conversations on Chemistry de Jane Marcet (1769-1858) publicado en 1805 de forma anónima.

La cercanía a los libros

Por otro lado, el trabajo como encuadernador le permitió adquirir habilidad manual, que le sirvió para su posterior trabajo científico. Su habilidad y buen gusto a la hora de encuadernar libros fue lo que, en gran medida, le permitió realizar una carrera científica.

El apoyo de Ribeau fue decisivo en la formación de Faraday, permitiéndole realizar experimentos en el sótano de la imprenta. Faraday trabajó para Ribeau hasta octubre de 1812, en que empezó a trabajar como oficial con Henri De La Roche, otro encuadernador, gracias a la ayuda del propio Ribeau.

Por aquella época, el joven Faraday era muy aficionado a asistir a conferencias y sesiones experimentales científicas, especialmente las impartidas por John Tatum (1772-1858), en la City Philosophical Society, institución fundada por Tatum. Faraday tomaba notas detalladas de las conferencias y experimentos y las encuadernaba.

En febrero de 1812, Ribeau enseñó las notas de las conferencias de Tatum, encuadernadas por Faraday a un cliente, William Dance (1755-1840), músico inglés muy importante en su época y uno de los promotores de la fundación de la Royal Institution (RI). Dance quedó impresionado por el trabajo de Faraday y le regaló entradas para asistir a cuatro conferencias que Davy iba a impartir en la RI, empezando el 29 de febrero de 1812. Ese generoso gesto cambió la historia de la ciencia.

Unos meses después de asistir a las conferencias, Faraday solicitó trabajo a Davy como ayudante y aunque éste al principio lo rechazara, lo acabó contratando durante unas semanas en las que Davy estaba convaleciente de un accidente de laboratorio, pues era un arriesgado experimentalista que lo probaba todo, desde inhalar gas de la risa o monóxido de carbono hasta sufrir las consecuencias de explosiones. La tarea que hizo con Davy fue tomar notas de sus experimentos y lecciones.faraday2

En diciembre de 1812, Faraday envió a Davy las notas que tomó de sus clases perfectamente encuadernadas. En este trabajo, Faraday, con una letra perfecta, tomó nota de todo lo que dijo Davy y lo ilustró de manera adecuada. El regalo le debió de gustar a Davy, quien lo contrató permanentemente como ayudante. En 1813, acompañó a Davy en un viaje por Europa. Aunque personalmente la situación no debió de ser buena (Davy era un «clasista» y trataba a Faraday como sirviente), científicamente fue muy fructífera. De regreso a Londres, volvió a trabajar en la RI, siendo nombrado encargado del instrumental científico en 1815, cargo que compatibilizó con el de profesor de la Royal Military Academy (entre 1829 y 1833) y profesor Fullerian de la RI desde 1833. Las aportaciones científicas han sido inmensas, tanto en cantidad, como en calidad e impacto social.

Aún sin educación formal, Faraday alcanzó la máxima cumbre de la ciencia. Lo consiguió con mucho trabajo, interés y entusiasmo; cualidades imprescindibles en un científico. Además, con experimentos cuidadosos, realizó aportaciones científicas espectaculares: leyes de la electroquímica, investigación de compuestos aromáticos (descubrió el benceno y muchos compuestos halogenados), obtuvo oro coloidal nanoestructurado, conviertiéndose así en un pionero de la nanociencia, licuefacción de gases, investigación en electricidad y magnetismo (el padre del electromagnetismo) con aplicaciones prácticas, relación del magnetismo y la óptica, entre muchas otras.

El antecesor de Maxwell en electromagnetismo

Realizó los experimentos en Física que facilitaron el trabajo teórico de Thomson (Kelvin) y Maxwell, entre otros; que condujeron a la teoría del campo electromagnético.

Además, fue uno de los primeros y más grandes divulgadores científicos (en la imagen durante una de las conferencias en la RI).

El ya mencionado Humphry Davy (1778-1829) ha sido uno de los químicos más importantes de la historia. Aunque Davy falleció relativamente joven (a los 50 años, en Suiza, durante un viaje por Europa), sus logros científicos fueron inmensos; sin embargo, él presumía de que su mayor descubrimiento fue el de Michael Faraday.

Software colaborativo

Características Software colaborativo

Los software colaborativos son sistemas de cómputo que permiten a usuarios trabajar en entornos comunes y de forma virtual, en los cuales comparten información y documentos entre si de manera ordenada y controlada. Así mismo permiten a empresas, personal de estas, y en general cualquier persona que tenga acceso estas herramientas, crear entornos de trabajo virtuales, en donde usuarios en diferentes lugares de locales o internacionales, puedan trabajar de manera conjunta a través de Internet.

Existen muchos beneficios entre los cuales se deben nombrar los que han sido de mayor relevancia a nivel general:

  • Ahorro en tiempo, ya que no tiene que desplazarse físicamente una persona hasta una oficina en un lugar específico.
  • Comunicación más estrecha entre los miembros del equipo de trabajo.
  • Mejor control de las actividades de cada miembro del equipo, ya que se tienen evidencias por escrito de las actividades reportes, comentarios, etcétera.
  • Los reportes que ha tenido cada una de las personas participantes, sin necesidad de desplazarse físicamente para reportar lo hecho.

Los software colaborativos son también llamados groupware, el término “groupware” (en español, conjunto de programas informáticos colaborativos) se refiere al uso de métodos y herramientas de software que permiten que los usuarios realicen trabajos colectivos a través de las redes. Por lo tanto groupware hace referencia a las diversas y variadas aplicaciones que contribuyen a una única y misma meta: permitir que usuarios separados geográficamente trabajen en equipo, como se había mencionado con anterioridad.

Las características mas importantes de los software colaborativos o groupware son:

  • Proveer de un ambiente de colaboración, en el que realmente se perciba que el trabajo en grupo se lleva a cabo.
  • Mantener la información en un solo sitio común para todos los miembros.
  • Interactuar con otros usuarios, de forma escrita, voz o vídeo.

Es importante clasificar estos los software colaborativos como de tiempo y espacio. En base al tiempo se clasifican en sincró-nicos y asincrónicos; y en base al espacio, pueden estar en el mismo lugar o en forma distribuida. Las aplicaciones típicas de los sincrónicos (los cuales soportan aplicaciones en tiempo real) son: pizarrones compartidos, tele-conferencias, chat y sistemas de toma de decisiones. Algunos ejemplos de aplicaciones típicas de los software colaborativos asincrónicos son: e-mail, newsgroups, calendarios y sistemas de escritura de colaboración.

Los software colaborativos se están volviendo más populares dentro de las empresas y grupos de trabajo de estudios y toma de decisiones, ya que resulta mejor instalar esta gran herramienta y comprar o implementar un sistema de colaboración, a diferencia que a estar transportando el personal de un lugar a otro.cooperacion

Los software colaborativos deben proporcionar tres funciones esenciales dentro de un grupo, llamadas las tres C’s:

• La Comunicación, es la función más importante, ya que es el medio en que la información es compartida.

• La Colaboración, utilizada para unir la cooperación y resolver problemas de negocios o alguna actividad empresarial, o a nivel de estudios. Proporciona la ventaja de resolver problemas de las reuniones físicas de trabajo entre varias personas: lugar y tiempo para la realización de la misma o la disponibilidad de información.

• La Coordinación, es la acción de asegurar que el equipo está trabajando eficientemente y en conjunto para alcanzar una meta. Esto incluye la distribución de tareas y revisión de su ejecución.
Existen diversas herramientas en los software colaborativos, que se pueden clasificar en:

-Herramientas de comunicación electrónica.
-Herramientas de conferencia.
-Herramientas de gestión colaborativa.
-Herramientas de gestión de proyectos.

Los robots nos harán mejores

La robótica está en proceso de ser tan ubicua como lo son ahora los ordenadores. Junto a la realidad virtual y aumentada, la inteligencia artificial y sus algoritmos, todas estas tecnologías serán pronto tan relevantes, en términos de negocio, pero también de influencia, como lo son ahora Internet y el móvil.

La robótica es en sí misma disruptiva: permite mejorar los trabajos repetitivos y hacerlos con menos errores, con mayor productividad y siempre a un menor coste. Los robots y los algoritmos no solo son la catapulta para la fabricación en masa y personalizada (la famosa Industria 4.0), sino la llave mágica a nuevas profesiones y sectores digitales dentro del consumo, la sanidad, la educación, los servicios y el transporte. Estamos ante una cuarta revolución, pues sobre todo esta nueva realidad proporciona una fuente de trabajo avanzado, un valor diferencial al país, con empleos de muy alta capacitación. Las mejores mentes juegan, programan y construyen ahora en Scratch o Lego MindStorms y sueñan con el Sumobot, y mañana tan solo pensarán en digital y en sus algoritmos y harán mucha robótica, y no necesariamente serán ingenieros industriales, sino biólogos, médicos, arquitectos, profesores y seguro que hasta hombres de ventas y periodistas…

Pues eso: entre los pasados días 2 y 4 de febrero tuvo lugar la segunda entrega de la Global Robot Expo, de potente impacto en los medios internacionales, de la cual fui relevante testigo, en especial en su sección de conferencias, pues tuve el honor de presentar y moderar.Robot-Counsellor-900x540

Allí sucedieron muchas cosas, pero sobre todo tuvimos mentes preclaras en torno a la mesa, entre otros, Arturo Baroncelli, premio Joseph Engelberger de robótica, que nos habló de transformación digital en la industria de la mano de los nuevos robots inteligentes; Jonathan Evans, presidente de la Global UTM Association y líder de la iniciativa mundial para la integración de los vehículos no pilotados en la gestión del tráfico aéreo, la próxima gran ola que hará a los drones volar libres y seguros por nuestros cielos; Bruno Siciliano, líder indiscutible y visionario del control europeo robótico por la Universidad de Nápoles; Rich Walker, autor de la mano robótica más versátil del mercado, asombrosa por su humanidad; Sethu Vijayakumar, comunicador incansable sobre la autonomía inteligente; Alberto Sanfeliu, gurú del emprendimiento europeo en robótica; Jens Kober, visionario de los algoritmos inteligentes (que aprenden), aplicados a la robótica y a la movilidad, que nos explicó de una manera profundamente didáctica qué se puede hacer y qué no; Lucas Krauel, oncólogo y pediatra que nos emocionó con la impresión 3D aplicada a la cirugía, y Clemens Muller, Shingo Shimoda, Juan C. Moreno y Yoshiyuki Sankai, que nos dieron una lección magistral de los nuevos exoesqueletos que revolucionarán las terapias, pues aprenden y nos asisten mientras recuperamos nuestros movimientos, a lo que próximamente dedicaremos un post propio…

Leer más de este artículo

Guerra de pantentes en genómica

Las empresas se pelean por la patente de la tecnología que permite modificar el genoma de un organismo. Potencialmente muchísimo poder y dinero hay detrás de estas pantentes.

crispr

En la lucha legal por las patentes de la tecnología CRISPR, el instituto Broad acaba de ganar una importante batalla. Pero quizás, no la guerra.

La Universidad de California Berkeley y el Instituto Broad, fundación dedicada a la investigación vinculada a la Universidad de Harvard y al Instituto de Tecnología de Massachussets, llevan años luchando por la propiedad de las patentes asociadas al sistema CRISPR de edición del genoma.

El equipo de la Universidad de California Berkeley dirigido por Jennifer Doudna y Emmanuelle Charpentier (en la actualidad en el Max Planck Institute for Infection Biology) fue el primero en intuir el potencial del mecanismo de defensa bacteriano CRISPR para modificar el genoma de un organismo. También fue el primero en solicitar patentes sobre la tecnología, en marzo de 2012, relativas a la edición del genoma, en general, sin precisar un sistema concreto.

Poco después,  el laboratorio de Feng Zhang del Instituto Broad, publicaba el primer trabajo en el que se utilizaba el sistema CRISPR-Cas9 para modificar el genoma en células eucariotas y presentaba su solicitud de patente, que ya incluía la mención a la edición del genoma en células eucariotas y su posible explotación. La solicitud del Instituto Broad pasó una revisión acelerada y obtuvo la primera patente relacionada con el sistema CRISPR en 2014.secuenciacion-genoma-humano

Desde entonces, ambas instituciones han mantenido la lucha legal a través de reclamaciones y solicitudes de reexaminación del proceso.  En la última, la Universidad de California Berkeley reclamó que las patentes del instituto Broad (trece hasta la fecha) interferían con la suya propia, y estaban dirigidas a la misma invención incluida en la patente que Doudna y Charpentier habían solicitado meses antes que Zhang. El pasado diciembre un comité de la Oficina de Patentes y Marcas de los EE.UU. escuchó los argumentos de ambas instituciones para defender sus demandas de patente.

La Universidad de California Berkeley señaló que la invención clave fue utilizar un mecanismo de defensa bacteriano existente en la naturaleza y adaptarlo para crear un sistema fácil y barato de modificar el genoma de una célula. “La publicación de Doudna y Charpentier en Science en 2012 trajo un nuevo nivel de conocimiento de la edición del genoma a la comunidad científica al completo, ya que mostró exactamente qué tres elementos son necesarios para editar el genoma en un tubo o en cualquier organismo,” señala Gary Ruvkun, biólogo molecular en el Hospital General de Massachusetts y profesor en la Universidad de Harvard. “El artículo de Doudna y Charpentier de Science fue la verdadera lanzadera de la reprogramación de CRISPR para la edición de cualquier genoma.”

La economía colaborativa a examen

El Comité Económico y Social Europeo critica la Agenda elaborada por la Comisión para regular a este sector..

Economía colaborativa y plataformas digitales

El CESE destaca que la economía colaborativa engloba diferentes modalidades con aportaciones y retos específicos. Por ejemplo, «la economía del acceso» pone en el mercado propiedades infrautilizadas, creando mayor oferta para los consumidores y un uso más eficiente de los recursos, pero conlleva el riesgo de estimular la producción global a través del efecto rebote.

En la «economía bajo demanda» se atomiza la fuerza de trabajo creando más flexibilidad, pero aumentando el riesgo de precarización laboral. Y la gift economy, o economía «del regalo» en que se comparten bienes y servicios de manera altruista, permite el fortalecimiento de las comunidades, pero se mantiene a  menudo invisible a los ojos de las Administraciones.

Asimismo, señala que las plataformas digitales, en particular las que sostienen una actividad lucrativa, merecen toda la atención de la Comisión Europea, a fin de regular y armonizar su actividad y garantizar un level playing field, sobre la base de la transparencia, la información, el pleno acceso, la no discriminación y la explotación adecuada de datos. ganar-dinero-haciendo-clic-en-publicidad-online
En concreto, resulta imperativo redefinir el concepto de subordinación jurídica de cara a la dependencia económica de los trabajadores y garantizar los derechos laborales con independencia de los formatos que adopte la actividad.

Desde esta perspectiva, el valor de la confianza -desde la simetría informativa- ocupa un espacio central. También se deben reforzar los criterios de transparencia, honestidad y objetividad en la evaluación del producto o servicio, superando el mero uso automático de algoritmos.

El CESE recomienda  asimismo la creación de una agencia independiente de calificación europea de las plataformas digitales, con competencias armonizadas en todos los Estados miembros, que pueda evaluar su gobernanza en materia de competencia, empleo y fiscalidad.

Todo un reto.

Una regresión matemática, contra el cancer…

Dos matemáticos, el británico David Cox (Universidad de Oxford) y el estadounidense Bradley Efron (Universidad de Stanford), han sido galardonados con un premio en Ciencias Básicas por desarrollar herramientas estadísticas para obtener resultados fiables en diferentes áreas del conocimiento. Al agradecer el premio, por videoconferencia en una rueda de prensa celebrada en Madrid, ambos han destacado también la aplicación de sus trabajos en la medicina, en ensayos clínicos contra el cáncer o el sida. cox

La contribución de Cox, la llamada “regresión de Cox”, es una herramienta que permite explicar la duración de un intervalo temporal entre dos eventos de interés, que depende de factores identificables y no del mero azar (como la mortalidad de un grupo de personas por una determinada enfermedad), para construir modelos predictivos. La regresión de Cox se ha utilizado, por ejemplo, para calcular el tiempo para la aparición de un cáncer de pulmón en algunas personas según el número de cigarrillos que fumaban al día. “Me sorprende y me encanta saber que mi trabajo tiene ese tipo de aplicación, sobre todo porque creo que debería ser una prioridad para la ciencia que la gente entendiera más de estadística. Mucha gente es escéptica con los números”, comenta el matemático.

La herramienta de Efron, llamada bootstrap (literalmente, lengüeta de bota), es “engañosamente simple”, según el acta del jurado: consiste en un método para determinar el margen de error de una medida, un dato esencial en la ciencia, porque sin él el resultado carece de valor. Hasta entonces la determinación del margen de error se llevaba a cabo mediante aproximaciones matemáticas que, según Efron, podrían ser muy complejas y no siempre acertaban. Lo que hizo el matemático con el bootstrap fue delegar el trabajo de pensar a un ordenador. “Diseñas un algoritmo y la máquina obedece a él para llegar a resultados más objetivos”, explica Efron.

La herramienta desarrollada por el estadounidense parecía tan sencilla que fue recibida con desconfianza cuando la presentó a la comunidad científica, en 1979. El mismo David Cox, que conoció a Efron cuando este viajó al Reino Unido para un año sabático en 1982, se mostró escéptico al principio: “Me parecía que, como científico, aquello era hacer trampa, pero luego Brad me convenció”, recuerda Cox. Desde entonces, los dos han colaborado en sus respectivas investigaciones estadísticas. Trevor Hastie, matemático catedrático de la Universidad de Stanford y miembro del jurado, señala que Cox y Efron “son los dos estadísticos vivos más influyentes” y que han revolucionado el campo.

Ambos matemáticos opinan que no solo sus métodos, sino la estadística en general, seguirá siendo una pieza clave en el desarrollo científico de los próximos años, sobre todo en el área del Big Data. Efron apuesta especialmente por lo que llama data science, la construcción de bases de datos médicos masivos. “Eso nos permitirá analizar a fondo toda la información sobre una enfermedad, por ejemplo, para desarrollar tratamientos más eficaces”, concluye el científico.

Fuente: El País

Proteínas de las anémonas cooperan para atacar a sus presas

El veneno de las anémonas de mar está formado, en gran parte, por unas proteínas llamadas actinoporinas, que atacan a otros organismos creando poros en sus membranas celulares. Una investigación realizada en la Universidad Complutense de Madrid ha descubierto que, en este animal marino, la unión y la diversidad hacen la fuerza, ya que las proteínas y los genes que las originan trabajan de manera conjunta para dosificar el veneno.

Las anémonas de mar son unos animales marinos que viven anclados a la arena y a las rocas. Para defenderse de los predadores y atrapar a sus presas utilizan un veneno muy potente, donde las actinoporinas juegan un papel esencial. Estas proteínas dañan a otros organismos creando poros en las membranas de sus células, lo que desencadena un proceso inflamatorio que, en el caso de presas de pequeño tamaño, es mortal.

“Conocer su mecanismo de acción puede ayudar a fabricar antídotos. Nuestra línea de investigación consiste en saber cómo funcionan estas toxinas para utilizarlas en nuestro beneficio”, explica Álvaro Martínez del Pozo, catedrático de Bioquímica y Biología Molecular de la Universidad Complutense de Madrid (UCM) y miembro del grupo de investigación Proteínas Tóxicas.

Proteinas-de-las-anemonas-de-mar-cooperan-para-atacar-a-sus-presas_image_380

En un estudio publicado en The Journal of Biological Chemistry, el equipo de la UCM ha descubierto nuevas pistas sobre su comportamiento. Mediante ensayos en laboratorio con dos de estas proteínas –Stnl y Stnll–, los investigadores han demostrado que cantidades mínimas de una actinoporina modulan la potencia de la otra.

Modelo matemático y lucha contra el cancer

Dentro de las actividades de la nueva línea de investigación sobre ‘dinámica y física del cáncer’, que el Grupo de Dinámica No Lineal, Teoría del Caos y Sistemas Complejos de la Universidad Rey Juan Carlos (URJC) (España) viene desarrollando, se ha conseguido validar un modelo formado por tres poblaciones celulares: cancerígenas, sanas y efectoras de la respuesta inmunitaria.

Entre otras, se ha logrado generalizar la ley de dePillis-Radunskaya-Wiseman, que rige la respuesta inmunitaria celular. Los resultados de estas investigaciones han sido recientemente publicados en el Bulletin of Mathematical Biology. Los avances en las técnicas de inmunoterapia contra el cáncer también fueron, para la revista Science, el mayor hito científico del 2013.

Los nuevos tratamientos pretenden reforzar el sistema defensivo frente a las células cancerígenas. La ley de dePillis-Radunskaya-Wiseman básicamente establece la velocidad con la que el sistema inmune destruye un tumor. Cuando una célula inmunitaria reconoce a una célula cancerígena, procede a inducir su muerte o apoptosis mediante la perforación de su membrana y la introducción de unas proteínas. Ello implica que, aún cuando las células efectoras sean muy eficaces, la geometría del tumor tiene importancia.

blood cells and viruses (Newscom TagID: ipurestockx098796) [Photo via Newscom]

Llegado un punto, no importa cuántas células efectoras de más haya, dado que al no estar en contacto, apenas influye. Esto hace que la función que rige la tasa de destrucción de las células cancerígenas sature, alcanzando un valor máximo. El cómo se alcance ese valor máximo dependerá también del tamaño del tumor. Pero cuando las células efectoras son ineficaces en la destrucción del tumor, no se observa saturación en la práctica, lo cual puede probarse matemáticamente.En los casos intermedios, la ley que mejor representa la destrucción de las células cancerígenas contiene aspectos de los dos casos extremos. El análisis del modelo matemático en el marco de la dinámica no lineal permite hacer algunas predicciones, como por ejemplo una estimación del nivel de estimulación de las células efectoras para destruir plenamente el tumor.

Se espera que el nuevo modelo desarrollado sirva de fundamento para el desarrollo de modelos más complejos. De hecho, en la actualidad se están desarrollando modelos híbridos de autómatas celulares para mostrar que todas las hipótesis planteadas en el artículo publicado por los investigadores de la URJC en relación con esa ley son suficientes para explicarla, aunque podría haber otras.

(Fuente: Universidad Rey Juan Carlos)

El tejido cerebral ¿sigue creciendo?

Nacemos con un exceso de conexiones neuronales. Durante el desarrollo infantil, el cerebro pone en marcha un proceso de poda cerebral en el que se va despojando lentamente de ellas hasta que la estructura del cerebro se vuelve relativamente estable. Desde el nacimiento a nuestra muerte el cerebro camina en una única dirección, de demasiado tejido a lo justo e imprescindible.

Pero una nueva investigación pone en duda esta verdad asentada para la Neurociencia. El tejido cerebral sigue creciendo (a un nivel microscópico) en la edad adulta, al menos una zona, la encargada del reconocimiento facial.

Este crecimiento favorece que los mayores tengan más capacidad para reconocer los rostros que los niños. Sin embargo, mientras aumenta la zona que ayuda a reconocer las caras de otras personas, permanece estable el área encargada de reconocer lugares y paisajes. Los resultados de la Universidad de Stanford se publican en la revista «Science» tras comparar resonancias magnéticas de 22 niños y 25 adultos. Lo que mostraban las imágenes de los cerebros de las personas vivas se confirmaron posteriormente con análisis post mortem de adultos fallecidos. Esta última prueba mostró diferencias visibles en la estructura celular más profunda, entre las regiones encargadas de identificar lugares y rostros.

«Realmente vimos que el tejido proliferaba», dijo Jesse Gómez autor principal de la investigación. «Habíamos asumido una visión pesimista del cerebro, en la que el tejido se pierde lentamente a medida que envejecemos, pero hemos visto lo contrario: lo que queda después de la poda en la infancia se puede usar para crecer».

 

El debate sobre la revolución digital en la Casa Blanca

Con este informe se asume el impacto de las políticas económicas respecto a las nuevas tecnologías y sus consecuencias en el mundo del trabajo…

La llegada de los robots y la aplicación de la inteligencia artificial a la automatización de tareas van a protagonizar una revolución sin precedentes en la economía mundial que costará millones de empleos en las próximas décadas, ampliará las desigualdades sociales y generará enormes capas de población parada y empobrecida, si los gobiernos no actúan interviniendo directamente en el mercado para remediarlo.

No se trata del argumento apocalíptico de una novela de ciencia ficción de Philip K. Dick, sino de las conclusiones de un informe publicado esta semana por la Casa Blanca sobre ‘Inteligencia Artificial, Automatización y Economía’, en el que la administración Obama traza una hoja de ruta para afrontar esta posible crisis, basada principalmente en el incremento del gasto público, algo que choca con las intenciones del gabinete entrante de Donald Trump de recortar la factura federal.1446713923_969704_1446720326_noticia_normal

Esta preocupación de EEUU por la futura revolución tecnológica viene de antes de las elecciones del 8-N. En octubre, salía del Despacho Oval el estudio ‘Preparándose para el Futuro de la Inteligencia Artificial’, en el que se recomendaba elaborar para finales de este año un análisis sobre los impactos que estos nuevos desarrollos tendrán sobre la sociedad. El documento resultante, de 50 páginas, ha sido redactado por la Oficina Ejecutiva del Presidente, contando con el apoyo de órganos como el Council of Economic Advisers, la Oficina de Política de Ciencia y Tecnología o los departamentos de presupuesto y de política interior.

El trabajo dibuja un horizonte preocupante para aquellas profesiones poco remuneradas o que, como conductores o cajeros -que se citan expresamente-, requieren de una baja cualificación, y que probablemente dejarán de ser tareas de humanos. Pero a diferencia de lo ocurrido en otras revoluciones industriales, los expertos ponen en duda que se vayan a generar otro tipo de ocupaciones en cantidad o ritmo suficientes como para asimilar la destrucción de empleo, por lo que alerta de que “millones de americanos” verán modificado su modo de vida.

Pese a estas perspectiva, el informe destaca que la inteligencia artificial reportará beneficios económicos como el aumento de la productividad en las empresas, gracias a la automatización de algunas tareas que requieren mucha mano de obra. El desarrollo de esta tecnología arrancó en 2010 y, desde entonces, estos avances han hecho la economía más eficiente. Así, la Casa Blanca cita un estudio de 2015 de George Graetz y Guy Michaels realizado en 17 países, que concluyó que los robots ayudaron a incrementar la riqueza de los países en un 0,4% entre 1993 y 2007. Y va a más. Otro reciente análisis de Paul Daugherty y Mark Purdy sobre 12 economías desarrolladas del mundo -incluida la de EEUU- sostiene que la inteligencia artificial brinda el potencial para doblar el crecimiento económico anual en estos países para 2035.

Las esperanzas puestas en estas nuevas herramientas son tales que en el World Economic Fórum se llegó a calificarlas como “cuarta revolución industrial”, mientras que el economista Andrew McAfee las comparó con la máquina de vapor. “Las tecnologías digitales están haciendo por el poder cerebral lo que el vapor hizo por la fuerza física”, dijo antes de reconocer que el futuro, en este caso, es más “incierto”.

El hambre de los pueblos puede afectar a varias generaciones

El estudio analiza los efectos de los tres años de hambre vividos en China, en los que entre 15 y 36 millones de personas murieron como consecuencia de la falta de alimentos.

Un estudio realizado por la Universidad de Brown (EEUU) y la Universidad Harbin de China ha revelado que ciertos cambios metabólicos vinculados a la exposición al hambre durante la gestación pueden trascender generaciones. La investigación fue realizada con personas que habían sido gestadas en China entre los años 1959 y 1961, un periodo en el que entre 15 y 36 millones de personas murieron como consecuencia del hambre, y con sus descendientes.

Fuente: Pixabay.
Entre los años 1959 y 1961, China vivió unos años que se caracterizaron por una hambruna generalizada. Se calcula que esta hambruna provocó la muerte de entre 15 y 36 millones de personas.

Este periodo se había asociado, además, con un aumento del riesgo de hiperglucemia entre las personas gestadas durante esos años.

Ahora, un nuevo estudio realizado por investigadores de la Universidad de Brown (EEUU) y de la Universidad de Harbin de China ha revelado que este aumento del riesgo de hiperglucemia asociado con la exposición prenatal a la hambruna también se transmite a la próxima generación, aunque esta ya no haya padecido el hambre. La hiperglucemia es un nivel alto de glucosa en sangre y un signo común de diabetes.

La investigación, publicada en el American Journal of Clinical Nutrition, fue realizada con más de 3.000 residentes locales y sus hijos.  Todos ellos fueron entrevistados y a todos se les tomaron muestras de sangre en 2012, con el fin de poder hacer comparaciones bien controladas y multigeneracionales de los efectos de la exposición al hambre en el útero.

Lo que los científicos pretendían era determinar, a partir de todos estos datos, cómo afectan los factores nutricionales y las interacciones genéticas que se producen debido a las hambrunas en múltiples generaciones.

Porcentajes en la primera generación

Descubrieron lo siguiente: Entre los 983 participantes en el estudio gestados durante los años de hambruna, el 31,2% tenía hiperglucemia y el 11,2% tenía diabetes tipo 2. En comparación, entre 1.085 personas gestadas justo después de la hambruna, la prevalencia de hiperglucemia fue del 16.9% y la prevalencia de diabetes tipo 2 del 5%.

Controlando factores como el género, el tabaquismo, la actividad física, el consumo de calorías y el índice de masa corporal, los investigadores calcularon que la exposición al hambre en el útero estaba asociada con una probabilidad 1,93 veces mayor de hiperglucemia y una probabilidad 1,75 veces mayor de diabetes tipo 2.

Siguiente generación

Pero el efecto de las hambrunas no se quedó aquí, pues la investigación reveló que la exposición al hambre en el útero también había afectado a la siguiente generación, aunque esta no había padecido ya la hambruna.

Así, se constató que esta generación también presentaba un riesgo significativo de hiperglucemia cuando ambos progenitores habían estado expuestos al hambre. En general, en la segunda generación, la prevalencia de hiperglucemia fue del 5,7% para 332 personas sin padres expuestos a hambrunas, del 10% para 251 personas con padres expuestos a la hambruna, del 10,6% para 263 personas con madres expuestas a hambrunas y del 11,3% para las 337 personas cuyos dos progenitores habían estados expuestos al hambre.

Ajustando para todos los participantes los mismos factores de estilo de vida antes contemplados, la descendencia de dos progenitores expuestos a la hambruna presentaba 2,02 veces más de probabilidades de hiperglucemia que las personas sin padres expuestos a la hambruna.

Las probabilidades de hiperglucemia por exposición a la hambruna de un solo progenitor también eran sustancialmente elevadas, aunque no estadísticamente significativas. Las diferencias en las probabilidades de diabetes tipo 2 no fueron estadísticamente significativas en la segunda generación en ninguno de los casos.

Implicaciones

Debido a que el presente estudio sólo muestra una asociación entre los cambios metabólicos y la exposición al hambre en el útero, no ha podido probar la causalidad o el mecanismo biológico subyacente a este efecto.

Sin embargo, sus resultados encajan con los de investigaciones previas sobre los efectos de la hambruna en humanos y en animales de laboratorio, y que ya habían sugerido que la hambruna realmente causa tales riesgos para la salud, afirman los autores del estudio.

Por ejemplo, un estudio previo con ratones ya había mostrado un efecto multigeneracional de la hambruna sobre el metabolismo, y otros estudios sobre la exposición al hambre en personas ya habían producido evidencias de cambios en los sistemas endocrinos y en la expresión génica, explican los autores del estudio en un comunicado de la Universidad de Brown.

Las conclusiones de todos estos trabajos tendrían implicaciones no sólo para la mejora de la comprensión biológica de los mecanismos, sino también para las intervenciones clínicas y de salud pública.

Fuente: Tendencias21

Trabajo y cambio tecnológico a debate

Un estudio prevé que los cambios tecnológicos a los que se asisten en la actualidad generen mayores dificultades de inserción al mundo del trabajo de jóvenes no cualificados…

cambio-tecnologico-mercado-laboral-donde-han-L-GAwxDz

La Universidad Católica (Montevideo-Urugay) elaboró para las jornadas del “Diálogo Social” cómo preparar al mundo laboral para que afronte el impacto de los acelerados cambios tecnológicos y económicos.

El estudio indicó que algunos aspectos más evidentes de esos cambios son el impacto de las tecnologías de la comunicación, la revolución de Internet, la generación permanente de aplicaciones para móviles que afectan empresas y el mercado laboral o la digitalización y robotización tanto industrial como de servicios. También se señaló a la irrupción de las energías renovables y del transporte eléctrico, la digitalización monetaria y financiera o la realidad virtual.

En ese escenario, el estudio de la Universidad Católica enumeró algunas de las consecuencias de la aceleración de la innovación en la realidad laboral. En primer lugar destacó a la creación permanente de nuevas formas de empleo, que requieren nuevos conocimientos y nuevas competencias laborales.

El estudio expresó en ese sentido que “un puesto de trabajo —si permanece— puede sufrir transformaciones importantes en costos lapsos de tiempo”, ya que “el trabajador está sujeto a procesos de cambios y aprendizajes permanentes”. Además, como otra consecuencia mencionó que “la destrucción constante y creciente de empleos asociados a competencias laborales y formas de empleo que perimen lleva a la desvinculación de importantes grupos de trabajadores”.

Además, sostuvo que los empleos que requieren menores calificaciones y competencias pierden importancia relativa dificultando en forma creciente la inserción laboral de jóvenes de sectores sociales desfavorecidos que emerjan con menor capacitación.

La Católica expresó que en ese contexto se puede prever que los próximos años serán escenario de crecientes dificultades para la inserción laboral de jóvenes no calificados; la reconversión de trabajadores desvinculados de las empresas; que las empresas —tanto públicas como privadas— obtengan la fuerza de trabajo que necesitan y recreen relaciones laborales estables y reducir la importancia y frecuencia de los conflictos laborales.

Por ese motivo, manifestó que “esta realidad tiene que ser asumida —pero no exclusivamente— en el ámbito de las relaciones laborales. Los desafíos que afronta el mundo de la producción y de las empresas —sean públicas o privados, con fines de lucro o no— requieren importantes acuerdos entre los actores implicados (trabajadores, empresas y el Estado)”.

La propuesta indicó entonces la necesidad de identificar líneas de acción que ayuden a preparar a los actores empresariales y laborales a enfrentar en forma conjunta los desafíos generados por la creciente innovación tecnológica y los cambios económicos sobre el empleo y las condiciones laborales.

Los algoritmos nos facilitan la vida: así funcionan

Se ha dicho que vivimos en “la civilización de los algoritmos”; estos se han convertido en el “carbono” de la sociedad moderna. Los que trabajamos con datos los utilizamos constantemente: cada uno de nosotros tiene una “biblioteca particular de ellos y según el problema al que se enfrenta usa uno u otro. Otras veces probamos varios y nos quedamos con el que mejor funciona.

Los algoritmos resuelven problemas muy habituales en las compañías como medir la propensión de compra de productos, proponer recomendaciones de contenidos, anticipar el volumen de ventas futuro o segmentar a los clientes para diseñar productos diferenciados.

Pero no hace falta ser científico de datos para consumir algoritmos. Cuando buscamos algo en Internet, compramos un billete de avión, traducimos un texto o utilizamos el navegador del coche estamos aprovechándonos de la labor de muchos de ellos: los algoritmos nos hacen la vida más fácil.

Con la irrupción de big data ha llegado también la computación de datos en paralelo. Ahora es factible procesar grandes cantidades de datos y esto ha puesto de moda nuevas técnicas. Un ejemplo es el deep learning, que engloba un conjunto de algoritmos conocidos como redes neuronales, que imitan la forma de pensar del ser humano y que han demostrado ser prácticamente imbatibles en problemas de reconocimiento de imágenes.

Un algoritmo es una rutina: una lista de instrucciones del tipo “haga primero esto y luego esto otro”. A los ordenadores se les da muy bien seguir instrucciones sin salirse de un camino marcado, por eso se llevan bien con los algoritmos.

Para entender mejor qué son los algoritmos y algunos conceptos alrededor de ellos, vamos a analizar uno de los más famosos de la historia: el algoritmo de Euclides para calcular el máximo común divisor (mcd) de dos números enteros, es decir, el mayor número por el que ambos son divisibles. Por ejemplo, el máximo común divisor de 84 y 18 es 6.

El máximo común divisor se enseña a calcular mediante la descomposición en factores primos. Por ejemplo, los factores primos de 84 son 22, 3 y 7 y los factores primos de 18 son 2 y 32. Ahora es cuando aplicamos lo de escoger los factores comunes elevados al menor exponente. Ambas descomposiciones tienen 2 y 3 como factor común y esos son los menores exponentes (por ejemplo, 22 es solo factor de 84). Así pues, el máximo común divisor de 84 y 18 es el producto de estos números, es decir mcd (84, 18)=2×3=6.

Cuando los números son muy grandes, factorizarlos en números primos puede resultar prácticamente imposible. Hoy en día no existe de hecho ningún algoritmo eficiente que lo haga, pero hay una manera muy eficiente y hermosa de calcular el mcd de dos números sin necesidad de factorizarlos: la descubrió Euclides 300 años antes de Cristo. Euclides publicó su algoritmo en el libro 7 de sus Elementos, una de las obras más importantes de la historia de la ciencia, que sirvió de fuente de inspiración para los mayores genios de las matemáticas así como para enseñar esta disciplina durante 2.000 años.

Dados dos números enteros m y n (con m ? n), ésta es la rutina del algoritmo:

  1. Calcula el resto de dividir m por n y llámalo r
  2. Siempre que r sea distinto de 0, haz lo siguiente:
    1. Asigna a m el valor de n
    2. Asigna a n el valor de r
    3. Calcula el resto de dividir m por n y llámalo r
  3. El resultado es n

Vamos a aplicar estas instrucciones a nuestro ejemplo, en el que m=84 y n=18

  • Cuando dividimos 84 entre 18, nos queda un resto de 12 (porque 84=18×4+12); entonces r=12
  • Como r=12 es distinto de 0
    • hacemos m=18, n=12 y calculamos el nuevo resto r=6 (puesto que 18=12×1+6)
  • Como r=6 es distinto de 0
    • hacemos m=12, n=6 y calculamos el nuevo resto r=0 (puesto que 12=6×2+0)
  • Como r=0 ya salimos del paso 2 y entonces mcd (84,18)=6 (el último valor de r calculado)

Euclides evita, así, la factorización y convierte el cálculo del máximo común divisor en una sucesión de restas y divisiones.

Hay un concepto importantísimo en cualquier algoritmo, que es el criterio de parada. Como su nombre indica, es la regla que detiene el algoritmo. En este caso, es el momento en que el resto que se calcula entre m y n es 0. No siempre hay un criterio exacto de parada como éste y otras veces los algoritmos paran cuando han estado un tiempo suficiente trabajando. En esos casos las soluciones que devuelven no son óptimas, pero probablemente sean una muy buena aproximación, y eso vale en muchas ocasiones. Esos algoritmos se llaman heurísticos y son la única opción cuando el problema es computacionalmente complejo, como el estudiadísimo Problema del Viajante.

Así pues, otro concepto importante en todo algoritmo es la complejidad, que es una medida de cuánto le cuesta llegar a la solución óptima. Intuitivamente, en el caso del algoritmo de Euclides, la complejidad se puede medir como el número de divisiones necesarias para llegar a la solución óptima. En nuestro caso, calcular el mcd de 84 y 18 nos ha costado tres divisiones. Ése es el número de divisiones necesario para calcular el mcd de todas las posibles parejas de números del 1 al 10:

euclides10

La pareja más difícil es 5 y 8, cuyo mcd cuesta calcular cuatro divisiones. Éste es el gráfico de todas las parejas del 1 al 200 (un azul más oscuro significa mayor número necesario de divisiones):

euclides200

Los patrones que aparecen en el gráfico son interesantes. Algunos son fáciles de entender, como la diagonal de color claro, ya que sólo hace falta una división para calcular el mcd de dos números iguales, pero otras líneas son mucho más sorprendentes. Se ha demostrado que las parejas que necesitan más divisiones son números consecutivos de la sucesión de Fibonacci (5 y 8 son una de estas parejas).

La complejidad de un algoritmo se mide en términos de los ingredientes con los que trabaja. En el ejemplo de Euclides los ingredientes son los dos números de entrada y se ha calculado que el número de divisiones no supera cinco veces el número de dígitos del mayor de ellos. Para entender si esto es alto o bajo, imaginad que sois un profesor y le habéis prestado el bolígrafo a alguno de vuestros 30 alumnos pero no recordáis a cuál:

  1. Si para descubrirlo preguntáis a cada alumno si lo tiene él o cada uno de sus 29 compañeros, en el peor de los casos serían 302 preguntas. En este caso, para una clase de N alumnos, la complejidad de orden N2 o cuadrática en el argot matemático.
  2. Si para descubrirlo preguntáis a cada alumno si lo tiene exclusivamente él, en el caso peor serían 30 preguntas y la complejidad sería de orden N, o lineal.
  3. Si para descubrirlo dividís la clase en dos grupos iguales (o que se diferencien por un alumno cuando el total sea impar), preguntáis qué grupo lo tiene, y repetís el proceso con éste (descartando siempre el que no) hasta que queda un alumno, en el peor caso haríais cinco preguntas. La complejidad sería de orden log (N) o logarítmica.
  4. Si preguntáis en alto quién tiene el bolígrafo, sólo necesitareis una pregunta y la complejidad sería entonces de orden 1 o constante.

El algoritmo de Euclides es del tercer tipo, logarítmico, una clase de algoritmos muy eficiente. Por eso después de más de 2.300 años sigue utilizándose. Es antiguo, eficiente y elegante.

Para que un ordenador ejecute un algoritmo hay que programarlo en algún lenguaje. Éste es el código que calcula el máximo común divisor de dos números según el algoritmo de Euclides en R, uno de los lenguajes de programación más importantes para un científico de datos:

mcd = function(x,y)
{
  a=max(x,y)
  b=min(x,y)
  r=a%%b
  while(r > 0) {
    a=b
    b=r
    r=a%%b
  }
  return(b)
}

Imagen: Laineys Repertoire

Gráficos: Antonio Sánchez Chinchón

Enlace del artículo

Guerra comercial, tecnológica y de defensa entre China y Europa

La avalancha de capital chino en Europa, que en 2015 marcó un récord histórico con más de 31.000 millones de dólares (28.000 millones de euros), ha sido bienvenida en un periodo de crisis y de caída de la inversión. En España, la inversión superó el año pasado por primera vez la barrera de los 1.000 millones de dólares. Pero el capital chino empieza a levantar suspicacias por su creciente control de empresas europeas, el trasvase de tecnología y su entrada en sectores sensibles para la seguridad.

Algunos países europeos ya estudian fórmulas para poner coto a las inversiones del gigante asiático, dada la ausencia de un filtro comunitario. La Comisión Europea se limita a revisar el impacto sobre la competencia de las grandes fusiones empresariales. Pero a diferencia de EE UU, que somete a un control especial las inversiones extranjeras en infraestructuras, telecomunicaciones, tecnología o sanidad, la UE acepta sin cortapisas la entrada de capital en cualquier actividad.

A falta de un sistema de supervisión europeo como el estadounidense, las capitales de la UE empiezan a tomar medidas, lo que podría dañar la unidad el mercado interior europeo.chip

Alemania acaba de frenar dos importantes operaciones de inversión china (la venta del fabricante de microchips Aixtron por 670 millones de euros y la de la división de bombillas de Osram por 400 millones), para verificar las consecuencias de un posible trasvase de tecnología.

En París han saltado las alarmas incluso en un sector como la hostelería, sin implicaciones de seguridad, tras la participación accionarial china cada vez más elevada en Accor, uno de los mayores grupos hoteleros del mundo.

Y el gobierno británico de Theresa May ha aceptado a regañadientes la entrad de capital chino en la construcción de un reactor nuclear en suelo británico. Pero May ha advertido que adoptará una norma para reservarse el derecho de revisar y vetar cualquier inversión o fusión empresarial transfronteriza susceptible de poner en peligro la seguridad o los intereses de la economía británica.

Berlín también quiere arrogarse un derecho de veto similar al de Londres, equivalente a las acciones de oro que la mayoría de los gobiernos se reservaron en las compañías privatizadas en los años 80 y 90. Unos derechos de veto que se ejercieron, sobre todo en compañías de energía, telecos y tecnología, para garantizar que no serían desguazadas por ningún comprador.

Fuente Cinco Días