sábado, 13 de febrero de 2016

Echa un vistazo

¡WOW!

Aquí podrás encontrar interesantes artículos científicos que probablemente desconocías.



¡Echa un vistazo!



El álgebra mejora el tratamiento para el cáncer de próstata.



A través de la predicción del movimiento de los órganos comprometidos en la radioterapia (vesículas seminales, próstata, recto y vejiga), el modelo matemático ayuda a precisar las dosis del tratamiento, así como a evitar efectos secundarios.


Una de las formas más comunes de tratamiento del cáncer de próstata, cuando éste no ha hecho metástasis, es la radioterapia, que consiste en tomar una foto de los órganos comprometidos, que se delinean y así se propone la dosis por utilizar. Sin embargo, dicha fotografía no es fiel a la distribución de los órganos ya que estos se mueven.De acuerdo con la posición que ésta ocupe en el cuerpo, y teniendo en cuenta que solo tiene ciertas direcciones sobre las cuales se deforma, lo que se hace es identificarlas y predecir su movimiento.


Basado en ese modelo, señala, se pudieron cuantificar las incertidumbres que genera el movimiento de la vejiga durante el tratamiento, lo cual afecta la dosis que se puede irradiar.


Para llegar al resultado, la metodología utilizada por el investigador incorporó una técnica de álgebra lineal que permite la descomposición de una matriz en tres componente, conocida como "machine learning".


El ingeniero Richard Ríos, mezcló variantes e información como: dosis, órganos, movimiento y toxicidad, que incluyó en un modelo matemático con el que consiguió reducir la incertidumbre en cuanto al movimiento de los órganos involucrados en el cáncer de próstata.


El joven investigador menciona que una de las razones por las cuales los órganos se mueven es porque los pacientes consumen agua, lo que hace que tanto la vejiga como el recto se llenen y empujen unos órganos contra otros.


Esta situación hace que la dosis que inicialmente se planea para la radioterapia no sea eficaz, pues cuando ésta se realiza se irradian tanto las células afectadas como las sanas; por el contrario, aumentan las probabilidades de que el paciente desarrolle efectos secundarios o que se pierda el control sobre el tumor.
  






FUENTE: http://noticiasdelaciencia.com/not/17452/el-algebra-mejora-el-tratamiento-de-cancer-de-prostata/






El uso de las matemáticas por Miguel Ángel cuando pinto "La creación de Adán".






Se cree que la Proporción Áurea, también conocida como la Proporción Divina, el Número Áureo y con otros nombres similares, es una proporción geométrica que, por alguna razón que nunca nadie ha podido explicar de forma satisfactoria, sería la más agradable estéticamente para la percepción visual humana. Se dice que se empleó para guiar la construcción de las pirámides egipcias, la del Partenón en Atenas, y que bastantes pintores, consciente o inconscientemente, la usaron en cuadros, incluyendo algunos tan carismáticos como la Gioconda de Leonardo da Vinci.


A la Proporción Áurea, con un valor matemático de aproximadamente 1,618, también se la ha considerado como una especie de “constante” natural, presente en infinidad de estructuras biológicas, desde la curvatura de los colmillos de los elefantes, hasta la forma espiral de las conchas de algunos moluscos.

Miguel Ángel fue no solo pintor y escultor, sino también un experto en anatomía humana. Diseccionó numerosos cadáveres y gracias a ello y a otras observaciones desarrolló un profundo conocimiento de la anatomía humana, algo que le sirvió para reproducir de manera muy realista cuerpos humanos en su arte. Entre sus trabajos artísticos mejor conocidos están los frescos pintados en el techo de la Capilla Sixtina, en Roma.


El equipo de la Universidad Federal de Ciencias de la Salud de Porto Alegre en Brasil, ha realizado un análisis digital de “La Creación de Adán”, obteniendo evidencias matemáticas de que Miguel Ángel pintó ese fresco usando la Proporción Divina.

A juzgar por lo descubierto en el análisis, hay que suponer que la belleza y armonía reconocidas en todos los trabajos de Miguel Ángel podrían estar basadas no solo en su conocimiento de las proporciones anatómicas humanas. Él probablemente sabía que las estructuras anatómicas que incorporan la Proporción Áurea ofrecen una serie de cualidades positivas y, por tanto, la utilizó para aumentar la calidad estética de sus trabajos.
  



FUENTE: http://noticiasdelaciencia.com/not/15308/el-uso-de-las-matematicas-por-miguel-angel-cuando-pinto-la-creacion-de-adan/





Trabajan modelos matemáticos para inferir futuras erupciones en calderas volcánicas



Con el objetivo de entender su impacto en la decadencia de la civilización maya, pero al mismo tiempo generar un modelo matemático que permita visualizar el alcance de próximos siniestros, el doctor Gerardo de Jesús Aguirre Díaz, investigador de la Universidad Nacional Autónoma de México (UNAM), realiza estudios en la caldera volcánica de Ilopango en El Salvador.


Se trata de un proyecto financiado por el Consejo Nacional de Ciencia y Tecnología (Conacyt) que tiene una duración de tres años a partir de marzo de 2015 y del que ya se desprenden algunos hallazgos importantes. "Se sabe que la última erupción que tuvo esta caldera fue catastrófica, sucedió hace aproximadamente mil 500 años —muy reciente en términos geológicos— y pudo haber sido el factor detonante para que la civilización maya se disgregara", explicó Aguirre Díaz.


En entrevista con la Agencia Informativa Conacyt, dijo que ese es uno de los motivos principales por los cuales el trabajo es de interés para México, aun cuando el estudio en sí no tenga lugar dentro del territorio nacional; sin embargo, los efectos de la erupción en Ilopango tuvieron consecuencias en el sureste de México y podría volver a tenerlas en un futuro.

¿Cuál es el principal objetivo de la investigación?


Apoyado por estudiantes de doctorado y un grupo de diez personas (investigadores de diferentes especialidades en gerardo de jesus aguirre01geociencias, matemáticas, antropología y arqueología), se realiza la investigación en torno a la erupción catastrófica —o supererupción— de la caldera de Ilopango, y se busca definir su relación con el declive de la civilización maya, pero también generar un modelo matemático que permita inferir el escenario de posibles próximas erupciones y los alcances de esta estructura volcánica.


¿En qué consiste el trabajo que están realizando?



Se trata de mucho trabajo de campo, hay que visitar la caldera y sus alrededores para realizar trabajo geológico, es decir, revisar y estudiar los productos volcánicos que salieron de la caldera, ordenarlos de manera "espacio-temporal", en términos sencillos, ubicar y estudiar los residuos de las erupciones que ha tenido esta caldera.



Entonces, básicamente lo que hacemos es ir a medir en el campo los depósitos y tomar muestras para diferentes tipos de análisis en el laboratorio. Los ubicamos en primera instancia, medimos el volumen que representa cada uno de ellos, determinamos hasta dónde llegaron esas erupciones y una vez que se organizan en el tiempo y espacio los residuos de la caldera, comenzamos el trabajo geocronológico.









¿En qué consiste el trabajo geocronológico?




Sacamos las edades absolutas a través de técnicas muy especializadas de geoquímica de isótopos, para este caso las técnicas analíticas de carbono 14, de argón-argón, que es el argón 39 y 40, y también las de uranio-plomo y uranio-torio en circones.

Lo que hacemos es obtener las edades de los productos arrojados por la caldera y ver si hay algún tipo de recurrencia en el tiempo en las diferentes erupciones mayores que ha tenido. También utilizaremos dicho conocimiento para estudiar a detalle la última erupción, que probablemente causó la disgregación maya.

¿En qué consisten las pruebas de geoquímica de isótopos?

Para definir la edad de las rocas recurrimos a los isótopos de algunos elementos que contienen estas. Las rocas presentan minerales, sobre todo las frase gerardo de jesus aguirre01volcánicas, en cuyo caso además de los minerales se tiene también vidrio volcánico; dentro de los componentes químicos del vidrio y de los minerales existen algunos elementos radioactivos que aprovechamos para saber la edad de la roca.

Muchos de los elementos que hay en la naturaleza tienen algo de radioactividad y aprovechamos esa característica para utilizar los distintos sistemas ya mencionados, como el de argón 40 y 39 (gas noble que se produce por el decaimiento radioactivo del potasio) o el de uranio-plomo, en donde el uranio, que es el material radioactivo, decae hacia el plomo.

En el momento que la roca se cristalizó al salir de la erupción, comienza a trabajar el relojito isotópico y nosotros con instrumentos muy sofisticados (espectrómetros de masa muy sensibles) podemos determinar cuánto tiempo ha pasado, midiendo la cantidad de un isótopo contra el otro.

¿Cómo pudo impactar la última erupción en el declive de la civilización maya?


Este es un proyecto multidisciplinario, donde tambien interviene un grupo de arqueólogos, quienes harán excavaciones para recolectar información en sitios arqueológicos que se sabe fueron cubiertos por la ceniza volcánica de esta erupción.

Y fue esta erupción, de hace aproximadamente mil 500 años, de la caldera de Ilopango —la cual muy probablemente también afectó el clima a escala global—, la que aparentemente provocó la disgregación de la cultura maya, misma que con el paso del tiempo se tradujo en el declive de esta civilización.

¿Por qué es importante conocer las recurrencias en el tiempo de las erupciones?

Esta caldera no solo tuvo esa última erupción, nosotros, gracias al trabajo de identificación de recurrencia en el tiempo, hemos contabilizado al menos ocho más, dato que representa el primer hallazgo importante de nuestro trabajo de investigación.

Incluso tuvo erupciones mucho más grandes a la registrada hace mil 500 años, así que intentaremos definir su historia eruptiva completa con un enfoque que vaya más allá de su impacto a la civilización maya, con la intención de definir si la caldera representa un peligro en el futuro porque aún se encuentra activa.

En resumen, el segundo enfoque de la investigación tiene que ver con la peligrosidad volcánica. Intentaremos, básicamente, deducir si existe el riesgo de una nueva erupción de grandes dimensiones y, para lograrlo, debemos conocer toda la historia volcánica de la caldera, desde que surge hasta su última actividad.

Haremos modelos matemáticos que alimentaremos con los datos de campo para hacer simulaciones numéricas de las erupciones pasadas, sobre todo de la última supererupción que afectó a los mayas, lo cual permitirá elaborar modelos de erupciones futuras y saber qué tanto afectarían a El Salvador y cuál sería su impacto a nivel continental, incluyendo por supuesto México. 



(Fuente: CONACYT/DICYT)

JUDITH, juego de enseñanza matemática para estudiantes con discapacidad visual


¿Cómo hace un docente para enseñarle funciones matemáticas a un ciego? ¿Cómo puede procesar esta información si no puede ver su gráfica?, fueron las preguntas que se hizo el físico Eduardo Rodríguez, investigador docente del Instituto de Industria (IDEI) de la Universidad Nacional de General Sarmiento (UNGS), en Argentina, mientras le enseñaba a su hija funciones matemáticas.
Luego de investigar qué dispositivos había disponibles para la enseñanza y el aprendizaje de conceptos matemáticos en estudiantes con discapacidad visual, ya sean ciegos o disminuidos, nació JUDITH, el Juego Didáctico para Tareas Hápticas.

“La Universidad no contaba con recursos apropiados y nos pusimos a pensar cómo resolver este déficit, sobre todo porque en la UNGS hay ingresantes ciegos que, sin importar qué carrera quieran estudiar, tienen que cursar un taller de matemática en el Curso de Aprestamiento Universitario (CAU), que incluye el tema de funciones matemáticas”, explica Rodríguez en entrevista con Argentina Investiga.

De bajo costo y fabricada íntegramente en el Laboratorio de Ingeniería con una impresora 3D, JUDITH tiene tres partes: un tablero rectangular, con lados de 16 cm y 17 cm, que representa un sistema cartesiano; un soporte para el tablero, que incluye una regla con marcas cada un centímetro y un transportador con marcas cada 10 grados para que el estudiante pueda medir longitudes y ángulos; y las funciones, que en el tablero quedan en relieve. El dispositivo está acompañado por un manual destinado a los docentes.

Este dispositivo, desarrollado por el Área de Ciencias y Tecnologías Básicas, fue testado recientemente; la primera en usarlo fue Judit Martínez, estudiante del profesorado universitario en Historia. Martínez es una de las diez estudiantes con discapacidad visual que cursa en la actualidad el CAU, que permite el ingreso a la Universidad.


“La primera vez que la estudiante usó el tablero resultó una experiencia de mucho impacto. Su expresión cambiaba mientras recorría con los dedos la función que llamamos ‘parábola’ y que ella empezaba a descubrir. Fue una experiencia fructuosa, también por la compresión de conceptos al desarrollar las consignas, tales como decir cuántas raíces (cuantos ceros) tenía la función y encontrar sus extremos y zonas de crecimiento y decrecimiento”, describe Maximiliano Véliz, ingeniero electromecánico egresado de la UNGS e investigador docente del IDEI.

  





“Es cómodo, práctico y útil”, resumió Judit Martínez, que desde este momento quedó ligada al dispositivo, no sólo por ser la primera en utilizarlo, sino porque lleva su nombre. La estudiante cuenta que, hasta el momento, a la hora de aprender matemática usaba unos gráficos de papel con relieve. “Muchas veces las líneas de los planos se borran, este dispositivo no se rompe”, dice, y recomienda su uso a otros estudiantes.

“Es un dispositivo que tiene mucha capacidad de expansión para nuevos usos. Los docentes pueden solicitar cualquier tipo de función matemática para la construcción. Lo único que debe suministrar es la ecuación analítica que quiere que la materialicemos para el tablero”, destaca Véliz.

JUDITH también puede ser utilizado en la enseñanza en estudiantes videntes, porque aporta otra forma de visualización de las gráficas de las funciones. “Con el dispositivo -expresa Rodríguez-, un alumno vidente no sólo ve las funciones sino que ‘también las toca’. Esta estrategia es innovadora y puede servir para mejorar la percepción del concepto de función y de sus atributos”.

Ahora, el equipo trabaja en los detalles de JAIME, el Juego de Áreas Impresas para Matemática Elemental. “En el taller de matemática del CAU hay ejercicios para calcular el área de figuras complejas compuestas por otras simples, como cuadrados, rectángulos, triángulos, círculos o fracciones de éstos. Por ejemplo, un yin yang se puede ver como la unión de círculos completos y fracciones de círculos de otro tamaño. A los estudiantes, en muchos casos, les cuesta darse cuenta de cómo esa integración de figuras compone otra figura más compleja. También está pensado para que ayude a la visualización de los problemas que se puedan plantear en torno al cálculo de áreas”, explica Rodríguez, director del proyecto.
Ambos dispositivos de estudio ya fueron presentados en sociedad, en el marco de una reunión de la Comisión en Discapacidad de la Universidad, y se encuentran a disposición de estudiantes y docentes del Curso de Aprestamiento Universitario de la UNGS. (Fuente: Argentina Investiga)


Matemáticas para proteger las obras de arte de la luz natural


Los rayos del sol son fuente de inspiración para muchos artistas, aunque también se pueden convertir en su peor enemigo, al dañar las obras cuando están expuestas. “En las pinturas al óleo existe un efecto fotoquímico producido por la luz visible y ultravioleta que provoca cambios en las estructuras moleculares de las obras, modificando el color y acelerando su envejecimiento”, explica Santiago Mayorga Pinilla, investigador de la facultad de Óptica y Optometría de la Universidad Complutense de Madrid (UCM), en España. 

A esto hay que sumar la exposición al infrarrojo –en la que el Sol emite una cantidad de radiación muy elevada– la cual, además de producir una alteración fotoquímica, modifica la temperatura, lo que facilita la ruptura de enlaces químicos. Esto provoca un aumento del efecto fotoquímico producido por la radiación visible.
“Si estos valores están por encima de 25 ºC se consideran perjudiciales, a lo que hay que sumar que los cambios de temperatura bruscos generan agrietamientos en las pinturas al óleo, por las tensiones mecánicas”, añade el físico.

Para abordar este problema, los científicos de la UCM, en colaboración con la Universidad Politécnica de Madrid, el Museo del Prado y el Instituto de Cultura de España, han desarrollado un modelo de cálculo muy preciso que tiene en cuenta todos los factores que intervienen en el proceso analizando, tanto la cantidad de radiación en el tiempo y en el espacio, como su distribución espectral.

El método, que se publica en la revista Renewable Energy, ha sido probado en el claustro del Monasterio de Santa María de El Paular (Madrid), donde se exponen 54 cuadros de Vicente Carducho. El cálculo ideado por los científicos tiene en cuenta la posición del Sol, cada tipo de día desde el punto de vista meteorológico y cómo se comporta esta radiación en el claustro, en concreto, en las zonas donde están colocadas las pinturas.

“El método permite conocer en todo momento la cantidad de radiación de forma espectral a la que están sometidas las obras de arte, y proponer actuaciones como modificar la ubicación de los cuadros, poner más protección en las ventanas o utilizar en ciertas zonas iluminación artificial”, enumera Mayorga.

Aunque es imposible evitar el envejecimiento de las obras de arte que se exponen a la luz, con el nuevo sistema los científicos intentan controlar estos efectos dañinos y minimizarlos, retrasando su deterioro. Para ello han utilizado softwares matemáticos, de diseño CAD y de iluminación, además de aparatos de medida de iluminación y de espectros específicos.

“Este trabajo es exportable a cualquier exposición que se ilumine con luz natural, teniendo en cuenta las características del material utilizado”, afirma el físico. (Fuente: Universidad Complutense de Madrid)


Matemáticas para mejorar la caducidad en las transfusiones


La sangre nunca se transfunde directamente al paciente. De la sangre extraída básicamente se obtienen tres productos: glóbulos rojos, plasma y plaquetas. Estos productos tienen una vida limitada, y su caducidad es diferente: el plasma se puede conservar hasta dos años, los glóbulos rojos 28 días, y las plaquetas caducan a los cinco días. La gestión de concentrados de plaquetas es complicada debido a su pronta caducidad y a que la demanda diaria es incierta y no admite demora. Esto hace que el responsable de su producción tenga que tomar decisiones difíciles y a veces arriesgadas: una baja producción conlleva el riesgo de pacientes desatendidos; por lo que la tendencia natural es generar una sobreproducción, lo cual trae consigo unas altas tasas de caducidad y un aumento de los costes económicos, ya que se trata de productos costosos.

El Centro Vasco de Transfusión y Tejidos Humanos (CVTTH) acudió al grupo Transferencia de Tecnología Matemática de la UPV/EHU, en España, para desarrollar una herramienta matemática para la optimización de la gestión de existencias de los concentrados de plaquetas (CP). El modelo ha sido construido a partir de los datos históricos de 2012, y ha sido validado con datos históricos de 2013: realizando una simulación que da como resultado cuál hubiera sido la producción y la caducidad siguiendo las directrices del modelo, y comparando estos resultados con la demanda real ocurrida en 2013.

La comparativa entre los resultados del modelo y lo sucedido durante 2013 muestra que con una reducción anual del 14,42 % de los CP producidos (1.472 CP menos) se hubiera logrado cubrir toda la demanda, sin necesidad de realizar importaciones de CP. Esto hubiera supuesto una reducción muy significativa del 90,18 % de los CP caducados respecto a la cifra real (1.460 CP menos). De forma colateral, se hubiera logrado una mejora de casi un día en la edad media de los CP transfundidos, ya que se obtendría una reducción del 65,07 % de los CP transfundidos con cinco días de edad, lo cual es muy importante desde el punto de vista clínico. Esto indudablemente tiene unas repercusiones económicas importantes: aplicando las tarifas establecidas en el País Vasco en 2013, el ahorro potencial por reducción de la producción oscilaría entre 420.000 € y 690.000 €.




La caducidad de los CP es un problema global que debe tratarse conjuntamente en toda la cadena transfusional. La red transfusional del País Vasco está constituida por un único centro productor, el CVTTH, doce hospitales públicos y nueve clínicas privadas, si bien sólo existen stocks fijos de CP en cinco hospitales públicos. El sistema de información abarca a todas las organizaciones excepto cinco clínicas privadas, e incluye todos los procesos de la cadena, desde la donación hasta la transfusión. Esto supone una gestión directa y centralizada del 100 % de las donaciones y del 94 % de las transfusiones que se realizan en el País Vasco. El CVTTH produce y suministra anualmente en torno a 100.000 concentrados de glóbulos rojos, 12.000 plasmas para transfusión y 10.300 CP.

El modelo diseñado para la gestión de CP del País Vasco supone un único stock en el CVTTH, sin tener en cuenta los de los hospitales. El modelo considera que sólo hay producción los días laborables, aunque se transfunde todos los días del año. Los CP producidos en lunes, martes, miércoles y jueves entran en stock el día siguiente por la mañana con un día de edad, mientras que los del viernes entran en el stock el lunes siguiente con tres días de edad, reproduciendo así la dinámica real. Al final del día, una vez realizadas todas las transfusiones, se desechan los CP caducados. El stock se actualiza diariamente por la mañana, una vez descontadas las caducidades e incorporada la última producción.

El problema planteado no es sencillo debido a que la demanda no es estacionaria (depende del día de la semana). Además, hay que tener en cuenta el efecto de la Semana Santa, navidades y fiestas veraniegas. En el modelo matemático diseñado, la regla que define el tope diario a producir se fija utilizando un análisis estadístico de la demanda, y las futuras unidades que caducarán se estiman mediante un análisis probabilístico.

"Se puede afirmar que este estudio es útil para conocer mejor la dinámica de producción, distribución y transfusión de los CP en el País Vasco, y que a pesar de sus limitaciones, permite establecer pautas —concluye Mikel Lezaun, investigador principal del grupo—. De hecho, ya se han introducido cambios en la sistemática de producción de CP: fundamentalmente, una reducción de la producción ajustándola al día de la semana. Ahora es necesario realizar un seguimiento de los cambios introducidos para valorar su efectividad. En un futuro próximo se profundizará en la línea iniciada, realizando estudios más exhaustivos y complejos que reflejen mejor la realidad". (Fuente: UPV/EHU)

Policías guiándose por un modelo matemático que predice con acierto dónde se van a producir más crímenes

Impedir que se cometa un crimen es un éxito policial mejor que el de atrapar a los culpables de crímenes ya cometidos. En la película de ciencia-ficción “Minority Report” (2002), dirigida por Steven Spielberg y protagonizada por Tom Cruise, se presenta este enfoque llevado a sus últimas consecuencias. La policía ya casi solo actúa de forma preventiva; capta que alguien se dispone a cometer un crimen y actúa para impedirlo. Aunque esta situación, y la manera en que esos policías obtienen la información, están fuera de la realidad, sí parece posible predecir tendencias generales en la criminalidad, como ha demostrado una experiencia policial piloto realizada en Los Ángeles, Estados Unidos, mediante un modelo matemático.

La respuesta a la pregunta de si las matemáticas pueden combatir la delincuencia parece por tanto que es afirmativa.

El modelo matemático diseñado por el equipo de Jeffrey Brantingham, de la Universidad de California en Los Ángeles (UCLA), para aconsejar dónde debería desplegar más agentes el Departamento de Policía de Los Ángeles, llevó a una tasa de crímenes sustancialmente menor durante el período reciente de 21 meses en el que se ha evaluado la utilidad del modelo en situaciones reales.

El modelo no solo predijo el doble de crímenes que los pronosticados por analistas adiestrados, sino que también previno el doble de tales crímenes.
  

Desarrollan modelos matemáticos para predecir el punto óptimo de curación del jamón ibérico


Investigadores del Instituto de la Grasa (CSIC-Sevilla), en España, han desarrollado modelos matemáticos para predecir la marcha y el momento óptimo de curación del jamón. De esta forma, precisan cuándo una pieza debe pasar de una fase a otra del proceso, por ejemplo del secadero a la maduración en bodega. Hasta el momento, el método para fijar el cambio de periodo en el proceso de producción se basa en la percepción de los expertos de cada industria, basada en su experiencia acumulada.


Los investigadores han ajustado ecuaciones matemáticas para hacer un seguimiento preciso del comportamiento de las piezas. De esta forma, con el análisis de parámetros como el perfil de la grasa y la pérdida de humedad, el método es capaz de predecir cuándo es necesario pasar el jamón a una nueva fase de su proceso individual de maduración.

Para obtener el modelo matemático, los investigadores han monitorizado un grupo de 10 jamones durante todo el proceso de curación: desde el sacrificio del cerdo, hasta que la pieza es viable, durante un periodo de tres años. “Instalamos en cada pieza equipos que tomaban medidas de varios parámetros de forma continua, así que cada hora se obtenían datos. Es la primera vez que se hace un seguimiento de los mismos jamones durante tanto tiempo y sin degradar el producto”, explica a la Fundación Descubre el responsable del estudio, Manuel León, del Instituto de la Grasa.


Tras el análisis de los datos, los investigadores han estudiado la evolución de la fracción de lípidos del tejido adiposo subcutáneo del jamón ibérico durante el proceso de curado en seco. Asimismo, han determinado la generación de los denominados compuestos volátiles, responsables de los aromas del producto, y que los expertos han agrupado por familias. En concreto, en el trabajo ‘Evolution of volatile hydrocarbons from subcutaneous fat during ripening of Iberian dry-cured ham. A tool to differentiate between ripening periods of the process’ publicado en la revista Food Research International se muestra el estudio de la fracción de hidrocarburos.

Los investigadores han comprobado los cambios en las cantidades de estos compuestos en la grasa subcutánea durante el proceso de maduración. De esta forma, han determinado que un aumento de la temperatura está relacionado con la generación y pérdida de los hidrocarburos y que, durante la curación, se redujo su cantidad.

Los expertos destacan que la información de sus modelos matemáticos permite optimizar los procesos de la industria cárnica. “Aportamos un modelo científico a una labor que antes se basaba en la experiencia humana. Si conocemos todo el recorrido de la pieza es más fácil localizar dónde se ha producido algún fallo, lo que beneficia a la trazabilidad y a la seguridad alimentaria”, precisa Manuel León.




Un matemático español recibe el Premio Fulkerson por refutar una conjetura


Este 12 de julio, en el transcurso de la ceremonia inaugural del 22º International Symposium on Mathematical Programming (ISMP 2015) que se está celebrando en Pittsburgh (Pensilvania, EE UU), se ha hecho pública la concesión del Premio Fulkerson a Francisco Santos Leal, catedrático de Geometría y Topología en la Universidad de Cantabria y miembro de la Real Sociedad Matemática Española (RSME).

Este premio se concede cada tres años en el marco del ISMP, y se pueden otorgar hasta a tres científicos a la vez en cada ocasión. El hecho de que, por primera vez en sus 36 años de existencia, esta vez haya habido un único galardonado, revela la singular importancia del resultado de Francisco Santos.

El galardón lo recibe por “la resolución en negativo” de la denominada conjetura de Hirsch. El matemático estadounidense Warren M. Hirsch conjeturó en una carta dirigida a George Dantzig en 1957 que un politopo (el análogo en dimensiones superiores de un poliedro) de dimensión d con n caras no puede tener un diámetro combinatorio mayor que n-d.


De ser cierta esta conjutura, habría tenido importantes consecuencias sobre la complejidad de la resolución de problemas de programación lineal, y en particular sobre el tiempo necesario para ejecutar un método matemático llamado ‘del símplice’.

Pero en 2010 Santos presentó un contrajemplo para refutar la conjetura. El matemático español construyó, apoyándose en una generalización del Teorema de los d pasos de Klee y Walkup, un politopo de dimensión 43 con 86 caras y diámetro mayor que 43 (es decir, n-d, en este caso 86-43, superaba lo establecido). El trabajo se publicó con el título A counterexample to the Hirsch Conjecture en los Annals of Mathematics.
  


  

Desarrollan una herramienta digital que corrige y explica ejercicios de matemáticas


InterMatia es el principal producto de PlataformaXY, una nueva Spin-Off de la Universidad de Sevilla (US), en España, cuyo objetivo es el desarrollo de herramientas de apoyo al aprendizaje.

Juan González-Meneses, investigador del grupo Geometría algebraica, sistemas diferenciales y singularidades de la US, es el principal responsable de este novedoso portal web de matemáticas para alumnos de secundaria y bachillerato cuya principal innovación reside en la generación automática de ejercicios adaptados a diferentes niveles, así como en la explicación detallada de la resolución correcta, algo que no existía hasta ahora en este tipo de plataformas.

“Nos animamos a crear InterMatia tras comprobar que existía un vacío en este tipo de páginas de aprendizaje para alumnos de instituto, ya que la mayoría de webs sobre cuestiones matemáticas para secundaria o bachillerato que existen actualmente se limitan a colecciones de problemas o vídeos que te explican determinadas cosas, pero no son interactivas”, explica el investigador.

InterMatia está dirigida tanto a centros educativos como a particulares y pone a disposición de los alumnos tecnología punta para que estos puedan practicar los temas del currículum oficial, teniendo a su disposición una corrección automática y una explicación de la solución en caso de no haber acertado.




  

Bitcóin, la moneda que nació de un algoritmo matemático

Todo lo que sube, baja, y viceversa. Esto, que podría ser una ley apócrifa de la economía, es el dibujo que trazan las fluctuaciones de bitcóin (BTC), la criptomoneda cuya unidad se llegó a vender a más de mil euros a principios de 2014. El día que se escribe este artículo, sin embargo, su precio por unidad es de 210,42 euros, por lo que parece que se recupera de los escasos 166 con los que comenzó el año.


Hablar de ella está de moda, pero la moneda electrónica lleva con nosotros desde 2009, año en el que Satoshi Nakamoto –probablemente, el seudónimo de un grupo de informáticos– creó el Protocolo Bitcoin, el algoritmo que sustenta la moneda y permite las transacciones económicas por internet sin mediadores.

Cuando dos personas interactúan con bitcoines, el comprador traspasa al vendedor un archivo encriptado y las claves para desencriptarlo. Este archivo es el fragmento de moneda que corresponde al valor de la compra –por ejemplo, 0,1 BTC equivaldría hoy a 21,04 euros–. Las monedas pueden ser guardadas en cualquier ordenador o monedero bitcóin, que es, en esencia, una dirección electrónica para recibir y transferir criptomonedas.

“El bitcóin no es dinero”, aclara a Sinc Pablo Fernández Burgueño, abogado en ejercicio y experto en aspectos legales de la criptomoneda en España. Para este experto, comprar con este sistema tiene más en común con un trueque que con una transacción monetaria. “Es una ‘cosa’, en el sentido jurídico de la palabra. Cuando un cliente paga en bitcoines no realiza una transmisión de dinero fiduciario, ni de dinero electrónico, ni de cupones, sino de soluciones únicas a algoritmos matemáticos que responden al protocolo bitcoin”.

Se pueden conseguir bitcoines en el mercado de compraventa de la moneda, o mediante un proceso de ‘minería’. En este caso, el minero es un ordenador que trabaja a destajo para descifrar bitcoines recién creados. Quien los encuentre, se los queda. El algoritmo lleva escrito, a modo de profecía, que el día que se llegue a 21 millones de monedas su producción parará.

El precio queda marcado por la oferta y la demanda. Podría decirse que las fluctuaciones de su valor responden al ejemplo más puro de la ley maestra del capitalismo, porque dependen, en exclusiva, de lo que los usuarios quieran pagar por esta moneda, sin ningún tipo de regulación. Esto provoca que invertir en bitcoines no esté, en absoluto, exento de riesgo.

Las matemáticas que subyacen detrás de esta moneda están pensadas para prevenir muchos de estos peligros, pero hay otros que no dependen de ellas. Estas fluctuaciones que colocaron al bitcóin en lo más alto de la montaña rusa lo han dejado recuperándose de una caída escandalosa. Lo último que contribuyó a pinchar la burbuja fue el cierre de la plataforma japonesa de intercambio de bitcoines MtGox, el pasado mes de enero. El dinero perdido por el cierre se calcula en unos 350 millones de euros.

Momentos de euforia y depresión se viven en cualquier mercado. El problema añadido es que esta moneda pertenece a un sistema descentralizado y no está respaldada por ningún valor, como el oro o el petróleo; ni por el banco nacional de ningún Estado, como las monedas de curso legal, lo que podría amortiguar su caída.

Pero la trascendencia del bitcóin va mucho más allá de los mercados. Para Félix Moreno de la Cova, economista y miembro de la Bitcoin Foundation, es la base de un nueva concepción de la propiedad intelectual. “Las transacciones económicas suponen solo la mínima parte de lo que su tecnología permite. El algoritmo da la solución tecnológica a las distribuidoras de productos digitales”.




¿Cómo se mide científicamente la desigualdad?

Mucho se habla en estos días de cuestiones sensibles como el acceso a la vivienda, la salud o la educación, por ejemplo, que son aspectos que determinan la equidad entre los actores sociales. ¿Pero cómo se miden científicamente esas variables o cómo trabaja un científico social con los datos relacionados con la diferencias en los ingresos, que determinan el acceso a todos esos beneficios? Según explicó Gabriel Brondino, investigador de la Universidad Nacional del Litoral (UNL), en Argentina, la desigualdad es uno de los temas de discusión más relevantes en la actualidad si observamos las diferencias que existen entre los niveles de ingreso entre Occidente y sus vástagos (Europa occidental, Estados Unidos, Japón, Australia, entre otros) y los países de África, Latinoamérica y el Caribe, principalmente; o bien si miramos hacia el interior de un determinado país.

“La desigualdad del ingreso es un problema de extrema sensibilidad, ya que está relacionado con problemas de pobreza e indigencia, educación, salud, vivienda y, en general, con las condiciones de vida de gran parte de la humanidad. Abordar el problema de la desigualdad económica desde una perspectiva científica demanda, como la mayoría de los objetos de estudio, un enfoque teórico y herramientas empíricas para mensurar el fenómeno”, sostuvo Brondino, integrante del Centro de Investigaciones de la Facultad de Ciencias Jurídicas y Sociales (FCJS).

En este sentido, Brondino comentó que con el pasar de los años se han propuesto diferentes formas para medir la desigualdad. Las más relevantes se basan en la idea de distribución personal del ingreso, en la cual se observan los ingresos totales de los individuos sin distinguir las fuentes del ingreso (propiedad, trabajo, renta). En oposición, la distribución funcional del ingreso se concentra en la distribución según las diferentes categorías del ingreso, siendo las principales el trabajo asalariado e ingreso de la propiedad. “Supongamos una población que se compone de n individuos, cada uno de los cuales recibe un ingreso yi, donde i representa el individuo en cuestión. Luego, tendremos n ingresos diferentes (y1, y2,…, yn) y la suma de éstos dará como resultado el ingreso total de la población. El ingreso medio se obtiene dividiendo el ingreso total por el tamaño de la población, es decir, n.

Esta información es suficiente para obtener una serie de indicadores estadísticos que nos permiten conocer, en un momento del tiempo, la estructura del ingreso en la sociedad. Por ejemplo, podemos calcular la diferencia que existe entre el ingreso más alto y el más bajo dividido por el ingreso medio. Cuando todos los individuos tienen el mismo ingreso, la diferencia es nula. No obstante, el indicador se agranda a medida que mayor es la diferencia entre el ingreso máximo y el mínimo”. Según destacó, el principal problema de este indicador es que ignora la distribución de los ingresos que no pertenecen a los extremos.

Pero Brondino comentó que el indicador que más se utiliza actualmente es el coeficiente de Gini, que se puede analizar a través de la curva de Lorenz, un eje de dos dimensiones que ordena la población en porcentajes según su nivel de ingreso, de menor a mayor, en el eje horizontal e indica el porcentaje del ingreso total que dispone cada estrato de la población en el eje vertical. “Obviamente, el 0 por ciento de la población recibe el 0 por ciento del ingreso, mientras que el 100 por cien de la población recibe el 100 por cien del ingreso, por lo que la curva se mueve desde una esquina a otra diametralmente opuesta. Si todos tienen el mismo ingreso, la curva será una diagonal, pero en ausencia de igualdad perfecta, los estratos más bajos tendrán una participación en el ingreso proporcionalmente menor”, sostuvo.




-Andrea Rodríguez Ruíz

No hay comentarios:

Publicar un comentario