• Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología
Notiulti
Noticias Ultimas
Inicio » Physics » Página 3
Tag:

Physics

Tecnología

Adicción a Internet en Niños: El Rol Clave de los Padres

by Editor de Tecnologia enero 15, 2026
written by Editor de Tecnologia
Example of the diary template (left: electronic version; right: physical version). Credit: Human Behavior and Emerging Technologies (2025). DOI: 10.1155/hbe2/8832647

Una nueva investigación liderada por Swinburne ha revelado que el uso de dispositivos móviles por parte de niños en edad de primaria para juegos, redes sociales y plataformas de streaming aumenta significativamente el riesgo de adicción a internet, siendo los padres la principal influencia en este aspecto.

El estudio, realizado con niños de primaria en Indonesia, encontró que más de una cuarta parte (28%) presentaba riesgo de adicción a internet, y más del 63% superaba las recomendaciones de tiempo de pantalla. Los resultados de este trabajo se han publicado en la revista Human Behavior and Emerging Technologies.

Aunque los resultados corresponden a un único país, el investigador principal, el profesor asociado de Swinburne, Abdullah Al Mahmud, explica que sugieren cifras globales igualmente preocupantes, dado el creciente impacto de la tecnología en los niños de todo el mundo.

«Nuestro estudio reveló que el uso de teléfonos móviles para juegos, redes sociales y ver videos de entretenimiento se asocia con un mayor riesgo de adicción a internet», afirma el profesor Al Mahmud.

«Por el contrario, actividades en línea como la comunicación remota, el aprendizaje y la realización de tareas escolares se asocian significativamente con un menor riesgo de adicción.»

La investigación, llevada a cabo como parte de un proyecto de doctorado por Yansen Theopilus, demostró que los padres juegan un papel crucial. Limitar el tiempo de pantalla recreativo, filtrar contenido inapropiado, promover el uso de internet con fines positivos y fomentar actividades en el mundo real, resultaron tener un impacto positivo cuando se aplicaron de forma consistente.

«La mediación parental se asoció significativamente con un menor riesgo de adicción a internet. Las estrategias de restricción y supervisión mostraron los efectos más significativos en la reducción del riesgo.»

El profesor asociado Al Mahmud recomienda un límite de tiempo de pantalla inferior a dos horas diarias, y que los padres desempeñen un papel activo en la supervisión de las actividades en línea de sus hijos, al tiempo que participan en actividades familiares en el mundo real.

Si bien los investigadores reconocen los desafíos de demostrar y mantener un buen comportamiento en un mundo cada vez más mediado por la tecnología, señalan que las recompensas hacen que el esfuerzo valga la pena.

«Cuando los cuidadores necesitan usar sus teléfonos, puede ser difícil ser un modelo a seguir positivo y ser consistente, especialmente cuando los compañeros de sus hijos pueden no tener las mismas reglas.

«Pero corresponde a los cuidadores mostrar conciencia al educar y modelar un uso saludable de internet. Mantener una comunicación abierta con los niños sobre sus actividades en línea es esencial», afirma.

Dada las consecuencias perjudiciales de la adicción a internet, el profesor asociado Al Mahmud afirma que necesitamos directrices y marcos nacionales para que los padres proporcionen una mediación parental informada sobre el uso de internet por parte de sus hijos.

«Es necesario establecer directrices para ayudar a las futuras generaciones, permitiendo a las familias centrarse en la prevención de la adicción a internet en los niños, lo que puede tener consecuencias devastadoras para toda su vida.»

Más información

Yansen Theopilus et al, Parental Mediation, Online Behaviour and Internet Addiction Risk in Children: A Qualitative Diary Study of Parental Perspectives, Human Behavior and Emerging Technologies (2025). DOI: 10.1155/hbe2/8832647

Provided by
Swinburne University of Technology


Citation:
Revealing the parental role in preventing childhood internet addiction and how to combat it (2026, January 14)
retrieved 15 January 2026
from https://phys.org/news/2026-01-revealing-parental-role-childhood-internet.html

This document is subject to copyright. Apart from any fair dealing for the purpose of private study or research, no
part may be reproduced without the written permission. The content is provided for information purposes only.

enero 15, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Tomografía 3D con IA: Visión sin precedentes en nanomateriales

by Editor de Tecnologia enero 12, 2026
written by Editor de Tecnologia

Newswise — La tomografía de rayos X es una herramienta poderosa que permite a científicos e ingenieros observar el interior de objetos en 3D, incluyendo chips de computadora y materiales avanzados para baterías, sin necesidad de realizar procedimientos invasivos. Es el mismo principio básico que subyace a las tomografías computarizadas (TC) médicas. Los científicos o técnicos capturan imágenes de rayos X a medida que un objeto gira, y luego un software avanzado reconstruye matemáticamente la estructura interna tridimensional del objeto. Sin embargo, la obtención de imágenes de detalles finos a nanoescala, como las características de un microchip, requiere una resolución espacial mucho mayor que la de una TC médica típica: aproximadamente 10.000 veces superior.

La línea de haz Hard X-ray Nanoprobe (HXN) en el National Synchrotron Light Source II (NSLS-II), una instalación para usuarios de la Oficina de Ciencia del Departamento de Energía de EE. UU. en el Laboratorio Nacional Brookhaven del Departamento de Energía, es capaz de alcanzar ese tipo de resolución con rayos X que son más de mil millones de veces más brillantes que los escáneres TC tradicionales.

La tomografía solo funciona bien cuando estas imágenes de proyección se pueden tomar desde todos los ángulos. Sin embargo, en muchos casos del mundo real, esto es imposible. Por ejemplo, los científicos no pueden girar un chip de computadora plano 180 grados sin bloquear algunos de los rayos X. Cuando se encuentra paralelo a la superficie en ángulos altos, menos rayos X pueden penetrar en el chip, lo que limita los ángulos de visión de la medición. La falta de datos en este rango angular produce un “punto ciego”, lo que lleva al software de reconstrucción a producir imágenes borrosas y distorsionadas.

“Llamamos a esto el problema de la ‘cuña faltante’”, dijo Hanfei Yan, científico principal de la línea de haz HXN y autor correspondiente de este trabajo. “Durante décadas, este problema ha limitado las aplicaciones de la tomografía de rayos X y electrones en muchas áreas de la ciencia y la tecnología”.

Para resolver el problema, los investigadores de NSLS-II han desarrollado un nuevo método llamado perception fused iterative tomography reconstruction engine (PFITRE). Este enfoque novedoso combina la física de los rayos X con el poder de la inteligencia artificial (IA). El equipo entrenó una red neuronal convolucional, un tipo de modelo de IA que aprende automáticamente patrones de datos, con datos simulados. Las redes neuronales convolucionales utilizan capas convolucionales para detectar características importantes, como bordes, texturas o formas, y combinan estas características para hacer predicciones, como identificar lo que hay en una imagen. El componente de IA captura el conocimiento perceptivo de la muestra, lo que el equipo espera que parezca la solución, y lo utiliza para mejorar la imagen reconstruida basándose en ese conocimiento. Mientras tanto, el modelo basado en la física verifica que los resultados sigan teniendo sentido científicamente. Este proceso se repite varias veces hasta que los resultados de los componentes de IA y física convergen, produciendo una reconstrucción que es tanto precisa como visualmente clara. Sus resultados se publicaron recientemente en npj Computational Materials.

Mejor visión requiere un entrenamiento exhaustivo

A diferencia de la corrección de imágenes en la tecnología de consumo, como las cámaras de los teléfonos móviles, la imagen científica debe preservar la precisión, no solo la apariencia. Los científicos necesitaban idear un método para garantizar que la imagen corregida siga siendo coherente con el modelo físico y los datos. Para ello, los científicos de NSLS-II integraron la IA en un motor de resolución iterativo, una herramienta matemática que aborda problemas complejos intentando repetidamente soluciones mejoradas, paso a paso, hasta que se acerca lo suficiente a la respuesta correcta. La IA integrada actúa como un “regularizador inteligente”, una función que limita la sobrecorrección, aprovechando el modelado basado en la física para garantizar que las reconstrucciones sigan siendo fieles a las mediciones reales de los rayos X.

“No queríamos una IA que simplemente cree mejores imágenes. Queríamos una IA que trabaje de la mano con la física, para que los resultados sean tanto visualmente claros como científicamente confiables”, dijo Chonghang Zhao, investigador postdoctoral en HXN y autor principal de este trabajo. “Ese es el poder de nuestro método: combinar la sofisticación de la IA con el modelo físico para garantizar la fidelidad”.

La IA en PFITRE se basa en un tipo de red neuronal llamada arquitectura U-net, un diseño codificador-decodificador que es popular para el procesamiento general de imágenes. La etapa de codificación aprende y detecta características esenciales, como los bordes, las texturas y las formas de una imagen de entrada, y la etapa de decodificación reconstruye la imagen utilizando esas características para restaurar los detalles y corregir las distorsiones. Los investigadores mejoraron la capacidad de U-net con modificaciones estructurales llamadas bloques densos residuales y convoluciones dilatadas. Estos ayudan a la red a capturar información a múltiples escalas, desde texturas finas hasta estructuras más grandes, lo que la hace más adecuada para manejar el problema de la cuña faltante en la tomografía. Sin embargo, un modelo como este no puede aprender por sí solo. Necesita una gran cantidad de datos para entrenarse.

Los conjuntos de datos de microscopía científica reales son demasiado limitados para un entrenamiento eficaz en un modelo de IA específico como PFITRE, por lo que el equipo confió en datos sintéticos. Generaron conjuntos de datos de entrenamiento utilizando imágenes naturales, patrones simulados e imágenes de microscopía electrónica de barrido de circuitos como muestras que se estaban examinando. Para que el entrenamiento sea lo más realista posible, introdujeron un “gemelo digital” del experimento y crearon datos virtuales que imitan las condiciones del mundo real. Incluyeron intencionalmente ruido, desalineación y otras imperfecciones para que la IA pueda manejar los datos físicos.

Impactando el futuro de la imagenología

Aunque todavía hay trabajo por hacer para perfeccionar este método, los beneficios son claros. Las muestras que antes eran inaccesibles debido a su tamaño o geometría ahora pueden producir datos informativos. Un campo de visión más amplio permite analizar una mayor parte de la muestra sin ser víctima de la cuña faltante. Este método también podría ser beneficioso en experimentos donde se requieren menos mediciones, lo que permite estudios in situ más rápidos y reduce la dosis de radiación en muestras sensibles.

“Esto abre la puerta a la obtención de imágenes detalladas de muestras que no se podían estudiar antes. Ese es un gran paso adelante”, dijo Yan. “Ya sea para diagnosticar defectos en microchips o para comprender por qué se degrada una batería, PFITRE nos permite ver detalles en condiciones que antes se consideraban inviables”.

Si bien PFITRE es un avance importante, el equipo reconoce que hay margen de mejora. Actualmente, el método procesa objetos 3D por capas. Ampliarlo a un enfoque 3D completo mejoraría aún más la coherencia, pero requeriría más capacidad de cálculo. Otro desafío es incluir más artefactos, como los de píxeles defectuosos o el movimiento de la muestra, para ampliar su rango de aplicación. Como otros modelos de IA, no puede corregir problemas que no ha “visto” antes. Para abordar esto, el trabajo futuro incorporará la creación de un conjunto de datos de entrenamiento más rico que incluya muchos tipos de artefactos y el desarrollo de formas para que el modelo aprenda de manera más eficaz con menos entrenamiento.

Este nuevo y potente método de análisis de imágenes 3D tiene el potencial de acelerar los descubrimientos en muchos campos, desde el desarrollo de microchips más rápidos y eficientes hasta la síntesis de nuevos materiales e incluso aplicaciones biomédicas. A medida que el aprendizaje automático y la ciencia de sincrotrones continúan evolucionando juntos, herramientas como esta perfeccionarán la visión de los científicos del mundo microscópico para abordar algunos de los mayores desafíos científicos de la sociedad.

Brookhaven National Laboratory es apoyado por la Oficina de Ciencia del Departamento de Energía de EE. UU. La Oficina de Ciencia es el mayor patrocinador de investigación básica en las ciencias físicas en los Estados Unidos y está trabajando para abordar algunos de los desafíos más apremiantes de nuestro tiempo. Para obtener más información, visite science.energy.gov. 

Siga a @BrookhavenLab en las redes sociales. Encuéntranos en Instagram, LinkedIn, X, y Facebook. 



enero 12, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Salud

Pollen y Política: Estudio Revela Brecha Ideológica en la Percepción del Cambio Climático

Opciones alternativas:

  • Alergia y Clima: ¿Divide la Política la Percepción del Polen?
  • Polen y Cambio Climático: Diferencias Ideológicas en Twitter
  • Estudio: Usuarios de Twitter y la Relación entre Polen y Clima

by Editora de Salud enero 6, 2026
written by Editora de Salud

Un análisis de casi 200,000 publicaciones de Twitter entre 2012 y 2022, realizado por la Universidad de Michigan, revela dos aspectos clave. Primero, las personas son bastante precisas al identificar el pico de la temporada de polen: el mayor volumen de tuits sobre el polen coincidió a menudo con los momentos de mayor concentración de polen registrados por los contadores. Segundo, los usuarios de Twitter con inclinaciones liberales fueron más propensos que los conservadores a atribuir los cambios en las temporadas de polen a lo largo de los años al cambio climático.

«Existe una brecha partidista en la forma en que percibimos las temporadas de polen, lo cual es muy relevante para nuestra vida diaria e incluso para nuestra salud», afirmó Yiluan Song, autora principal del informe que aparece en la revista PNAS Nexus. Song es investigadora postdoctoral en el Instituto de Datos y Sociedad de Michigan (MIDAS) y en la Escuela de Medio Ambiente y Sostenibilidad (SEAS).

Si bien el equipo de investigación comprende que la división en sí misma puede ser lo que más llame la atención en el clima político actual, el segundo punto de la declaración de Song es el foco principal de los investigadores. Las personas tienen una relación íntima con el polen que es diferente de otros impactos del cambio climático, como el aumento de la temperatura global promedio.

«Ya sabemos que las creencias políticas de las personas influyen en su forma de pensar sobre el cambio climático, algo que se ha demostrado en muchos estudios. Pero lo nuevo aquí es que cada vez más personas están sufriendo alergias al polen», señaló Kai Zhu, autor principal del nuevo estudio y profesor asociado en SEAS.

«Cuando las personas sienten el impacto del polen en sus vidas –estornudos más frecuentes o la necesidad de limpiar el polen de sus automóviles– se vuelve personal. Esta experiencia puede ayudar a conectar los puntos con el cambio climático, que puede parecer abstracto o lejano. En lugar de hablar de un grado o dos de calentamiento global, podemos centrarnos en las cosas que las personas enfrentan directamente en su vida diaria», añadió Zhu.

Otros autores del estudio de la Universidad de Michigan fueron Nathan Fox, científico de inteligencia artificial de MIDAS; Derek Van Berkel, profesor asociado de SEAS; y Arun Agrawal, profesor emérito de SEAS. Adam Millard-Ball, profesor de la Universidad de California, Los Ángeles, también fue un colaborador clave.

La gente recuerda el polen

A medida que el planeta se calienta debido al cambio climático, las temporadas de polen en todo el país están comenzando antes y durando más. Esto significa no solo más estornudos, secreción nasal y ojos llorosos para las personas con alergias estacionales, sino también un mayor riesgo de reacciones más graves que pueden resultar en hospitalizaciones. Un estudio reciente de la Universidad de Michigan incluso ha relacionado altas concentraciones de polen con un aumento del riesgo de suicidio.

Más allá de las preocupaciones de salud, las personas también expresan frustración por tener que dedicar más tiempo y dinero a limpiar sus automóviles, muebles de patio y otras pertenencias debido a las temporadas de polen más intensas. De hecho, Song señaló que las personas que tuitearon sobre el aumento del polen a menudo lo hicieron en este contexto. Independientemente de si hicieron o no la conexión con el cambio climático, mucha gente tuiteaba sobre el polen cada año. Esta naturaleza anual de la temporada de polen es otra característica útil en el frente de la comunicación, según la investigadora.

While individuals who don’t identify as media or scientific experts largely drive the discussion around pollen, it’s those two groups that dominate in attributing the cause of pollen season shifts to climate change. This shows that there’s an opportunity to promote more «bottom-up» generation of climate knowledge by finding new ways to engage with individuals, University of Michigan researchers said. Credit: PNAS Nexus (2025). DOI: 10.1093/pnasnexus/pgaf386

Para su estudio, los investigadores analizaron un conjunto de datos que contenía más de 190,000 tuits publicados entre 2012 y 2022 en los Estados Unidos (Twitter cambió su nombre a X en 2023, cuando también realizó cambios en la disponibilidad de sus datos). El equipo primero comparó el número de publicaciones relacionadas con el polen con los datos de concentración de polen y descubrió que el volumen de tuits se correlacionaba con las concentraciones de polen.

Discover the latest in science, tech, and space with over 100,000 subscribers who rely on Phys.org for daily insights.
Sign up for our free newsletter and get updates on breakthroughs,
innovations, and research that matter—daily or weekly.

Es decir, las personas son «sensores sociales» confiables del polen, según Zhu.

«Descubrimos que las redes sociales son sorprendentemente precisas al reflejar lo que realmente está sucediendo con los niveles de polen en todo el país», dijo. «Las personas que publican sobre el polen coincidieron estrechamente con las concentraciones reales de polen».

«La temperatura cambia día a día y puede ser difícil recordar exactamente cuándo fue un día realmente cálido», dijo Song. «Pero tenemos profundos recuerdos de los eventos anuales. Por ejemplo, Atlanta tuvo picos de polen sin precedentes este año, así como en 2012, y la gente lo recuerda».

El equipo analizó a continuación el contenido de las publicaciones muestreadas y calificó a los usuarios en una escala de liberal a conservador según las cuentas que siguen. El equipo descubrió que los usuarios conservadores eran más propensos a hablar sobre el polen y atribuirlo a los cambios de temperatura, mientras que los usuarios liberales eran más propensos a dar un paso más y atribuirlo al cambio climático.

Twitter data reveals partisan divide in understanding why pollen season's getting worse
Tweet counts about pollen largely mirrored pollen concentration as determined by pollen counters around the U.S., showing people are good «social sensors» of pollen levels. Credit: PNAS Nexus (2025). DOI: 10.1093/pnasnexus/pgaf386

El equipo también agrupó los tuits por sus fuentes, categorizando si provenían de miembros de los medios de comunicación, expertos científicos, organizaciones u otros individuos. Esto permitió al equipo seguir el flujo de información, lo que destacó otras perspectivas de comunicación.

«Cuando observamos las discusiones más técnicas sobre cómo el cambio climático impulsa el cambio de la temporada de polen, gran parte de ellas está dominada por expertos científicos y los medios de comunicación», dijo Song. «Hay pros y contras en esto. Muestra que los científicos están difundiendo mensajes sobre el cambio climático, pero, por otro lado, esta producción de conocimiento es muy descendente. Tal vez la comunidad científica podría hacer más para fomentar una producción ascendente».

De cara al futuro, el equipo planea ampliar el impacto de su investigación ecológica con las perspectivas de este estudio.

Más información:
Yiluan Song et al, Political ideology and scientific communication shape human perceptions of pollen seasons, PNAS Nexus (2025). DOI: 10.1093/pnasnexus/pgaf386

Provided by
University of Michigan


Cita:
Los datos de Twitter revelan una división partidista en la comprensión de por qué empeora la temporada de polen (6 de enero de 2026)
recuperado el 6 de enero de 2026
de https://phys.org/news/2026-01-twitter-reveals-partisan-pollen-season.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo para fines de estudio o investigación privada, ninguna
parte puede reproducirse sin el permiso escrito. El contenido se proporciona únicamente con fines informativos.

.

enero 6, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Mundo

Calentamiento global: Tormentas tropicales más intensas en África

by Editor de Mundo diciembre 22, 2025
written by Editor de Mundo

Investigaciones previas indican que el cambio climático está intensificando la humedad y la potencia de los ciclones tropicales. Ahora, un nuevo estudio sugiere que lo mismo podría estar ocurriendo con los precursores de estas tormentas: los sistemas meteorológicos húmedos que a veces dan origen a huracanes destructivos y que a menudo causan lluvias e inundaciones peligrosas. Los hallazgos se publican en la Journal of Advances in Modeling Earth Systems.

An African easterly wave over the coast of western Africa on 12 September 2006 was the precursor to Hurricane Helene. New research suggests that climate change could intensify storm precursors like this one. Credit: EUMETSAT

Los ciclones tropicales no surgen completamente formados. Alrededor del 85% de los huracanes del Atlántico, por ejemplo, se originan a partir de ondas ecuatoriales africanas, perturbaciones de baja presión que se desplazan hacia el oeste sobre África, en las que el aire cálido y húmedo asciende a la atmósfera desde abajo y forma nubes de lluvia. A pesar del papel fundamental de estos sistemas meteorológicos como «semillas» de los ciclones tropicales, aún no se comprende completamente cómo el cambio climático puede afectar su desarrollo.

Núñez Ocasio y su equipo investigaron recientemente cómo las ondas ecuatoriales africanas podrían comportarse de manera diferente en el futuro debido al cambio climático. Para ello, Núñez Ocasio desarrolló primero una nueva configuración de modelo meteorológico regional que permitió una representación más realista de los posibles extremos de lluvia.

Utilizando este modelo mejorado, el equipo se centró en el período de formación de la onda que se convertiría en el huracán Helene de 2006 y simuló cómo la tormenta podría haber evolucionado de manera diferente en un entorno más cálido y húmedo.

Bajo un escenario de altas emisiones de gases de efecto invernadero, los investigadores encontraron que, para finales de siglo, las ondas como la que se convirtió en Helene crecerán significativamente en intensidad, girarán más rápido y retendrán una mayor cantidad de vapor de agua en relación con su entorno. Al mismo tiempo, las ondas viajarán más lentamente a través de África. En conjunto, esto significa que permanecerán durante períodos más prolongados mientras descargan lluvias más intensas sobre las áreas afectadas, exacerbando el riesgo de inundaciones extremas.

Ante este riesgo, los autores abogan por el uso de modelos de alta resolución como los del presente estudio para investigar más a fondo cómo las ondas ecuatoriales africanas responderán al cambio climático. Dichos estudios podrían proporcionar a las comunidades vulnerables la información que necesitan para prepararse para fenómenos meteorológicos extremos.

Los autores también señalan que, si bien las previsiones con plazos de entrega cortos –el tiempo entre una previsión meteorológica y el evento meteorológico real– tienden a ofrecer una mayor precisión, los plazos de entrega más largos pueden tener en cuenta mejor el movimiento más lento de las futuras ondas ecuatoriales africanas.

Más información:
K. M. Núñez Ocasio et al, Response of African Easterly Waves to a Warming Climate: A Convection‐Permitting Approach, Journal of Advances in Modeling Earth Systems (2025). DOI: 10.1029/2025ms005146

Proporcionado por
American Geophysical Union


Esta noticia es republicada por cortesía de Eos, alojada por la American Geophysical Union. Lea la historia original aquí.

diciembre 22, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Salud

PhD: Biomarcadores Morfológicos para Trasplante de Cordón Umbilical con IA

by Editora de Salud diciembre 22, 2025
written by Editora de Salud

Oportunidad de Doctorado en Biomarcadores para Trasplante de Cordón Umbilical

Investigadores de la Universidad de Edimburgo y el Instituto Alan Turing ofrecen una beca de doctorado para un proyecto innovador enfocado en mejorar los resultados del trasplante de células hematopoyéticas (HCT) utilizando sangre de cordón umbilical (UCB). El HCT es un tratamiento que salva vidas para trastornos hematológicos, y la UCB es una fuente valiosa de células terapéuticas, especialmente cuando no hay donantes compatibles. Sin embargo, algunas UCB muestran una reconstitución hematopoyética lenta y una diferenciación limitada, lo que limita su eficacia.

Este proyecto de doctorado, financiado por una beca MRC DPFS, se basa en análisis previos que identificaron características moleculares en la UCB que predicen una mejor capacidad de reconstitución. El objetivo es descubrir rasgos morfológicos adicionales que puedan utilizarse para seleccionar las muestras de UCB más óptimas para el trasplante. La investigación empleará análisis de imágenes basado en inteligencia artificial de células de UCB trasplantadas en ratones NSG inmunocomprometidos.

El proyecto será supervisado por el Profesor Alexander Medvinsky, el Dr. Andrejs Ivanovs, el Dr. Carsten Marr (Helmholtz Munich) y el Profesor Claudio Angione (Alan Turing Institute), ofreciendo una experiencia multidisciplinaria en biología de células madre, xenotrasplante, aprendizaje automático y hematología clínica.

Objetivos del proyecto:

  • Clasificación de muestras de UCB según el resultado del trasplante.
  • Identificación de rasgos morfológicos en las muestras de UCB que se correlacionan con los resultados del trasplante.
  • Determinación de la correlación entre los resultados del trasplante de UCB in vivo y la diferenciación in vitro.

Formación ofrecida:

El estudiante adquirirá experiencia en:

  • Análisis multilineaje de muestras de sangre mediante citometría de flujo y frotis sanguíneos.
  • Ensayos de diferenciación in vitro de células mieloides y linfoides.
  • Experiencia en aprendizaje automático.

Cómo aplicar:

Para aplicar, por favor, haga clic en el botón «Apply Now». La fecha límite para las solicitudes del ciclo 26/27 es el lunes 12 de enero de 2026.

Los solicitantes deben aplicar a un proyecto específico e incluir detalles del proyecto en el Formulario de Solicitud, que debe enviarse a la sección de propuestas de investigación de su solicitud EUCLID. Se recomienda adjuntar un CV y cualquier otra documentación relevante al momento de la solicitud.

Documento:

Precision Medicine Recruitment Form (878.56 KB / DOCX)

Sesiones de Preguntas y Respuestas:

Los supervisores de cada proyecto ofrecerán una sesión de preguntas y respuestas de 30 minutos durante las primeras dos semanas de diciembre. Si tiene alguna pregunta sobre este proyecto, puede asistir a la sesión del miércoles 3 de diciembre a las 3 p. m. (GMT) a través de Microsoft Teams. Haga clic aquí para unirse a la sesión.

diciembre 22, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Nobel de Física 2025: Impacto en Computación Cuántica y Materia Oscura

by Editor de Tecnologia diciembre 20, 2025
written by Editor de Tecnologia

Newswise — Este otoño, el Premio Nobel de Física fue otorgado a John Clarke, Michel Devoret y John Martinis “por el descubrimiento del túnel cuántico mecánico macroscópico y la cuantización de la energía en un circuito eléctrico”.

En el Laboratorio Nacional Lawrence Livermore (LLNL), estos galardonados descubrimientos sustentan dos frentes de innovación continua: la investigación fundamental en hardware de computación cuántica y el diseño de dispositivos y métodos ultrasensibles para la búsqueda de materia oscura.

Un premio con vínculos con LLNL

Para el científico de LLNL, Sean O’Kelley, este año el Premio Nobel es algo personal. Antes de unirse al Laboratorio, obtuvo su doctorado bajo la tutela de John Clarke en su laboratorio de Berkeley.

“Cuando comencé en el laboratorio de Clarke, no sabía mucho sobre su trabajo anterior, solo sabía que estaba trabajando en algunos problemas que me resultaban particularmente interesantes. Solo más tarde llegué a apreciar el gran cuerpo de trabajo fundamental ya realizado en ese laboratorio”, dijo O’Kelley. “Los métodos, las tecnologías y los marcos conceptuales que surgieron de los laboratorios de Clarke se han convertido en una especie de ‘ABC’ para cualquiera en su campo e incluso en campos relacionados, y me alegra mucho que esto sea reconocido. El premio fue bien merecido”.

Debido a que los efectos cuánticos se observaron por primera vez en los átomos, es una idea errónea común que los fenómenos cuánticos solo ocurren a las escalas más pequeñas. Los experimentos realizados por los laureados en la década de 1980 demostraron que la cuántica tiene un papel más importante que desempeñar.

“Las palabras clave del premio son ‘macroscópico’ y ‘cuántico’”, dijo O’Kelley. “La idea de lo cuántico está inextricablemente ligada a la idea de lo pequeño en la imaginación de la mayoría de las personas y quizás incluso de la mayoría de los científicos, pero eso es un malentendido. Si las cosas pequeñas son cuánticas y las cosas grandes no, ¿dónde está el límite? No existe. Todo es cuántico, todo el tiempo, a todas las escalas”.

“Este trabajo demostró de una manera real y visceral que la mecánica cuántica es realmente la forma en que funciona el mundo, incluso para las cosas ‘lo suficientemente grandes como para tocar con los dedos’, parafraseando un artículo de 1988”.

La superconductividad revela lo cuántico a gran escala

La clave del trabajo Nobel radicó en la superconductividad, un fenómeno en el que los materiales a temperaturas extremadamente frías conducen la electricidad sin ninguna pérdida de energía. Una corriente eléctrica que fluye alrededor de un anillo de metal superconductor persiste indefinidamente porque no pierde energía en forma de calor.

“Nadie sabía cómo ni por qué funcionaba la superconductividad cuando se descubrió por primera vez, pero ahora sabemos que la resistencia cero es solo un efecto secundario agradable de la parte realmente interesante: los electrones de conducción en un superconductor están haciendo todos lo mismo hasta el nivel cuántico”, dijo O’Kelley.

Los laureados demostraron la existencia de este estado cuántico colectivo con mediciones de circuitos superconductores del tamaño de la palma de la mano.

“Una parte importante de los electrones que se mueven todos en el mismo estado cuántico es la formación de pares estables de electrones llamados ‘pares de Cooper’”, dijo O’Kelley.

Si bien los electrones normalmente se repelen entre sí, los electrones superconductores se emparejan en su lugar. Cuando un electrón viaja a través de la estructura reticular sólida del superconductor a una temperatura lo suficientemente fría, tira de los átomos cargados positivamente hacia él, creando una especie de estela. El siguiente electrón en la fila ve la carga positiva que ha sido desplazada y se acerca a ella (y al electrón que la creó). Estos electrones se llaman “pares de Cooper”.

Según las leyes de la física, los electrones no pueden existir todos en el mismo estado exacto, pero los pares de Cooper sí pueden. En todo el superconductor, cada par de Cooper está en el mismo estado cuántico. Debido a esto, todo el circuito está en el mismo estado y actúa como un único objeto cuántico macroscópico.

Este estado cuántico macroscópico causa efectos cuánticos grandes y observables: el campo magnético se cuantifica y los estados vibracionales de un circuito del tamaño de la mano (o más grande) se vuelven discretos, al igual que los estados de energía de un solo átomo.

Los experimentos demostraron el túnel cuántico a escalas del tamaño de la palma de la mano al incluir uniones Josephson en el circuito. Estas uniones crean una barrera, similar a un muro de ladrillos, en el cable superconductor. Las corrientes eléctricas convencionales no pueden cruzar la barrera, pero esta supercorriente cuántica puede tunelizar a través de ella.

Por debajo de un cierto límite de velocidad de corriente, los electrones pasan a través de la pared sin ninguna resistencia. Su estado preferido de corriente finita y sin resistencia ni voltaje es el de la energía más baja. Los electrones naturalmente quieren permanecer en ese estado.

Pero cuando los laureados aumentaron cuidadosamente la corriente, los electrones tunelizaron fuera de este estado de baja energía, saltando a un estado de mayor energía y generando un pulso de voltaje característico. Ese proceso es análogo a cómo un átomo emite un fotón cuando un solo electrón salta entre capas. Un diseño experimental cuidadoso e innovador no dejó lugar para interpretar este efecto como otra cosa que saltos cuánticos en un sistema macroscópico.

Los fundamentos del Nobel a las creaciones de LLNL

Estos hallazgos son los componentes básicos de la computación cuántica superconductora en LLNL. Los bits cuánticos, o qubits, la unidad básica de información en las computadoras cuánticas, se pueden construir a partir de circuitos superconductores con uniones Josephson.

“Con una plataforma superconductora, no estás limitado a los sistemas cuánticos que te da la naturaleza, como los átomos individuales, ahora básicamente puedes hacer que el metal tenga la forma que quieras”, dijo O’Kelley. “Puedes hacer que tus uniones tengan el tamaño que quieras. Puedes hacer que tus bucles tengan el tamaño que quieras. Puedes diseñar los estados cuánticos exactos que necesitas”.

Con el Laboratorio de Diseño e Integración Cuántica (QuDIT), los investigadores de LLNL están aprovechando esa flexibilidad para determinar los materiales, los métodos de fabricación y la infraestructura óptimos para los qubits superconductores que podrían impulsar la próxima generación de computación.

La investigación del Nobel se conecta con ADMX

Los hallazgos ganadores del Premio Nobel también llevaron a avances en el Experimento de Materia Oscura de Axión (ADMX), que comenzó y operó en Livermore de 1996 a 2010. Ahora ubicado en la Universidad de Washington, el experimento y LLNL continúan buscando su objetivo: el axión.

Una partícula hipotética que podría explicar la materia oscura, el axión interactúa principalmente con la gravedad y solo muy débilmente con cualquier otra cosa. Eso hace que sea extremadamente difícil de detectar. Al utilizar un campo magnético extremadamente fuerte, ADMX tiene como objetivo convertir los axiones en fotones medibles. Pero incluso como fotones, su firma será muy, muy pequeña. Para que los científicos lo detecten, deberán amplificarlo, pero cada etapa de amplificación puede agregar ruido.

La tecnología de amplificación original del experimento se basaba en transistores, que tienen un nivel de ruido agregado equivalente a un cuerpo negro de 2 Kelvin. Pero cuanto más alta sea la temperatura, más tiempo deberá escanear el detector un cierto rango de frecuencia en busca del axión.

“John Clarke ideó un nuevo diseño inteligente que pudo básicamente hacer que ese ruido fuera casi cuántico, lo que está más cerca de los 50 miliKelvin en las frecuencias en las que operamos”, dijo Gianpaolo Carosi, científico de LLNL y coportavoz de ADMX. “Realmente se basó en ese artículo fundamental y en el trabajo que realizó con Michel Devoret y John Martinis para poder crear estos dispositivos que fueron fundamentales para ADMX. Habría tomado 100 años hacer el experimento si hubiéramos seguido utilizando la tecnología de transistores”.

El diseño de Clarke, basado en un dispositivo de interferencia cuántica superconductora (SQUID) acoplado a un resonador de microcinta, permitió construir amplificadores en el rango de frecuencia en el que operaba ADMX (gigahertz). Los SQUID en sí están construidos con anillos superconductores con uniones Josephson. Estos dispositivos pueden detectar y amplificar pequeños cambios magnéticos que surgen después de que un axión se convierte en un fotón, lo que los hace indispensables para ADMX.

“El SQUID, porque utiliza la unión Josephson superconductora, proporciona este estado cuántico que es extraordinariamente sensible a los cambios. No disipa casi ninguna energía y eso le permite amplificar mientras agrega una cantidad mínima de ruido”, dijo Carosi.

ADMX ha seguido adelante para escanear frecuencias más altas en busca del axión, lo que requiere una forma diferente de tecnología similar a SQUID. Las características clave, sin embargo, siguen siendo las mismas.

Diferentes en apariencia, misma base científica

O’Kelley enfatizó que si bien estos desafíos, la computación cuántica y la búsqueda de materia oscura, pueden parecer diferentes, comparten la misma base fundamental recién elogiada.

“Creo que esto ha sido digno de un Premio Nobel durante mucho tiempo”, dijo. “Afirma la importancia de la física que subyace a gran parte de lo que estamos haciendo en LLNL hoy”.

Carosi estuvo de acuerdo y agregó que el espacio de aplicación se extiende aún más, a campos como la imagenología cerebral.

“El trabajo que han realizado ha sentado las bases de todos los esfuerzos de computación cuántica basados en superconductores”, dijo. “Y las oportunidades que se derivan de esto son enormes”.

diciembre 20, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Exoplanetas: Cómo buscamos planetas fuera del Sistema Solar

by Editor de Tecnologia diciembre 14, 2025
written by Editor de Tecnologia

Hace casi 100 años, Clyde W. Tombaugh descubrió Plutón. Fue el último planeta descubierto hasta 1992, cuando los humanos encontraron otro, pero este nuevo planeta no orbitaba nuestro Sol, sino otra estrella. A estos planetas los llamamos extrasolares, o “exoplanetas” en resumen.

Desde entonces, los astrónomos han catalogado más de 6.000 exoplanetas. Si te parecía difícil recordar los nombres de los planetas de nuestro sistema solar, imagina recordar todos los planetas existentes, con nombres como HD 189733b. (Un lugar, por cierto, donde llueve vidrio fundido y el viento sopla a 9.000 kilómetros por hora).

Incluso los exoplanetas más cercanos están a más de 4 años luz de distancia (36 billones de kilómetros), lo que hace improbable que alguna vez podamos visitarlos. ¿Pero por qué molestarse en buscarlos? La razón es que nos ayudan a responder una pregunta ancestral: ¿Estamos solos en el universo? Hasta donde sabemos, se necesita un planeta para que exista vida, y la carrera para encontrar uno con características similares a las de la Tierra está en marcha.

¿Por Qué Son Tan Difíciles de Encontrar?

El problema es que no se puede simplemente tomar el mejor telescopio y empezar a buscar en el cielo. Los telescopios tienen un poder de resolución limitado, es decir, el tamaño angular más pequeño que pueden “ver”. Para el Telescopio Espacial Hubble, este poder de resolución es de 0,05 segundos de arco, una medida increíblemente pequeña: aproximadamente 1/72.000 de grado. El HST podría distinguir un planeta gigante del tamaño de Júpiter a una distancia de 590 mil millones de kilómetros. Es asombroso, pero solo representa 0,06 años luz, mientras que la estrella más cercana, Próxima Centauri, se encuentra a 4,25 años luz.

Otro problema es la tenue luminosidad de los planetas. Júpiter es fácil de ver en nuestro cielo nocturno debido a la luz solar que se refleja en su superficie. Sin embargo, no podemos ver Júpiter durante el día, porque esa luz reflejada es mucho más débil que la luz solar directa. Lo mismo ocurre con los exoplanetas. Al observar la luz de una estrella, los planetas que la orbitan simplemente no son lo suficientemente brillantes como para ser distinguibles.

Afortunadamente, existen otros métodos, y voy a explicar los dos que se utilizaron para encontrar la mayoría de los exoplanetas que conocemos hoy en día. Hay mucha física interesante involucrada, ¡así que empecemos!

Órbitas, Estrellas Bamboleantes y Desplazamientos al Azul

¿Qué sucede cuando un planeta se mueve alrededor de una estrella? Primero, existe una interacción gravitatoria que tira del planeta en dirección a la estrella. La magnitud de esta fuerza (FG) depende de la masa de la estrella (M) y del planeta (m), así como de la distancia (r) entre ellos:

Illustration: Rhett Allain

diciembre 14, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Mundo

Agua en el manto terrestre: Clave para la habitabilidad de la Tierra

Opciones alternativas:

  • Cómo el manto terrestre atrapó agua en sus inicios
  • Descubren cómo el manto terrestre almacenó agua primordial
  • Agua oculta en el manto: Origen de los océanos terrestres
  • Manto terrestre y agua: Nueva teoría sobre el origen de la vida

by Editor de Mundo diciembre 11, 2025
written by Editor de Mundo

Hace aproximadamente 4.600 millones de años, la Tierra era muy diferente al planeta azul y apacible que conocemos hoy. Impactos celestes frecuentes y violentos agitaban su superficie e interior, creando un océano de magma hirviente, un ambiente tan extremo que el agua líquida era imposible de existir, dejando al planeta entero semejante a un infierno.

Dado que actualmente el 70% de la superficie terrestre está cubierta por océanos, el misterio de cómo el agua sobrevivió y se conservó en nuestro planeta, desde un estado inicial fundido a uno mayoritariamente sólido, ha sido durante mucho tiempo objeto de estudio científico.

Cómo el agua pudo sobrevivir en la Tierra primitiva

Recientemente, un equipo de investigadores liderado por el profesor Du Zhixue del Instituto de Geoquímica de Guangzhou de la Academia China de las Ciencias (GIGCAS) descubrió que cantidades sustanciales de agua podrían haberse «bloqueado» eficientemente en las profundidades del manto a medida que este se cristalizaba a partir de un estado fundido.

Los hallazgos de los investigadores, publicados en Science, están redefiniendo nuestra comprensión del almacenamiento y la distribución del agua en las profundidades de la Tierra. Específicamente, su investigación reveló que la bridgmanita, que es el mineral más abundante en el manto terrestre, actúa como un «contenedor de agua» microscópico, lo que hizo posible que la Tierra primitiva retuviera una cantidad sustancial de agua en el manto a medida que el planeta se solidificaba.

Este agua retenida en las primeras etapas, argumenta el equipo, podría haber sido crucial para transformar la Tierra de un infierno ardiente en un mundo habitable.

Evolution of deep water from the early Earth to present day. Credit: Prof. Du Zhixue’s team

Avances experimentales y nuevas técnicas

Estudios previos, que se basaban en condiciones experimentales de baja temperatura, sugerían que la bridgmanita tenía una capacidad limitada de almacenamiento de agua. Los investigadores querían poner a prueba esta hipótesis, pero se enfrentaron a dos desafíos importantes. Primero, necesitaban simular las condiciones extremas que se encuentran a profundidades superiores a 660 kilómetros en un laboratorio. Segundo, tenían que detectar con precisión las señales de agua en muestras de bridgmanita, algunas más pequeñas que un décimo del ancho de un cabello humano, a concentraciones tan bajas como unos pocos cientos de partes por millón.

Superaron estos obstáculos construyendo un dispositivo experimental de celda de yunque de diamante equipado con calentamiento por láser y obtención de imágenes a alta temperatura. Este sistema de simulación de ultraalta presión, desarrollado por los propios investigadores, elevó drásticamente las temperaturas experimentales, hasta un extremo de ~4.100°C. Este sistema recreó con éxito las condiciones del manto profundo y permitió una medición precisa de las temperaturas de equilibrio, sentando las bases para comprender el papel de la temperatura en la forma en que los minerales absorben el agua.

Además, utilizando las avanzadas plataformas analíticas de GIGCAS, los investigadores aplicaron técnicas como la difracción de electrones tridimensional criogénica y NanoSIMS. En colaboración con el profesor Long Tao del Instituto de Geología de la Academia China de Ciencias Geológicas, también integraron la tomografía de sonda atómica (APT).

En conjunto, estas herramientas permitieron el desarrollo de métodos innovadores para analizar el agua a escala micro- y nanométrica, equipando efectivamente al mundo microscópico con escáneres de tomografía computarizada química de ultraalta resolución y espectrómetros de masas. Esta tecnología permitió al equipo visualizar claramente la distribución del agua en muestras diminutas y confirmar que el agua está disuelta estructuralmente en la bridgmanita.

Descubre lo último en ciencia, tecnología y espacio con más de 100.000 suscriptores que confían en Phys.org para obtener información diaria.
Suscríbete a nuestro boletín gratuito y recibe actualizaciones sobre avances,
innovaciones e investigaciones que importan, diariamente o semanalmente.

Implicaciones para los reservorios de agua de la Tierra

Los datos del equipo revelaron que la capacidad de «bloqueo de agua» de la bridgmanita (medida por su coeficiente de partición del agua) aumenta significativamente con el aumento de la temperatura. Esto significa que durante la fase más caliente de la Tierra, el «océano de magma», la bridgmanita cristalizada podría haber retenido mucha más agua de lo que se pensaba anteriormente, lo que refuta directamente la idea largamente sostenida de que el manto inferior profundo está casi seco.

Basándose en este descubrimiento, el equipo modeló la cristalización del océano de magma. Las simulaciones muestran que, gracias a la fuerte capacidad de bloqueo de agua de la bridgmanita bajo las altas temperaturas iniciales, el manto inferior se convirtió en el mayor reservorio de agua en el manto sólido después de que el océano de magma se solidificó. Su capacidad de almacenamiento, indica el modelo, podría ser de cinco a 100 veces mayor que las estimaciones anteriores. La cantidad total de agua retenida en el manto sólido temprano podría haber estado entre 0,08 y una vez el volumen de todos los océanos modernos.

El papel del agua profunda en la evolución de la Tierra

Este agua profundamente enterrada no fue una reserva estática. En cambio, actuó como un «lubricante» para la masiva maquinaria geológica de la Tierra: redujo el punto de fusión y la viscosidad de las rocas del manto, promoviendo la circulación interna y el movimiento de las placas, y proporcionando al planeta una vitalidad evolutiva sostenida. Con el tiempo, este agua aislada se «bombeó» gradualmente de regreso a la superficie a través de la actividad magmática, contribuyendo a la formación de la atmósfera primordial y los océanos de la Tierra.

La «chispa de agua» sellada dentro de la estructura temprana de la Tierra, señalaron los investigadores, probablemente sirvió como la fuerza crucial que transformó nuestro planeta de un infierno magmático en el mundo azul y habitable que conocemos hoy.

Más información:
Wenhua Lu et al, Substantial water retained early in Earth’s deep mantle, Science (2025). DOI: 10.1126/science.adx5883. www.science.org/doi/10.1126/science.adx5883

Proporcionado por
Chinese Academy of Sciences


diciembre 11, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Plasma: Descubren granos de hielo que desafían la gravedad en el espacio

by Editor de Tecnologia diciembre 10, 2025
written by Editor de Tecnologia

Investigadores en Estados Unidos han descubierto recientemente un nuevo comportamiento en los plasmas tras recrear las extrañas condiciones que se dan en el espacio profundo, donde el polvo helado, el gas electrificado y las temperaturas gélidas colisionan.

En el laboratorio, el equipo de científicos del Instituto de Tecnología de California (Caltech) reprodujo los ambientes fríos y cargados eléctricamente que se encuentran alrededor de estrellas recién nacidas, en los anillos planetarios y dentro de vastas nubes moleculares.

Para su sorpresa, dentro de su cámara de plasma criogénico, los diminutos granos crecieron hasta formar delicadas estructuras fractales similares a copos de nieve, que luego se desplazaron, giraron y rebotaron a través del plasma como si la gravedad apenas existiera.

El estudio, liderado por André Nicolov, estudiante de posgrado (MS ’22) de Caltech, y Paul Bellan, doctor en física del plasma de la universidad, podría cambiar la comprensión del comportamiento del polvo cargado tanto en el universo como en los sistemas de plasma industriales.

Desafiando la gravedad

Dentro de un entorno predominantemente de gas neutro, los investigadores produjeron un plasma de electrones e iones positivos entre electrodos ultrarréfrigerados. Introdujeron vapor de agua y observaron la formación espontánea de granos de hielo utilizando un objetivo de microscopio de larga distancia.

Posteriormente, observaron que los granos se cargaron rápidamente de forma negativa a medida que los electrones de alta velocidad se acumulaban en sus estructuras fractales y esponjosas. Como resultado, no se asentaron en el fondo de la cámara como lo harían las partículas sólidas normales.

“Resulta que la esponjosidad de los granos tiene consecuencias importantes”, afirmó Bellan. “Son tan esponjosos que su relación carga-masa es muy alta, por lo que las fuerzas eléctricas son mucho más importantes que las fuerzas gravitatorias”.

The instrumental setup used to study ice grains in a cryogenically cooled plasma system in Bellan’s lab at Caltech.
Credit: Bellan Plasma Group / Caltech

En cambio, los granos se dispersaron por todo el plasma y comenzaron a flotar hacia arriba y hacia abajo, girando y arremolinándose en vórtices, un fenómeno que Nicolov describió como “complicado” y difícil de predecir.

Este comportamiento continuó incluso para granos de hielo que se expandieron a tamaños cientos de veces mayores que las esferas de plástico sólido utilizadas previamente. Cuanto más grandes se volvían los granos, más esponjosa se volvía su estructura.

“La estructura microscópica y esponjosa de los granos impacta en el movimiento de toda la nube de granos y del plasma”, señaló Nicolov. Los granos quedaron atrapados dentro del plasma por un campo eléctrico que apuntaba hacia adentro.

Dinámicas inesperadas

Debido a que todos están cargados negativamente, los granos se repelían entre sí, dispersándose sin colisionar. Según el equipo, su estructura esponjosa les hacía desplazarse a través del gas neutro como plumas al viento.

Creen que estos hallazgos podrían ayudarles a comprender mejor los entornos polvorientos en la astrofísica, donde interactúan los granos de hielo cargados. Estos incluyen regiones como los anillos de Saturno, las nubes moleculares formadoras de estrellas y los discos protoplanetarios.

Dado que los granos tienen grandes superficies y altas relaciones carga-masa, pueden actuar como intermediarios, transfiriendo el impulso de los campos eléctricos al gas neutro que los rodea.

The cloud of ice grains exhibits complex motion between the electrodes that maintain the plasma in the experimental setup.
Credit: Bellan Plasma Group / Caltech

“Se podría crear un viento donde el campo eléctrico empuja los granos de polvo, que a su vez empujan el gas neutro”, afirmó Bellan. Añadió que estos diminutos granos esponjosos podrían incluso ser responsables de las corrientes de gas y polvo que atraviesan la galaxia.

Nicolov señaló que los hallazgos también podrían ayudar en la fabricación de semiconductores, donde el polvo que se forma dentro de los plasmas industriales puede asentarse sobre las diminutas características de los chips y arruinarlos.

Comprender cómo crecen y se mueven podría ayudar a mejorar su control y eliminación. “Si quieres controlar los granos, tienes que tener en cuenta esta naturaleza fractal”, concluyó Nicolov en un comunicado de prensa.

El estudio ha sido publicado en la revista Physical Review Letters.

diciembre 10, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Newer Posts
Older Posts
  • Aviso Legal
  • Política de Cookies
  • Términos y Condiciones
  • Política de Privacidad
  • CONTACTO
  • Política de Correcciones
  • Equipo Editorial
  • Política Editorial
  • SOBRE NOTIULTI

El servicio de alojamiento web más recomendado. Para quejas, abusos o publicidad, contacte: admin@notiulti.com


Back To Top
Notiulti
  • Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología