productos de aerosol procesados

Experiencia de fabricación de más de 30 años
Las líneas de base débiles y el sesgo de informes conducen a un sobre-optimismo en el aprendizaje automático de las ecuaciones diferenciales parciales relacionadas con el fluido.

Las líneas de base débiles y el sesgo de informes conducen a un sobre-optimismo en el aprendizaje automático de las ecuaciones diferenciales parciales relacionadas con el fluido.

Gracias por visitar Nature.com. La versión del navegador que está utilizando tiene soporte CSS limitado. Para obtener los mejores resultados, le recomendamos que use una versión más nueva de su navegador (o deshabilite el modo de compatibilidad en Internet Explorer). Mientras tanto, para garantizar el soporte continuo, estamos mostrando el sitio sin estilo o JavaScript.
Una de las aplicaciones más prometedoras del aprendizaje automático en física computacional es la solución acelerada de ecuaciones diferenciales parciales (PDE). El objetivo principal de un solucionador de ecuaciones diferencial parcial basado en el aprendizaje automático es producir soluciones que sean lo suficientemente precisas más rápidas que los métodos numéricos estándar para servir como comparación de referencia. Primero realizamos una revisión sistemática de la literatura de aprendizaje automático para resolver ecuaciones diferenciales parciales. De todos los documentos que informan el uso de ML para resolver ecuaciones diferenciales parciales de fluido y reclamando superioridad sobre los métodos numéricos estándar, identificamos el 79% (60/76) en comparación con las líneas de base débiles. En segundo lugar, encontramos evidencia de un sesgo generalizado de informes, particularmente en los informes de resultados y el sesgo de publicación. Llegamos a la conclusión de que la investigación de aprendizaje automático sobre la resolución de ecuaciones diferenciales parciales es demasiado optimista: los datos de entrada débiles pueden conducir a resultados demasiado positivos, y el sesgo de informes puede conducir a un subregistro de resultados negativos. En gran parte, estos problemas parecen ser causados ​​por factores similares a las crisis de reproducibilidad pasadas: discreción del investigador y sesgo de resultado positivo. Pidamos que el cambio cultural de abajo hacia arriba minimice los informes sesgados y la reforma estructural de arriba hacia abajo para reducir los incentivos perversos para hacerlo.
La lista de autores y artículos generados por la revisión sistemática, así como la clasificación de cada artículo en la muestra aleatoria, está disponible públicamente en https://doi.org/10.17605/osf.io/gq5b3 (ref. 124).
El código necesario para reproducir los resultados en la Tabla 2 se puede encontrar en GitHub: https://github.com/nickmcgreivy/weakbaselinesmlpde/ (Ref. 125) y en Code Ocean: https://codeocean.com/capsule/9605539/ Árbol/ v1 (enlace 126) y https://codeocean.com/capsule/0799002/tree/v1 (enlace 127).
Randall, D. y Welser, K., La crisis de irreproducibilidad en la ciencia moderna: causas, consecuencias y caminos para la reforma (Asociación Nacional de Científicos, 2018).
Ritchie, S. Science Fiction: cómo fraude, sesgo, silencio y exageración socavan la búsqueda de la verdad (Vintage, 2020).
Colaboración científica abierta. Evaluación de la reproducibilidad en la ciencia psicológica. Science 349, AAAC4716 (2015).
Prinz, F., Schlange, T. y Asadullah, K. Lo creas o no: ¿Cuánto podemos confiar en datos publicados sobre posibles objetivos farmacológicos? Nat. Rev. "El descubrimiento de drogas". 10, 712 (2011).
Begley, KG y Ellis, LM elevando los estándares en la investigación preclínica del cáncer. Nature 483, 531–533 (2012).
A. Gelman y E. Loken, El jardín de los caminos de bifurcación: por qué las comparaciones múltiples son un problema incluso sin "expediciones de pesca" o "p-hacks" e hipótesis de investigación preformadas, vol. 348, 1–17 (Departamento de Estadísticas, 2013).
Karagiorgi, G., Kasecka, G., Kravitz, S., Nachman, B. y Shi, D. Aprendizaje automático en busca de una nueva física fundamental. Nat. Doctor en Filosofía en Física. 4, 399–412 (2022).
Dara S, Damercherla S, Jadhav SS, Babu CM y Ahsan MJ. Aprendizaje automático en el descubrimiento de fármacos: una revisión. Atif. Intel. Ed. 55, 1947–1999 (2022).
Mather, AS y Coote, Ml de aprendizaje profundo en química. J.Chemistry. notificar. Modelo. 59, 2545–2559 (2019).
Rajkomar A., ​​Dean J. y Kohan I. Aprendizaje automático en medicina. New England Journal of Medicine. 380, 1347–1358 (2019).
Grimmer J, Roberts Me. y Stewart BM Machine Learning en ciencias sociales: un enfoque agnóstico. Rev. Ann Ball. ciencia. 24, 395–419 (2021).
Jump, J. et al. Haga predicciones de estructura de proteínas altamente precisas usando Alfafold. Nature 596, 583–589 (2021).
Gundersen, OE, Coakley, K., Kirkpatrick, K. y Gil, Y. Fuentes de irreproducibilidad en el aprendizaje automático: una revisión. Preprint disponible en https://arxiv.org/abs/2204.07610 (2022).
Scully, D., Snook, J., Wiltschko, A. y Rahimi, A. Curse ganador? Sobre la velocidad, el progreso y el rigor de la evidencia empírica (ICLR, 2018).
Armstrong, TG, Moffat, A., Webber, W. y Zobel, J. mejoras no aditivas: resultados de búsqueda preliminares desde 1998. 18ª Conferencia ACM sobre Gestión de Información y Conocimiento 601–610 (ACM 2009).
Kapoor, S. y Narayanan, A. Fugas y crisis de reproducibilidad en la ciencia basada en el aprendizaje automático. Patrones, 4, 100804 (2023).
Kapoor S. et al. Reforma: estándares de informes científicos basados ​​en el aprendizaje automático. Preimpresión disponible en https://arxiv.org/abs/2308.07832 (2023).
Demasi, O., Cording, C. y Recht, B. Las comparaciones sin sentido pueden conducir a un falso optimismo en el aprendizaje automático médico. PLoS One 12, E0184604 (2017).
Roberts, M., et al. Las trampas y las mejores prácticas comunes para usar el aprendizaje automático para detectar y predecir CoVID-19 a partir de radiografías de tórax y tomografía computarizada. Nat. Max. Intel. 3, 199–217 (2021).
Winantz L. et al. Modelos predictivos para el diagnóstico y pronóstico de CoVID-19: una revisión sistemática y una evaluación crítica. BMJ 369, M1328 (2020).
Whalen S., Schreiber J., Noble WS y Pollard Ks que superan las dificultades del uso de aprendizaje automático en genómica. Nat. Pastor Ginette. 23, 169–181 (2022).
Atris N. et al. Best practices for machine learning in chemistry. Nat. Químico. 13, 505–508 (2021).
Brunton SL y Kutz Jn direcciones prometedoras para el aprendizaje automático de ecuaciones diferenciales parciales. Nat. calcular. ciencia. 4, 483–494 (2024).
Vinuesa, R. y Brunton, SL mejorando la dinámica de fluidos computacionales a través del aprendizaje automático. Nat. calcular. ciencia. 2, 358–366 (2022).
Comeau, S. et al. Aprendizaje automático científico con redes neuronales informadas físicamente: dónde estamos ahora y qué sigue. J. Ciencia. calcular. 92, 88 (2022).
Duraisamy, K., Yaccarino, G. y Xiao, H. Modelado de turbulencia en la era de los datos. Edición revisada de Ann. 51, 357–377 (2019).
Durran, DR Métodos numéricos para resolver ecuaciones de onda en hidrodinámica geofísica, vol. 32 (Springer, 2013).
Mishra, S. Un marco de aprendizaje automático para acelerar el cálculo de las ecuaciones diferenciales basadas en datos. matemáticas. ingeniero. https://doi.org/10.3934/mine.2018.1.118 (2018).
Kochikov D. et al. Aprendizaje automático: aceleración de la dinámica de fluidos computacionales. proceso. Academia Nacional de Ciencias. ciencia. US 118, E2101784118 (2021).
Kadapa, K. Aprendizaje automático para informática e ingeniería: una breve introducción y algunos problemas clave. Preprint disponible en https://arxiv.org/abs/2112.12054 (2021).
Ross, A., Li, Z., Perezhogin, P., Fernández-Grande, C. y Zanna, L. Análisis comparativo de la parametrización de la subgrid de océano de aprendizaje automático en modelos idealizados. J.Adv. Modelo. Sistema de tierra. 15. E2022MS003258 (2023).
Lipppe, P., Wieling, B., Perdikaris, P., Turner, R. y Brandstetter, J. PDE Refinamiento: Lograr extrusiones largas precisas con un solucionador PDE neural. 37ª Conferencia sobre Sistemas de Procesamiento de Información Neural (Neurips 2023).
Frachas, PR et al. Algoritmo de retroceso y cálculo del depósito en redes neuronales recurrentes para predecir la dinámica espacio -temporal compleja. Red neuronal. 126, 191–217 (2020).
Raissi, M., Perdikaris, P. y Karnidakis, GE Física, Informática, Redes Neural: un marco de aprendizaje profundo para resolver problemas hacia adelante e inversos que involucran ecuaciones diferenciales parciales no lineales. J. Computadora. física. 378, 686–707 (2019).
Grossmann, TG, Komorowska, UJ, Lutz, J. y Schönlieb, K.-B. ¿Pueden las redes neuronales basadas en la física superan los métodos de elementos finitos? IMA J. Aplicaciones. Matemáticas. 89, 143–174 (2024).
De la Mata, FF, Gijon, A., Molina-Solana, M. y Gómez-Romero, J. Redes neuronales basadas en la física para el modelado basado en datos: ventajas, limitaciones y oportunidades. física. A 610, 128415 (2023).
Zhuang, P.-Y. & Barba, LA Un informe empírico sobre redes neuronales basadas en la física en modelado de fluidos: dificultades y decepciones. Preimpresión disponible en https://arxiv.org/abs/2205.14249 (2022).
Zhuang, P.-Y. y Barba, LA Limitaciones predictivas de redes neuronales físicamente informadas sobre la formación de vórtice. Preimpresión disponible en https://arxiv.org/abs/2306.00230 (2023).
Wang, S., Yu, H., and Perdikaris, P. When and why pinns fail to train: A neural tangent nucleus perspective. J. Computer. física. 449, 110768 (2022).
Krishnapriyan, A., Gholami, A., Zhe, S., Kirby, R. y Mahoney, MW Características de posibles modos de falla en información neuronal de información física. 35ª Conferencia sobre Sistemas de Procesamiento de Información Neural Vol. 34, 26548–26560 (Neurips 2021).
Basir, S. y Senokak, I. Un estudio crítico de los modos de falla en redes neuronales basadas en la física. En el foro AIAA Scitech 2022 2353 (Ark, 2022).
Karnakov P., Litvinov S. y Koumoutsakos P. Resolviendo problemas inversos físicos optimizando las pérdidas discretas: aprendizaje rápido y preciso sin redes neuronales. proceso. Academia Nacional de Ciencias. ciencia. Nexus 3, PGAE005 (2024).
Gundersen OE Principios básicos de reproducibilidad. Phil.Cross. R. Shuker. A 379, 20200210 (2021).
Aromataris E y Pearson A. Revisiones sistemáticas: una descripción general. Sí. J. Nursing 114, 53–58 (2014).
Magiera, J., Ray, D., Hesthaven, JS y Rohde, K. Redes neuronales conscientes de las restricciones para el problema de Riemann. J. Computadora. física. 409, 109345 (2020).
Bezgin DA, Schmidt SJ y ADAMS NA Circuito de volumen finito con datos físicamente informados para datos para choques de voltaje reducido no clásicos. J. Computadora. física. 437, 110324 (2021).


Tiempo de publicación: septiembre-29-2024