Tack för att du besöker Nature.com. Den version av webbläsare du använder har begränsat CSS -stöd. För bästa resultat rekommenderar vi att du använder en nyare version av din webbläsare (eller inaktiverar kompatibilitetsläge i Internet Explorer). Under tiden, för att säkerställa pågående stöd, visar vi webbplatsen utan styling eller JavaScript.
En av de mest lovande tillämpningarna av maskininlärning i beräkningsfysik är den accelererade lösningen av partiella differentiella ekvationer (PDE). Huvudmålet för en maskininlärningsbaserad partiell differentiell ekvationslösare är att producera lösningar som är tillräckligt exakta snabbare än standard numeriska metoder för att fungera som en baslinjemedelsjämförelse. Vi genomför först en systematisk översyn av maskininlärningslitteraturen om att lösa partiella differentiella ekvationer. Av alla papper som rapporterar användningen av ML för att lösa fluid -partiella differentiella ekvationer och hävda överlägsenhet jämfört med standard numeriska metoder, identifierade vi 79% (60/76) jämfört med svaga baslinjer. För det andra hittade vi bevis på utbredd rapporteringsförskjutning, särskilt i resultatrapportering och publiceringsförskjutning. Vi drar slutsatsen att maskininlärningsforskning om att lösa partiella differentiella ekvationer är alltför optimistiska: Svaga inmatningsdata kan leda till alltför positiva resultat, och rapportering av förspänning kan leda till underrapportering av negativa resultat. Till stor del verkar dessa problem orsakas av faktorer som liknar tidigare reproducerbarhetskriser: utredarens diskretion och positiva resultatförspänning. Vi kräver att kulturell förändring av bottom-up för att minimera partisk rapportering och top-down strukturreform för att minska perversa incitament för att göra det.
Koden som behövs för att reproducera resultaten i tabell 2 kan hittas på Github: https://github.com/nickmcgreivy/weakbaselinesmlpde/ (ref. 125) och på kod ocean: https://codeocean.com/capsule/9605539/ Träd/ v1 (länk 126) och https://codeocean.com/capsule/0799002/tree/v1 (länk 127).
Randall, D. och Welser, K., Irreproducerbarhetskrisen i modern vetenskap: orsaker, konsekvenser och vägar för reform (National Association of Scientists, 2018).
Ritchie, S. Science Fiction: Hur bedrägeri, partiskhet, tystnad och hype undergräver sökningen efter sanning (Vintage, 2020).
Öppet vetenskapligt samarbete. Utvärdering av reproducerbarhet inom psykologisk vetenskap. Science 349, AAAC4716 (2015).
Prinz, F., Schlange, T. och Asadullah, K. Tro det eller inte: hur mycket kan vi lita på publicerade data om potentiella läkemedelsmål? Nat. Pastor "Upptäckten av droger." 10, 712 (2011).
Begley, KG och Ellis, LM höjer standarder i preklinisk cancerforskning. Nature 483, 531–533 (2012).
A. Gelman och E. Loken, The Garden of Forking Paths: Varför flera jämförelser är ett problem även utan "fiskeekspeditioner" eller "P-Hacks" och förformade forskningshypoteser, Vol. 348, 1–17 (Department of Statistics, 2013).
Karagiorgi, G., Kasecka, G., Kravitz, S., Nachman, B. och Shi, D. Maskininlärning på jakt efter ny grundläggande fysik. Nat. Läkare i filosofin i fysik. 4, 399–412 (2022).
Dara S, Damercherla S, Jadhav SS, Babu CM och Ahsan MJ. Maskininlärning i läkemedelsupptäckt: En översyn. Atif. Intel. Red. 55, 1947–1999 (2022).
Mather, AS och Coote, ML Deep Learning in Chemistry. J.Chemistry. meddela. Modell. 59, 2545–2559 (2019).
Rajkomar A., Dean J. och Kohan I. Maskininlärning i medicin. New England Journal of Medicine. 380, 1347–1358 (2019).
Grimmer J, Roberts mig. och Stewart BM Machine Learning in Social Sciences: En agnostisk strategi. Pastor Ann Ball. vetenskap. 24, 395–419 (2021).
Jump, J. et al. Gör mycket exakta proteinstrukturförutsägelser med hjälp av AlphaFold. Nature 596, 583–589 (2021).
Gundersen, OE, Coakley, K., Kirkpatrick, K. och Gil, Y. Källor till irreproducerbarhet i maskininlärning: en översyn. Förtryck tillgängligt på https://arxiv.org/abs/2204.07610 (2022).
Scully, D., Snook, J., Wiltschko, A. och Rahimi, A. Vinnarens förbannelse? Om hastighet, framsteg och strikt av empiriska bevis (ICLR, 2018).
Armstrong, TG, Moffat, A., Webber, W. och Zobel, J. Icke-additiva förbättringar: Preliminära sökresultat sedan 1998. 18: e ACM-konferensen om information och kunskapshantering 601–610 (ACM 2009).
Kapoor, S. och Narayanan, A. Läckage och reproducerbarhetskriser i maskininlärningsbaserad vetenskap. Mönster, 4, 100804 (2023).
Kapoor S. et al. Reform: Vetenskapliga rapporteringsstandarder baserade på maskininlärning. Förtryck tillgängligt på https://arxiv.org/abs/2308.07832 (2023).
Demasi, O., Cording, C. och Recht, B. meningslösa jämförelser kan leda till falsk optimism i medicinsk maskininlärning. PLoS One 12, E0184604 (2017).
Roberts, M., et al. Vanliga fallgropar och bästa metoder för att använda maskininlärning för att upptäcka och förutsäga covid-19 från röntgenstrålar och datortomografi. Nat. Max. Intel. 3, 199–217 (2021).
Winantz L. et al. Förutsägbara modeller för diagnos och prognos för covid-19: en systematisk översyn och kritisk bedömning. BMJ 369, M1328 (2020).
Whalen S., Schreiber J., Noble WS och Pollard KS som övervinner fallgroparna för att använda maskininlärning i genomik. Nat. Pastor Ginette. 23, 169–181 (2022).
Atris N. et al. Bästa metoder för maskininlärning i kemi. Nat. Kemisk. 13, 505–508 (2021).
Brunton SL och Kutz JN Löfte vägbeskrivningar för maskininlärning av partiella differentiella ekvationer. Nat. kalkylera. vetenskap. 4, 483–494 (2024).
Vinuesa, R. och Brunton, SL förbättrar beräkningsvätskedynamiken genom maskininlärning. Nat. beräkna. vetenskap. 2, 358–366 (2022).
Comeau, S. et al. Vetenskaplig maskininlärning med fysiskt informerade neurala nätverk: där vi är nu och vad är nästa. J. Science. kalkylera. 92, 88 (2022).
Duraisamy, K., Yaccarino, G. och Xiao, H. Turbulence -modellering i datatiden. Reviderad utgåva av Ann. 51, 357–377 (2019).
Durran, Dr numeriska metoder för att lösa vågekvationer i geofysisk hydrodynamik, Vol. 32 (Springer, 2013).
Mishra, S. Ett maskininlärningsram för att påskynda datadriven beräkning av differentiella ekvationer. matematik. ingenjör. https://doi.org/10.3934/mine.2018.1.118 (2018).
Kochikov D. et al. Maskininlärning - Acceleration av beräkningsvätskedynamik. behandla. National Academy of Sciences. vetenskap. US 118, E2101784118 (2021).
KADAPA, K. Maskininlärning för datavetenskap och teknik - en kort introduktion och några viktiga frågor. Förtryck tillgängligt på https://arxiv.org/abs/2112.12054 (2021).
Ross, A., Li, Z., Perezhogin, P., Fernandez-Granda, C. och Zanna, L. Jämförande analys av maskininlärning av havssubgridparameterisering i idealiserade modeller. J.Adv. Modell. Jordsystem. 15. E2022MS003258 (2023).
Lippe, P., Wieling, B., Perdikaris, P., Turner, R., and Brandstetter, J. PDE refinement: achieving accurate long extrusions with a neural PDE solver. 37: e konferensen om neurala informationsbehandlingssystem (Neurips 2023).
Frachas, Pr et al. Backpropagationsalgoritm och beräkning av reservoar i återkommande neurala nätverk för att förutsäga komplex spatiotemporal dynamik. Neural Network. 126, 191–217 (2020).
Raissi, M., Perdikaris, P. and Karniadakis, GE Physics, computer science, neural networks: a deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations. J. dator. fysik. 378, 686–707 (2019).
Grossmann, TG, Komorowska, UJ, Lutz, J. och Schönlieb, K.-B. Kan fysikbaserade neurala nätverk överträffa metoder för ändliga element? Ima J. Applications. matematik. 89, 143–174 (2024).
de la Mata, FF, Gijon, A., Molina-Solana, M., and Gómez-Romero, J. Physics-based neural networks for data-driven modeling: advantages, limitations, and opportunities. fysik. A 610, 128415 (2023).
Zhuang, P.-Y. & Barba, LA En empirisk rapport om fysikbaserade neurala nätverk i flytande modellering: fallgropar och besvikelser. Förtryck tillgängligt på https://arxiv.org/abs/2205.14249 (2022).
Zhuang, P.-Y. och Barba, LA -prediktiva begränsningar av fysiskt informerade neurala nätverk på virvelbildning. Förtryck tillgängligt på https://arxiv.org/abs/2306.00230 (2023).
Wang, S., Yu, H. och Perdikaris, P. När och varför Pinns misslyckas med att träna: ett neuralt tangent nucleus -perspektiv. J. dator. fysik. 449, 110768 (2022).
Krishnapriyan, A., Gholami, A., Zhe, S., Kirby, R., and Mahoney, MW Characteristics of possible failure modes in physical information neural networks. 35: e konferensen om neurala informationsbehandlingssystem Vol. 34, 26548–26560 (Neurips 2021).
Basir, S. och Senokak, I. En kritisk studie av fellägen i fysikbaserade neurala nätverk. I AIAA SCITECH 2022 Forum 2353 (Ark, 2022).
Karnakov P., Litvinov S. och Koumoutsakos P. Lösa fysiska omvända problem genom att optimera diskreta förluster: snabbt och exakt lärande utan neurala nätverk. behandla. National Academy of Sciences. vetenskap. Nexus 3, PGAE005 (2024).
Gundersen OE Grundläggande principer för reproducerbarhet. Phil.Cross. R. Shuker. A 379, 20200210 (2021).
Aromataris E och Pearson A. Systematiska recensioner: En översikt. Ja. J. Nursing 114, 53–58 (2014).
Magiera, J., Ray, D., Hesthaven, JS och Rohde, K. Begränsningsmedvetna neurala nätverk för Riemann-problemet. J. dator. fysik. 409, 109345 (2020).
Bezgin DA, Schmidt SJ och Adams NA-datadrivna fysiskt informerade ändliga volymkretsar för icke-klassiska reducerade spänningschocker. J. dator. fysik. 437, 110324 (2021).
Posttid: september-29-2024