Takk for at du besøker Nature.com. Versjonen av nettleseren du bruker har begrenset CSS -støtte. For best resultat anbefaler vi at du bruker en nyere versjon av nettleseren din (eller deaktiver kompatibilitetsmodus i Internet Explorer). I mellomtiden, for å sikre kontinuerlig støtte, viser vi nettstedet uten styling eller JavaScript.
En av de mest lovende anvendelsene av maskinlæring i beregningsfysikk er den akselererte løsningen av delvise differensialligninger (PDE -er). Hovedmålet med en maskinlæringsbasert delvis differensialligningsløser er å produsere løsninger som er nøyaktige nok raskere enn standard numeriske metoder for å tjene som en baseline-sammenligning. Vi gjennomfører først en systematisk gjennomgang av maskinlæringslitteraturen om å løse delvise differensialligninger. Av alle papirene som rapporterer om bruk av ML for å løse væske delvis differensialligninger og kreve overlegenhet over standard numeriske metoder, identifiserte vi 79% (60/76) sammenlignet med svake baselinjer. For det andre fant vi bevis på utbredt rapporteringsskjevhet, spesielt i utfallsrapportering og publiseringsskjevhet. Vi konkluderer med at maskinlæringsforskning på å løse delvise differensialligninger er altfor optimistiske: svake inngangsdata kan føre til altfor positive resultater, og rapportering av skjevhet kan føre til underrapportering av negative resultater. I stor grad ser disse problemene ut til å være forårsaket av faktorer som ligner på reproduserbarhetskriser: etterforskers skjønn og positivt utfallsskjevhet. Vi etterlyser kulturell endring for å minimere partisk rapportering og ovenfra og ned strukturell reform for å redusere perverse insentiver til å gjøre det.
Listen over forfattere og artikler generert av den systematiske gjennomgangen, samt klassifiseringen av hver artikkel i den tilfeldige prøven, er offentlig tilgjengelig på https://doi.org/10.17605/osf.io/gq5b3 (ref. 124).
Koden som trengs for å reprodusere resultatene i tabell 2, finner du på github: https://github.com/nickmcgreivy/weakbaselinesmlpde/ (ref. 125) og på kode Ocean: https://codeocean.com/capsule/9605539/ Tre/ v1 (lenke 126) og https://codeocean.com/capsule/0799002/tree/v1 (link 127).
Randall, D., og Welser, K., The Ireproducibility Crisis in Modern Science: Causes, Consequences and Pathways for Reform (National Association of Scientists, 2018).
Ritchie, S. Science Fiction: Hvordan svindel, skjevhet, stillhet og hype undergraver søket etter sannhet (Vintage, 2020).
Åpen vitenskapelig samarbeid. Vurdering av reproduserbarhet i psykologisk vitenskap. Science 349, AAAC4716 (2015).
Prinz, F., Schlange, T. og Asadullah, K. Tro det eller ei: Hvor mye kan vi stole på publiserte data om potensielle medikamentmål? Nat. Pastor "Oppdagelsen av narkotika." 10, 712 (2011).
Begley, KG og Ellis, LM Raising Standards in Preklinical Cancer Research. Nature 483, 531–533 (2012).
A. Gelman og E. Loken, Garden of Forficing Paths: Hvorfor flere sammenligninger er et problem selv uten "fiskeekspedisjoner" eller "P-hacks" og forhåndsformet forskningshypoteser, vol. 348, 1–17 (Department of Statistics, 2013).
Karagiorgi, G., Kasecka, G., Kravitz, S., Nachman, B., og Shi, D. Maskinlæring på jakt etter ny grunnleggende fysikk. Nat. Doctor of Philosophy in Physics. 4, 399–412 (2022).
Dara S, Damercherla S, Jadhav SS, Babu CM og Ahsan MJ. Maskinlæring i Drug Discovery: En gjennomgang. Atif. Intel. Ed. 55, 1947–1999 (2022).
Mather, As and Coote, ml dyp læring i kjemi. J.Chemistry. meddele. Modell. 59, 2545–2559 (2019).
Rajkomar A., Dean J. og Kohan I. Maskinlæring i medisin. New England Journal of Medicine. 380, 1347–1358 (2019).
Grimmer J, Roberts meg. og Stewart BM Machine Learning in Social Sciences: En agnostisk tilnærming. Pastor Ann Ball. vitenskap. 24, 395–419 (2021).
Jump, J. et al. Gjør meget nøyaktige proteinstrukturforutsigelser ved bruk av Alphafold. Nature 596, 583–589 (2021).
Gundersen, OE, Coakley, K., Kirkpatrick, K., og Gil, Y. Kilder til irreproduserbarhet i maskinlæring: en gjennomgang. Forhåndtrykk tilgjengelig på https://arxiv.org/abs/2204.07610 (2022).
Scully, D., Snook, J., Wiltschko, A., og Rahimi, A. Winner's Curse? På hastigheten, fremgangen og strengheten av empiriske bevis (ICLR, 2018).
Armstrong, TG, Moffat, A., Webber, W., og Zobel, J. Ikke-additive forbedringer: foreløpige søkeresultater siden 1998. 18. ACM-konferanse om informasjon og kunnskapsstyring 601–610 (ACM 2009).
Kapoor, S. og Narayanan, A. Lekkasje- og reproduserbarhetskriser i maskinlæringsbasert vitenskap. Mønstre, 4, 100804 (2023).
Kapoor S. et al. Reform: Vitenskapelig rapportering av standarder basert på maskinlæring. Forhåndtrykk tilgjengelig på https://arxiv.org/abs/2308.07832 (2023).
Demasi, O., Cording, C. og Recht, B. Meningsløse sammenligninger kan føre til falsk optimisme i medisinsk maskinlæring. PLoS One 12, E0184604 (2017).
Roberts, M., et al. Vanlige fallgruver og beste praksis for bruk av maskinlæring for å oppdage og forutsi Covid-19 fra røntgenbilder av brystet og beregnet tomografi. Nat. Maks. Intel. 3, 199–217 (2021).
Winantz L. et al. Prediktive modeller for diagnose og prognose av Covid-19: en systematisk gjennomgang og kritisk vurdering. BMJ 369, M1328 (2020).
Whalen S., Schreiber J., Noble WS og Pollard KS som overvinner fallgruvene ved bruk av maskinlæring i genomikk. Nat. Pastor Ginette. 23, 169–181 (2022).
Atris N. et al. Beste praksis for maskinlæring i kjemi. Nat. Kjemisk. 13, 505–508 (2021).
Brunton SL og Kutz JN lovet retninger for maskinlæring av delvis differensialligninger. Nat. kalkulere. vitenskap. 4, 483–494 (2024).
Vinuesa, R. og Brunton, SL forbedrer beregningsvæskedynamikken gjennom maskinlæring. Nat. beregne. vitenskap. 2, 358–366 (2022).
Comeau, S. et al. Vitenskapelig maskinlæring med fysisk informerte nevrale nettverk: hvor vi er nå og hva som er neste. J. Science. kalkulere. 92, 88 (2022).
Duraisamy, K., Yaccarino, G., og Xiao, H. Turbulensmodellering i datatiden. Revidert utgave av Ann. 51, 357–377 (2019).
Durran, DR -numeriske metoder for å løse bølge ligninger i Geophysical Hydrodynamics, vol. 32 (Springer, 2013).
Mishra, S. A Machine Learning Framework for Akselererende datadrevet beregning av differensialligninger. matematikk. ingeniør. https://doi.org/10.3934/mine.2018.1.118 (2018).
Kochikov D. et al. Maskinlæring - Akselerasjon av beregningsvæskedynamikk. behandle. National Academy of Sciences. vitenskap. US 118, E2101784118 (2021).
Kadapa, K. Maskinlæring for informatikk og ingeniørfag - en kort introduksjon og noen sentrale problemer. Forhåndtrykk tilgjengelig på https://arxiv.org/abs/2112.12054 (2021).
Ross, A., Li, Z., Perezhogin, P., Fernandez-Granda, C., og Zanna, L. Sammenlignende analyse av maskinlæring havundergrid parameterisering i idealiserte modeller. J.Adv. Modell. Jordsystem. 15. E2022MS003258 (2023).
Lippe, P., Wieling, B., Perdikaris, P., Turner, R., og Brandstetter, J. PDE Raffinement: oppnå nøyaktige lange ekstruderinger med en nevralt PDE -løsning. 37. konferanse om nevrale informasjonsbehandlingssystemer (Neurips 2023).
Frakas, PR et al. BackPropagation -algoritme og reservoarberegning i tilbakevendende nevrale nettverk for å forutsi kompleks spatiotemporal dynamikk. nevralt nettverk. 126, 191–217 (2020).
Raissi, M., Perdikaris, P. og Karniadakis, GE Physics, Computer Science, Neural Networks: A Deep Learning Framework for Solving Forward and Inverse Problems som involverer ikke -lineære delvis differensialligninger. J. Computer. Fysikk. 378, 686–707 (2019).
Grossmann, TG, Komorowska, UJ, Lutz, J., og Schönlieb, K.-B. Kan fysikkbaserte nevrale nettverk overgå endelige elementmetoder? Ima J. Applications. matematikk. 89, 143–174 (2024).
De La Mata, FF, Gijon, A., Molina-Solana, M., og Gómez-Romero, J. Fysikkbaserte nevrale nettverk for datadrevet modellering: fordeler, begrensninger og muligheter. Fysikk. A 610, 128415 (2023).
Zhuang, P.-Y. & Barba, LA En empirisk rapport om fysikkbaserte nevrale nettverk i væskemodellering: fallgruver og skuffelser. Forhåndtrykk tilgjengelig på https://arxiv.org/abs/2205.14249 (2022).
Zhuang, P.-Y. og Barba, LA prediktive begrensninger av fysisk informerte nevrale nettverk om virvelformasjon. Forhåndtrykk tilgjengelig på https://arxiv.org/abs/2306.00230 (2023).
Wang, S., Yu, H. og Perdikaris, P. Når og hvorfor Pinns ikke klarer å trene: et nevralt tangent kjerneperspektiv. J. Computer. Fysikk. 449, 110768 (2022).
Krishnapriyan, A., Gholami, A., Zhe, S., Kirby, R., og Mahoney, MW -egenskaper for mulige feilmodus i fysiske informasjonsnettverk. 35. konferanse om nevrale informasjonsbehandlingssystemer Vol. 34, 26548–26560 (Neurips 2021).
Basir, S. og Senokak, I. En kritisk studie av feilmodus i fysikkbaserte nevrale nettverk. I AIAA Scitech 2022 Forum 2353 (Ark, 2022).
Karnakov P., Litvinov S. og Koumoutsakos P. Å løse fysiske omvendte problemer ved å optimalisere diskrete tap: rask og nøyaktig læring uten nevrale nettverk. behandle. National Academy of Sciences. vitenskap. Nexus 3, PGAE005 (2024).
Gundersen OE grunnleggende prinsipper for reproduserbarhet. Phil.cross. R. Shuker. A 379, 20200210 (2021).
Aromataris E og Pearson A. Systematiske anmeldelser: En oversikt. Ja. J. Nursing 114, 53–58 (2014).
Magiera, J., Ray, D., Hesthaven, JS og Rohde, K. Begrensningsbevisste nevrale nettverk for Riemann-problemet. J. Computer. Fysikk. 409, 109345 (2020).
Bezgin DA, Schmidt SJ og Adams NA-datadrevet fysisk informert endelig volumkrets for ikke-klassisk redusert spenningssjokk. J. Computer. Fysikk. 437, 110324 (2021).
Post Time: SEP-29-2024