Procesitaj aerosolaj produktoj

30+ jaroj fabrikada sperto
Malfortaj bazlinioj kaj raportado de biasoj kondukas al tro-optimismo en maŝina lernado de fluidaj partaj diferencaj ekvacioj.

Malfortaj bazlinioj kaj raportado de biasoj kondukas al tro-optimismo en maŝina lernado de fluidaj partaj diferencaj ekvacioj.

Dankon, ke vi vizitis Nature.com. La versio de retumilo, kiun vi uzas, havas limigitan CSS -subtenon. Por plej bonaj rezultoj, ni rekomendas ke vi uzu pli novan version de via retumilo (aŭ malebligas kongruan reĝimon en Interreta Esplorilo). Intertempe, por certigi daŭran subtenon, ni montras la retejon sen stilo aŭ ĝavaskripto.
Unu el la plej promesplenaj aplikoj de maŝina lernado en komputila fiziko estas la akcelita solvo de partaj diferencaj ekvacioj (PDEs). La ĉefa celo de maŝina lern-bazita parta diferenca ekvacio-solvilo estas produkti solvojn sufiĉe precizajn pli rapide ol normaj nombraj metodoj por servi kiel baza komparo. Ni unue faras sisteman revizion de la maŝina lernado -literaturo pri solvado de partaj diferencaj ekvacioj. El ĉiuj artikoloj raportantaj la uzon de ML por solvi fluidajn partajn diferencajn ekvaciojn kaj postulante superecon super normaj nombraj metodoj, ni identigis 79% (60/76) kompare kun malfortaj bazlinioj. Due, ni trovis evidentecon de ĝeneraligita raporta fleksebleco, precipe en rezultaj raportoj kaj publikigaj biasoj. Ni konkludas, ke esploroj pri maŝinlernado pri solvado de partaj diferencialaj ekvacioj estas tro optimismaj: malfortaj enigaj datumoj povas konduki al tro pozitivaj rezultoj, kaj raporti biason povas konduki al subreto de negativaj rezultoj. En granda parto, ĉi tiuj problemoj ŝajnas esti kaŭzitaj de faktoroj similaj al pasintaj reprodukteblaj krizoj: enketema diskreteco kaj pozitiva rezulta fleksio. Ni alvokas malsupre-kulturan ŝanĝon por minimumigi biasan raportadon kaj supran strukturan reformon por redukti perversajn stimulojn por fari tion.
La listo de aŭtoroj kaj artikoloj generitaj de la sistema revizio, same kiel la klasifiko de ĉiu artikolo en la hazarda specimeno, estas publike havebla ĉe https://doi.org/10.17605/osf.io/gq5b3 (Ref. 124).
La kodo necesa por reprodukti la rezultojn en Tabelo 2 troveblas ĉe GitHub: https://github.com/nickmcgreivy/weakbaselinesmlpde/ (ref. 125) kaj sur kodo oceano: https://codeocean.com/capsule/960553939/codeocean.com/capsule/960553939//codeocean.com/capsule/960553939//codeocean.com/capsule/960553939//codeocean.com/capsule/960553939//codeocean.com/capsule/960553939//codeocean.com/capsule/960553939//codeocean.com/capsule/960553939//codeocean.com/capsule/96055393 Arbo/ v1 (ligo 126) kaj https://codeocean.com/capsule/0799002/tree/v1 (ligo 127).
Randall, D., kaj Welser, K., La nereproduktebla krizo en moderna scienco: kaŭzoj, konsekvencoj kaj vojoj por reformado (Nacia Asocio de Sciencistoj, 2018).
Ritchie, S. Sciencfikcio: Kiel Fraŭdo, Bias, Silento kaj Hype subfosas la serĉon de vero (Vintage, 2020).
Malfermu sciencan kunlaboron. Taksi reprodukteblecon en psikologia scienco. Scienco 349, AAAC4716 (2015).
Prinz, F., Schlange, T., kaj Asadullah, K. Kredu ĝin aŭ ne: Kiom ni povas fidi je publikigitaj datumoj pri eblaj drogaj celoj? Nat. Rev. "La Malkovro de Drogoj." 10, 712 (2011).
Begley, KG kaj Ellis, LM -kreskantaj normoj en preklinika kancero -esplorado. Naturo 483, 531–533 (2012).
A. Gelman kaj E. Loken, La Ĝardeno de Fortaj Padoj: Kial multnombraj komparoj estas problemo eĉ sen "fiŝkaptaj ekspedicioj" aŭ "P-hakoj" kaj antaŭformitaj esploraj hipotezoj, Vol. 348, 1-17 (Sekcio de Statistikoj, 2013).
Karagiorgi, G., Kasecka, G., Kravitz, S., Nachman, B., kaj Shi, D. Maŝina lernado serĉante novan fundamentan fizikon. Nat. Doktoro pri Filozofio en Fiziko. 4, 399–412 (2022).
Dara S, Damercherla S, Jadhav SS, Babu CM kaj Ahsan MJ. Maŝina Lernado en Drog -Malkovro: Revizio. Atif. Intel. Ed. 55, 1947–1999 (2022).
Mather, AS kaj Coote, Ml Deep Learning in Chemistry. J.CHEMISTRO. sciigi. Modelo. 59, 2545-2559 (2019).
Rajkomar A., ​​Dekano J. kaj Kohan I. Maŝina Lernado en Medicino. Nov -Anglia Revuo pri Medicino. 380, 1347–1358 (2019).
Grimmer J, Roberts Me. kaj Stewart BM Machine Learning en Sociaj Sciencoj: agnostika aliro. Pastro Ann Ball. Scienco. 24, 395–419 (2021).
Salto, J. et al. Faru tre precizajn proteinajn strukturajn prognozojn per alfafold. Naturo 596, 583–589 (2021).
Gundersen, OE, Coakley, K., Kirkpatrick, K., kaj Gil, Y. Fontoj de nereproduktebleco en maŝina lernado: Revizio. Preprint havebla ĉe https://arxiv.org/abs/2204.07610 (2022).
Scully, D., Snook, J., Wiltschko, A., kaj Rahimi, A. Gajninto -Malbeno? Pri la rapideco, progreso kaj rigoro de empiria evidenteco (ICLR, 2018).
Armstrong, TG, Moffat, A., Webber, W., kaj Zobel, J. Ne-aldonaj plibonigoj: antaŭparolaj serĉrezultoj ekde 1998. 18a ACM-Konferenco pri Informo kaj Scio-Administrado 601–610 (ACM 2009).
Kapoor, S. kaj Narayanan, A. Leakage kaj reprodukteblaj krizoj en maŝin-lernada scienco. Ŝablonoj, 4, 100804 (2023).
Kapoor S. et al. Reformo: Sciencaj raportaj normoj bazitaj sur maŝina lernado. Preprint havebla ĉe https://arxiv.org/abs/2308.07832 (2023).
Demasi, O., Cording, C., kaj Recht, B. Sensignifaj komparoj povas konduki al falsa optimismo en medicina maŝina lernado. PLOS ONE 12, E0184604 (2017).
Roberts, M., et al. Oftaj fosaĵoj kaj plej bonaj praktikoj por uzi maŝinlernadon por detekti kaj antaŭdiri Covid-19 de brustaj X-radioj kaj komputita tomografio. Nat. Max. Intel. 3, 199–217 (2021).
Winantz L. et al. Antaŭdiraj modeloj por la diagnozo kaj prognozo de COVID-19: sistema revizio kaj kritika taksado. BMJ 369, M1328 (2020).
Whalen S., Schreiber J., Noble WS kaj Pollard KS venkante la fosaĵojn de uzado de maŝina lernado en genomiko. Nat. Pastro Ginette. 23, 169-181 (2022).
Atris N. et al. Plej bonaj praktikoj por maŝina lernado en kemio. Nat. Kemiaĵo. 13, 505–508 (2021).
Brunton SL kaj Kutz JN promesantaj direktojn por maŝina lernado de partaj diferencaj ekvacioj. Nat. kalkulu. Scienco. 4, 483–494 (2024).
Vinuesa, R. kaj Brunton, SL plibonigante komputan fluidan dinamikon per maŝina lernado. Nat. kalkulu. Scienco. 2, 358–366 (2022).
Comeau, S. et al. Scienca maŝina lernado kun fizike informitaj neŭralaj retoj: kie ni nun estas kaj kio sekvas. J. Scienco. kalkulu. 92, 88 (2022).
Duraisamy, K., Yaccarino, G., kaj Xiao, H. Turbulence -modelado en la datuma epoko. Reviziita eldono de Ann. 51, 357–377 (2019).
Durran, DR Numeralaj Metodoj por Solvado de Ondaj Ekvacioj en Geofizika Hidrodinamiko, Vol. 32 (Springer, 2013).
Mishra, S. Maŝina lernada kadro por akceli datum-movitan komputadon de diferencaj ekvacioj. matematiko. Inĝeniero. https://doi.org/10.3934/mine.2018.1.118 (2018).
Kochikov D. et al. Maŝina Lernado - Akcelo de Komputila Flua Dinamiko. procezo. Nacia Akademio de Sciencoj. Scienco. Usono 118, E2101784118 (2021).
Kadapa, K. Maŝina Lernado por Komputila Scienco kaj Inĝenierado - Mallonga enkonduko kaj iuj ŝlosilaj aferoj. Preprint havebla ĉe https://arxiv.org/abs/2112.12054 (2021).
Ross, A., Li, Z., Perezhogin, P., Fernandez-Granda, C., kaj Zanna, L. Kompara analizo de maŝina lernado de oceana subgrida parametriĝo en idealigitaj modeloj. J.Adv. Modelo. Tera Sistemo. 15. E2022MS003258 (2023).
Lippe, P., Wieling, B., Perdikaris, P., Turner, R., kaj Brandstetter, J. PDE -rafinado: Atingo de precizaj longaj eltiraĵoj kun neŭra PDE -solvilo. 37a Konferenco pri Neŭraj Informaj Procesoraj Sistemoj (Neurips 2023).
Frachas, Pr et al. Backpropagation -algoritmo kaj rezerva kalkulo en recidivaj neŭraj retoj por antaŭdiri kompleksajn spatiotemporajn dinamikojn. neŭra reto. 126, 191–217 (2020).
Raissi, M., Perdikaris, P. kaj Karniadakis, GE -fiziko, komputiko, neŭralaj retoj: profunda lernada kadro por solvi antaŭen kaj inversajn problemojn implikantajn neliniajn partajn diferencajn ekvaciojn. J. Komputilo. Fiziko. 378, 686–707 (2019).
Grossmann, TG, Komorowska, UJ, Lutz, J., kaj Schönlieb, K.-B. Ĉu fizik-bazitaj neŭraj retoj povas superi finajn elementajn metodojn? IMA J. Aplikoj. matematiko. 89, 143–174 (2024).
De la Mata, FF, Gijon, A., Molina-Solana, M., kaj Gómez-Romero, J. Fizik-bazitaj neŭralaj retoj por datum-movita modelado: avantaĝoj, limigoj kaj ŝancoj. Fiziko. A 610, 128415 (2023).
Zhuang, P.-Y. & Barba, La empiria raporto pri fizik-bazitaj neŭralaj retoj en fluida modelado: fosaĵoj kaj seniluziiĝoj. Preprint havebla ĉe https://arxiv.org/abs/2205.14249 (2022).
Zhuang, P.-Y. kaj Barba, LA prognozaj limigoj de fizike informitaj neŭralaj retoj pri formado de vortecoj. Preprint havebla ĉe https://arxiv.org/abs/2306.00230 (2023).
Wang, S., Yu, H., kaj Perdikaris, P. Kiam kaj kial pinĉoj malsukcesas trejni: neŭra tangenta kerno perspektivo. J. Komputilo. Fiziko. 449, 110768 (2022).
Krishnapriyan, A., Gholami, A., Zhe, S., Kirby, R., kaj Mahoney, MW -trajtoj de eblaj fiaskaj modoj en fizikaj informoj neŭraj retoj. 35a Konferenco pri Neŭralaj Informaj Procesoraj Sistemoj Vol. 34, 26548–26560 (Neurips 2021).
Basir, S. kaj Senokak, I. Kritika studo pri fiaskaj reĝimoj en neŭralaj retoj bazitaj en fiziko. En AIAA Scitech 2022 Forumo 2353 (Ark, 2022).
Karnakov P., Litvinov S. kaj Koumoutsakos P. Solvante fizikajn inversajn problemojn per optimumigado de diskretaj perdoj: rapida kaj preciza lernado sen neŭraj retoj. procezo. Nacia Akademio de Sciencoj. Scienco. Nexus 3, PGAE005 (2024).
Gundersen OE bazaj principoj de reproduktebleco. Phil.cross. R. Shuker. A 379, 20200210 (2021).
Aromataris E kaj Pearson A. Sistemaj recenzoj: superrigardo. Jes. J. Flegado 114, 53–58 (2014).
Magiera, J., Ray, D., Hesthaven, JS, kaj Rohde, K. Limigi neŭrajn retojn por la problemo Riemann. J. Komputilo. Fiziko. 409, 109345 (2020).
Bezgin DA, Schmidt SJ kaj Adams NA-datum-movitaj fizike informitaj finaj volumenaj cirkvitoj por neklasikaj reduktitaj tensiaj ŝokoj. J. Komputilo. Fiziko. 437, 110324 (2021).


Afiŝotempo: Sep-29-2024