Verarbeitete Aerosolprodukte

30+ Jahre Herstellungserfahrung
Schwache Baselines und Berichterstattung führen zu Überoptimismus beim maschinellen Lernen von flüssigen partiellen Differentialgleichungen.

Schwache Baselines und Berichterstattung führen zu Überoptimismus beim maschinellen Lernen von flüssigen partiellen Differentialgleichungen.

Vielen Dank für Ihren Besuch bei Nature.com. Die von Ihnen verwendete Version des Browsers hat eine begrenzte CSS -Unterstützung. Für die besten Ergebnisse empfehlen wir Ihnen, eine neuere Version Ihres Browsers zu verwenden (oder den Kompatibilitätsmodus im Internet Explorer deaktivieren). In der Zwischenzeit zeigen wir die Website ohne Styling oder JavaScript, um eine kontinuierliche Unterstützung zu gewährleisten.
Eine der vielversprechendsten Anwendungen des maschinellen Lernens in der Computerphysik ist die beschleunigte Lösung von partiellen Differentialgleichungen (PDEs). Das Hauptziel eines maschinellen lernbasierten partiellen Differentialgleichungslösers besteht darin, Lösungen zu erstellen, die schneller genug sind als Standard-numerische Methoden, um als Basislinienvergleich zu dienen. Wir führen zunächst eine systematische Überprüfung der Literatur zum maschinellen Lernen zur Lösung partieller Differentialgleichungen durch. Von allen Papieren, die über die Verwendung von ML zur Lösung von flüssigen partiellen Differentialgleichungen und zur Beanspruchung von Überlegenheit gegenüber Standard -numerischen Methoden berichteten, identifizierten wir 79% (60/76) im Vergleich zu schwachen Baselinen. Zweitens fanden wir Hinweise auf eine weit verbreitete Berichterstattung, insbesondere in Bezug auf Ergebnisberichterstattung und Veröffentlichungsverzerrung. Wir schließen daraus, dass maschinelles Lernen zur Lösung partieller Differentialgleichungen übermäßig optimistisch ist: Schwache Eingabedaten können zu übermäßig positiven Ergebnissen führen, und die Berichterstattung von Verzerrungen kann zu einer Unterberichterstattung negativer Ergebnisse führen. Zum großen Teil scheinen diese Probleme durch Faktoren verursacht zu werden, die den Reproduzierbarkeitskrisen in der Vergangenheit ähneln: Ermessensspielraum und positive Ergebnisverzerrung. Wir fordern den kulturellen Tiefpunkt, um voreingenommene Berichterstattung und Top-Down-Strukturreform zu minimieren, um die perversen Anreize dazu zu verringern.
Die Liste der Autoren und Artikel, die durch die systematische Überprüfung erzeugt werden, sowie die Klassifizierung jedes Artikels in der Zufallsprobe ist unter https://doi.org/10.17605/osf.io/gq5b3 (Ref. 124) öffentlich verfügbar.
Der Code, den die Ergebnisse in Tabelle 2 reproduzieren müssen Baum/ V1 (Link 126) und https://codeocean.com/capsel/0799002/tree/v1 (Link 127).
Randall, D. und Welser, K., Die Krise der nicht reproduzierbaren Krise in der modernen Wissenschaft: Ursachen, Konsequenzen und Reformwege (National Association of Scientists, 2018).
Ritchie, S. Science Fiction: Wie Betrug, Voreingenommenheit, Stille und Hype die Suche nach Wahrheit untergraben (Vintage, 2020).
Offene wissenschaftliche Zusammenarbeit. Bewertung der Reproduzierbarkeit in der psychologischen Wissenschaft. Science 349, AAAC4716 (2015).
Prinz, F., Schlange, T. und Asadullah, K. Ob Sie es glauben oder nicht: Wie viel können wir uns auf veröffentlichte Daten zu potenziellen Arzneimittelzielen verlassen? Nat. Rev. "Die Entdeckung von Drogen". 10, 712 (2011).
Begley, KG und Ellis, LM erhöhen Standards in der präklinischen Krebsforschung. Nature 483, 531–533 (2012).
A. Gelman und E. Loken, Der Garten der Gabelwege: Warum mehrere Vergleiche ein Problem sind, auch ohne „Fischereiexpeditionen“ oder „P-Hacks“ und vorgeformte Forschungshypothesen, vol. 348, 1–17 (Abteilung für Statistik, 2013).
Karagiorgi, G., Kasecka, G., Kravitz, S., Nachman, B. und Shi, D. Maschinelles Lernen auf der Suche nach neuer grundlegender Physik. Nat. Doktor der Philosophie in der Physik. 4, 399–412 (2022).
Dara S., Damercherla S., Jadhav SS, Babu CM und Ahsan MJ. Maschinelles Lernen in der Drogenentdeckung: Eine Überprüfung. Atif. Intel. Ed. 55, 1947–1999 (2022).
Mather, As und Coote, ML Deep Learning in Chemie. J.Chemistry. benachrichtigen. Modell. 59, 2545–2559 (2019).
Rajkomar A., ​​Dean J. und Kohan I. maschinelles Lernen in der Medizin. New England Journal of Medicine. 380, 1347–1358 (2019).
Grimmer J, Roberts mich. und Stewart BM maschinelles Lernen in Sozialwissenschaften: ein agnostischer Ansatz. Rev. Ann Ball. Wissenschaft. 24, 395–419 (2021).
Jump, J. et al. Machen Sie mit Alphafold hoch genaue Proteinstrukturvorhersagen. Nature 596, 583–589 (2021).
Gundersen, OE, K. Coakley, K. Kirkpatrick und Y. Preprint erhältlich unter https://arxiv.org/abs/2204.07610 (2022).
Scully, D., Snook, J., Wiltschko, A. und Rahimi, A. Gewinnerfluch? Über die Geschwindigkeit, den Fortschritt und die strenge empirische Beweise (ICLR, 2018).
Armstrong, TG, Moffat, A., Webber, W. und Zobel, J. Nicht-Additive-Verbesserungen: Vorläufige Suchergebnisse seit 1998. 18. ACM-Konferenz für Information und Wissensmanagement 601–610 (ACM 2009).
Kapoor, S. und Narayanan, A. Leckage- und Reproduzierbarkeitskrisen in der basierten Wissenschaft für maschinelles Lernen. Muster, 4, 100804 (2023).
Kapoor S. et al. Reform: Wissenschaftliche Berichterstellungsstandards, die auf maschinellem Lernen basieren. Preprint erhältlich unter https://arxiv.org/abs/2308.07832 (2023).
Demasi, O., Cording, C. und Recht, B. bedeutungslose Vergleiche können zu falschem Optimismus im medizinischen maschinellen Lernen führen. PLoS ONE 12, E0184604 (2017).
Roberts, M., et al. Häufige Fallstricke und Best Practices für das maschinelle Lernen zum Erkennen und Vorhersagen von Covid-19 aus Röntgenstrahlen und Computertomographie. Nat. Max. Intel. 3, 199–217 (2021).
Winantz L. et al. Prädiktive Modelle für die Diagnose und Prognose von Covid-19: eine systematische Überprüfung und kritische Bewertung. BMJ 369, M1328 (2020).
Whalen S., Schreiber J., Noble WS und Pollard KS überwinden die Fallstricke des maschinellen Lernens in Genomik. Nat. Pastor Ginette. 23, 169–181 (2022).
Atris N. et al. Best Practices für maschinelles Lernen in Chemie. Nat. Chemikalie. 13, 505–508 (2021).
Brunton SL und Kutz JN vielversprechende Anweisungen zum maschinellen Lernen von partiellen Differentialgleichungen. Nat. berechnen. Wissenschaft. 4, 483–494 (2024).
Vinuesa, R. und Brunton, SL, die die Dynamik der Computerflüssigkeit durch maschinelles Lernen verbessert. Nat. berechnen. Wissenschaft. 2, 358–366 (2022).
Comeau, S. et al. Wissenschaftliches maschinelles Lernen mit physisch informierten neuronalen Netzwerken: Wo wir jetzt sind und was als nächstes kommt. J. Science. berechnen. 92, 88 (2022).
Duraisamy, K., Yaccarino, G. und Xiao, H. Turbulence -Modellierung in der Datenzeit. Überarbeitete Ausgabe von Ann. 51, 357–377 (2019).
Durran, DR Numerische Methoden zur Lösung von Wellengleichungen in der geophysikalischen Hydrodynamik, vol. 32 (Springer, 2013).
Mishra, S. Ein Rahmen für maschinelles Lernen zur Beschleunigung der datengesteuerten Berechnung von Differentialgleichungen. Mathematik. Ingenieur. https://doi.org/10.3934/mine.2018.1.118 (2018).
Kochikov D. et al. Maschinelles Lernen - Beschleunigung der Rechenfluiddynamik. Verfahren. Nationale Akademie der Wissenschaften. Wissenschaft. US 118, E2101784118 (2021).
Kadapa, K. Maschinelles Lernen für Informatik und Ingenieurwesen - eine kurze Einführung und einige wichtige Themen. Preprint erhältlich unter https://arxiv.org/abs/2112.12054 (2021).
Ross, A., Li, Z., Perezhogin, P., Fernandez-Granda, C. und Zanna, L. Vergleichende Analyse der Subgrid-Parametrisierung des maschinellen Lernens in idealisierten Modellen. J.Adv. Modell. Erdsystem. 15. E2022MS003258 (2023).
Lippe, P., Wieling, B., Perdikaris, P., Turner, R. und Brandstetter, J. PDE Raffinement: Genauige lange Extrusionen mit einem neuralen PDE -Solver erreichen. 37. Konferenz zu neuronalen Informationsverarbeitungssystemen (Neurips 2023).
Frachas, PR et al. Backpropagationsalgorithmus und Reservoirberechnung in wiederkehrenden neuronalen Netzwerken zur Vorhersage einer komplexen räumlich -zeitlichen Dynamik. Neurales Netzwerk. 126, 191–217 (2020).
Raissi, M., Perdikaris, P. und Karniadakis, GE Physik, Informatik, neuronale Netze: Ein tiefes Lernrahmen zur Lösung von Vorwärts- und inversen Problemen, die nichtlineare partielle Differentialgleichungen betreffen. J. Computer. Physik. 378, 686–707 (2019).
Grossmann, TG, Komorowska, UJ, Lutz, J. und Schönlieb, K.-B. Können physikbasierte neuronale Netze endliche Elementmethoden übertreffen? IMA J. Anwendungen. Mathematik. 89, 143–174 (2024).
De La Mata, FF, Gijon, A., Molina-Solana, M. und Gómez-Romero, J. Physikbasierte neuronale Netze für datengesteuerte Modellierung: Vorteile, Einschränkungen und Chancen. Physik. A 610, 128415 (2023).
Zhuang, P.-Y. & Barba, LA Ein empirischer Bericht über physikbasierte neuronale Netze in der Fluidmodellierung: Fallstricke und Enttäuschungen. Preprint erhältlich unter https://arxiv.org/abs/2205.14249 (2022).
Zhuang, P.-Y. und Barba, la prädiktive Einschränkungen von physisch informierten neuronalen Netzwerken zur Wirbelbildung. Preprint erhältlich unter https://arxiv.org/abs/2306.00230 (2023).
Wang, S., Yu, H. und Perdikaris, P. Wann und warum Pinns nicht trainiert: eine Perspektive der neuronalen Tangentenkern. J. Computer. Physik. 449, 110768 (2022).
Krishnapriyan, A., Gholami, A., Zhe, S., Kirby, R. und Mahoney, MW -Merkmale möglicher Fehlermodi in physischen Informationen Neuronale Netze. 35. Konferenz über neuronale Informationsverarbeitungssysteme Vol. 34, 26548–26560 (Neurips 2021).
Basir, S. und Senokak, I. Eine kritische Studie zu Fehlermodi in physikbasierten neuronalen Netzwerken. In AIAA Scitech 2022 Forum 2353 (Ark, 2022).
Karnakov P., Litvinov S. und Koumoutsakos P. Lösen physischer inverser Probleme durch Optimierung diskreter Verluste: schnelles und genaues Lernen ohne neuronale Netze. Verfahren. Nationale Akademie der Wissenschaften. Wissenschaft. Nexus 3, PGAE005 (2024).
Gundersen OE Grundprinzipien der Reproduzierbarkeit. Phil.cross. R. Shuker. A 379, 20200210 (2021).
Aromataris E und Pearson A. Systematische Bewertungen: Ein Überblick. Ja. J. Nursing 114, 53–58 (2014).
Magiera, J., Ray, D., Hesthaven, JS und Rohde, K. Constraint-aural Netzwerke für das Riemann-Problem. J. Computer. Physik. 409, 109345 (2020).
Bezgin DA, Schmidt SJ und Adams NA datengesteuerte physikalisch fundierte Finite-Volumen-Schaltung für nicht klassische reduzierte Spannungsschocks. J. Computer. Physik. 437, 110324 (2021).


Postzeit: Sep-29-2024