Nauka i technika

Czy sztuczna inteligencja może przyspieszyć diagnostykę i leczenie glejaka?

  • 27 grudnia, 2023
  • 4 min read
Czy sztuczna inteligencja może przyspieszyć diagnostykę i leczenie glejaka?


Mężczyzna patrzy na slajd patologii na ekranie komputera.
[Credit: Philips]

Diagnoza guza OUN jest jedną z najbardziej ponurych, jakie można usłyszeć. Czy sztuczna inteligencja może to odwrócić? Czy radiolodzy mogą nauczyć się korzystać z takich narzędzi, aby szybciej i dokładniej diagnozować te nowotwory? Czy narzędzia dostarczają potrzebnych informacji? Czy im ufają? Czy narzędzia rzeczywiście poprawiają sytuację?

Według ostatnie badania odpowiedź na wszystkie te pytania brzmi „tak”, z ważnymi zastrzeżeniami. Radiolodzy mogą uczyć się na podstawie wysokowydajnych systemów uczenia maszynowego (ML), aby poprawić swoją wydajność. Jednak brak możliwości wyjaśnienia wyników ML może to utrudnić.

Innymi słowy, jeśli narzędzia są dobre, radiologowie będą z nich korzystać i usprawniać swoją pracę. Co ciekawe, mogą nawet nauczyć się czegoś od mniej zoptymalizowanych narzędzi.

Glejaki, nowotwory wywodzące się z komórek glejowych mózgu lub OUN, są skomplikowane leczyći może być bardzo zabójcze. Glejak wielopostaciowy jest jednym z najczęstszych rodzajów raka mózgu, a wskaźnik przeżycia 5-letniego wynosi 6,9%.

Wprowadź patologię cyfrową. Jeden z najszybciej rozwijających się rynków medycznych, którego wartość szacuje się już na ponad 1 miliard dolarów i która stale rośnie. Algorytmy sztucznej inteligencji, w tym uczenie maszynowe, służą do szybkiego wykrywania pożarów, segmentacji, rejestracji, przetwarzania i klasyfikacji cyfrowych obrazów patologicznych. Ale wprowadzają także duże problemy dotyczące przepływu pracy, danych i roli radiologa.

Warto przeczytać!  Terapia genowa Retta NGN-401 dopuszczona do badań klinicznych

Międzynarodowy zespół naukowców z TU Darmstadt, Uniwersytetu Cambridge w Merck i Klinikum rechts der Isar TU Monachium badał, w jaki sposób systemy oprogramowania gromadzą, przetwarzają i oceniają istotne informacje dotyczące konkretnego zadania, wspierając pracę radiologów.

Ich praca analizuje wpływ systemów uczenia maszynowego na uczenie się człowieka. Pokazuje także, jak ważne jest, aby użytkownicy końcowi wiedzieli, czy wyniki metod ML są zrozumiałe i zrozumiałe. Zespół twierdzi, że te spostrzeżenia są istotne nie tylko dla diagnoz medycznych w radiologii, ale dla każdego, kto staje się recenzentem wyników ML poprzez codzienne korzystanie z narzędzi AI, takich jak ChatGPT.

Projekt badawczy był prowadzony przez badaczy z TU, Sarę Ellenrieder i Petera Buxmanna. Zbadano zastosowanie systemów wspomagania decyzji opartych na ML w radiologii, w szczególności w ręcznej segmentacji guzów mózgu na obrazach MRI. Skupiono się na tym, jak radiolodzy mogą uczyć się na podstawie tych systemów, aby poprawić swoją wydajność i pewność podejmowania decyzji. Autorzy porównali różne poziomy wydajności systemów ML i przeanalizowali, w jaki sposób wyjaśnienie wyników ML poprawiło zrozumienie wyników radiologów, mając na celu sprawdzenie, jakie korzyści radiologowie mogą odnieść z tych systemów w dłuższej perspektywie i bezpiecznie z nich korzystać.

Warto przeczytać!  Naukowcy pracują nad wyjaśnieniem reakcji zaskoczenia u koni

W eksperymencie radiologowie przeprowadzili 690 manualnych segmentacji guzów mózgu. Lekarzy poproszono o segmentację guzów na obrazach MRI przed i po otrzymaniu wsparcia decyzyjnego opartego na ML. Różnym grupom zapewniono systemy uczenia maszynowego o różnej wydajności i możliwości wyjaśnienia. Oprócz gromadzenia ilościowych danych dotyczących wyników podczas eksperymentu, badacze zebrali także dane jakościowe za pomocą protokołów „myślenia na głos” i kolejnych wywiadów.

Wyniki pokazują, że radiolodzy mogą uczyć się na podstawie informacji dostarczanych przez wysokowydajne systemy ML. Poprzez interakcję poprawili swoje wyniki. Jednak badanie pokazuje również, że brak możliwości wyjaśnienia wyników ML w systemach o niskiej wydajności może prowadzić do spadku wydajności radiologów. Udzielanie wyjaśnień na temat wyników ML nie tylko poprawiło wyniki uczenia się radiologów, ale także zapobiegło uczeniu się fałszywych informacji. W rzeczywistości niektórzy lekarze byli nawet w stanie uczyć się na błędach popełnianych przez systemy o niskiej wydajności, ale dające się wytłumaczyć.

„Przyszłość współpracy człowieka z sztuczną inteligencją leży w opracowaniu możliwych do wytłumaczenia i przejrzystych systemów sztucznej inteligencji, które w szczególności umożliwiają użytkownikom końcowym uczenie się na podstawie systemów i podejmowanie lepszych decyzji w dłuższej perspektywie” – powiedział Buxmann.

Warto przeczytać!  Dr Fatima Cody Stanford dołącza do administracji Bidena


Źródło