Nauka i technika

Google Cloud uruchamia narzędzia sztucznej inteligencji, które przyspieszają odkrywanie leków

  • 16 maja, 2023
  • 9 min read
Google Cloud uruchamia narzędzia sztucznej inteligencji, które przyspieszają odkrywanie leków


  • Google Cloud uruchomił dwa nowe rozwiązania oparte na sztucznej inteligencji, które mają pomóc firmom biotechnologicznym i farmaceutycznym przyspieszyć odkrywanie leków i rozwijać medycynę precyzyjną.
  • Te dwa pakiety oznaczają najnowsze postępy Google w gorącym wyścigu zbrojeń AI.
  • Rozwiązania rozwiązują również długi i kosztowny proces wprowadzania nowego leku na rynek amerykański.
  • Pfizer należący do Big Pharma oraz firmy biotechnologiczne Cerevel Therapeutics i Colossal Biosciences już korzystają z tych rozwiązań.

Osoba idąca obok logo Google Cloud na Mobile World Congress (MWC) w Barcelonie, Hiszpania, 27 lutego 2023 r.

Nacho Doce | agencji Reutera

We wtorek Google Cloud uruchomił dwa nowe narzędzia oparte na sztucznej inteligencji, które mają pomóc firmom biotechnologicznym i farmaceutycznym przyspieszyć odkrywanie leków i rozwijać medycynę precyzyjną.

Jedno narzędzie, zwane Target and Lead Identification Suite, ma pomóc firmom w przewidywaniu i zrozumieniu struktury białek, podstawowej części opracowywania leków. Inny, Multiomics Suite, pomoże naukowcom w przyswajaniu, przechowywaniu, analizowaniu i udostępnianiu masowych ilości danych genomowych.

Nowe osiągnięcia oznaczają najnowszy postęp Google w gorącym wyścigu zbrojeń AI, w którym firmy technologiczne konkurują o dominację na rynku, który zdaniem analityków może kiedyś być wart biliony. Firma znalazła się pod presją, aby zaprezentować swoją generatywną technologię sztucznej inteligencji od czasu publicznego wydania ChatGPT OpenAI pod koniec zeszłego roku.

Google ogłosiło swojego generatywnego chatbota Bard w lutym. Akcje spółki macierzystej Alphabet wzrosły w zeszłym tygodniu o 4,3% po tym, jak Google zaprezentowało kilka postępów w zakresie sztucznej inteligencji na dorocznej konferencji programistów.

Dwa nowe pakiety Google Cloud pomagają rozwiązać długotrwały problem w branży biofarmaceutycznej: długi i kosztowny proces wprowadzania nowego leku na rynek amerykański.

Firmy farmaceutyczne mogą zainwestować od kilkuset milionów dolarów do ponad 2 miliardów dolarów, aby wprowadzić na rynek pojedynczy lek, wynika z najnowszego raportu Deloitte. Ich starania nie zawsze kończą się sukcesem. Leki, które trafiają do badań klinicznych, mają 16% szans na zatwierdzenie w USA, mówi inny raport Deloitte.

Temu wysokiemu kosztowi i ponuremu wskaźnikowi sukcesu towarzyszy obszerny i żmudny proces badawczy, który zwykle trwa około 10 do 15 lat.

Nowe pakiety pozwolą firmom zaoszczędzić „statystycznie znaczącą” ilość czasu i pieniędzy w całym procesie opracowywania leków, powiedział Shweta Maniar, globalny dyrektor Google Cloud ds. strategii i rozwiązań w zakresie nauk przyrodniczych. Google nie dostarczył CNBC konkretnych danych.

Warto przeczytać!  Drzemka jest powiązana z większym mózgiem. Czy to ma znaczenie?

„Pomagamy organizacjom szybciej dostarczać leki właściwym ludziom” — powiedział Maniar w wywiadzie dla CNBC. „Osobiście jestem bardzo podekscytowany, to jest coś, nad czym ja i zespół pracujemy od kilku lat”.

Oba apartamenty są powszechnie dostępne dla klientów od wtorku. Google powiedział, że koszt będzie się różnić w zależności od firmy. Kilka firm, w tym Pfizer firmy Big Pharma oraz firmy biotechnologiczne Cerevel Therapeutics i Colossal Biosciences, już korzysta z tych produktów.

Według Maniara, Target and Lead Identification Suite ma na celu usprawnienie pierwszego kluczowego etapu opracowywania leków, którym jest identyfikacja celu biologicznego, na którym naukowcy mogą się skoncentrować i wokół którego można zaprojektować leczenie.

Celem biologicznym jest najczęściej białko, niezbędny budulec chorób i wszystkich innych części życia. Znalezienie tego celu obejmuje identyfikację struktury białka, która określa jego funkcję lub rolę, jaką odgrywa w chorobie.

„Jeśli potrafisz zrozumieć rolę, strukturę i rolę białka, teraz możesz zacząć opracowywać leki wokół tego” – powiedział Maniar.

Ale ten proces jest czasochłonny i często kończy się niepowodzeniem.

Naukowcy mogą potrzebować około 12 miesięcy, aby zidentyfikować cel biologiczny, zgodnie z National Center for Biotechnology Information. Według Maniara dwie techniki tradycyjnie stosowane przez badaczy do określania struktur białek również mają wysoki wskaźnik niepowodzeń.

Powiedziała również, że tradycyjnym technologiom trudno jest zwiększyć lub zmniejszyć ilość pracy, którą wykonują w zależności od zapotrzebowania.

Pakiet Google Cloud ma trójstopniowe podejście do zwiększania wydajności tego procesu.

Pakiet umożliwia naukowcom pozyskiwanie, udostępnianie i zarządzanie danymi molekularnymi dotyczącymi białka za pomocą Google Cloud Analytics Hub, platformy, która umożliwia użytkownikom bezpieczną wymianę danych między organizacjami.

Naukowcy mogą następnie wykorzystać te dane do przewidywania struktury białka za pomocą AlphaFold2, modelu uczenia maszynowego opracowanego przez spółkę zależną Google.

AlphaFold2 działa na potoku Google Vertex AI, platformie, która pozwala naukowcom szybciej budować i wdrażać modele uczenia maszynowego.

W ciągu kilku minut AlphaFold2 może przewidzieć trójwymiarową strukturę białka z większą dokładnością niż tradycyjne technologie iw skali potrzebnej badaczom. Przewidywanie tej struktury ma kluczowe znaczenie, ponieważ może pomóc naukowcom zrozumieć funkcję białka w chorobie.

Warto przeczytać!  Depresja i choroby serca: odkryto zaskakujące powiązania genetyczne

Ostatni składnik pakietu Google Cloud pomaga naukowcom określić, w jaki sposób struktura białka oddziałuje z różnymi cząsteczkami. Cząsteczka może stać się podstawą nowego leku, jeśli zmieni funkcję tego białka i ostatecznie wykaże zdolność do leczenia choroby.

Zgodnie z komunikatem prasowym dotyczącym nowych narzędzi, naukowcy mogą korzystać z wysokowydajnych zasobów obliczeniowych Google Cloud, aby znaleźć „najbardziej obiecujące” molekuły, które mogłyby doprowadzić do opracowania nowego leku. Usługi te zapewniają firmom infrastrukturę potrzebną do przyspieszenia, automatyzacji i skalowania ich pracy.

Według dyrektora naukowego Johna Rengera, Cerevel, który koncentruje się na opracowywaniu metod leczenia chorób neurologicznych, zwykle musi przeszukać dużą bibliotekę 3 milionów różnych cząsteczek, aby znaleźć taką, która będzie miała pozytywny wpływ na chorobę. Nazwał ten proces „skomplikowanym, zaangażowanym i kosztownym”.

Ale Renger powiedział, że firma będzie w stanie szybciej usuwać cząsteczki za pomocą pakietu Google Cloud. Komputery zajmą się badaniem cząsteczek i pomogą Cerevelowi „naprawdę szybko znaleźć odpowiedź” – powiedział.

Renger szacuje, że Cerevel zaoszczędzi średnio co najmniej trzy lata, używając pakietu do odkrycia nowego leku. Powiedział, że trudno jest oszacować, ile pieniędzy firma zaoszczędzi, ale podkreślił, że pakiet ogranicza zasoby i pracę fizyczną zwykle wymaganą do przesiewania cząsteczek.

„Oznacza to, że możemy dotrzeć tam szybciej, dostać się tam taniej i możemy znacznie szybciej dostarczać leki pacjentom bez tylu niepowodzeń” – powiedział CNBC.

Cerevel współpracuje z Google od ponad miesiąca, aby lepiej zrozumieć pakiet i określić, w jaki sposób firma będzie z niego korzystać. Ale Renger ma nadzieję, że Cerevel „będzie w miejscu, w którym uzyskamy pewne wyniki” w następnym miesiącu.

Drugie rozwiązanie Google Cloud, Multiomics Suite, ma pomóc naukowcom w sprostaniu kolejnemu zniechęcającemu wyzwaniu: analizie danych genomicznych.

Colossal Biosciences, firma biotechnologiczna, której celem jest wykorzystanie DNA i inżynierii genetycznej do odwrócenia wymierania gatunków, wykorzystuje w swoich badaniach Multiomics Suite.

Jako startup Colossal nie posiadał wewnętrznej infrastruktury niezbędnej do organizowania lub odszyfrowywania ogromnych ilości danych genomowych. Jedna sekwencja genomu ludzkiego wymaga ponad 200 gigabajtów pamięci, a naukowcy uważają, że do 2025 roku będą potrzebować 40 eksabajtów do przechowywania światowych danych genomowych, według Narodowego Instytutu Badań nad Genomem Człowieka.

Warto przeczytać!  Oświetlenie mapy genów roślin

Instytut szacuje, że pięć eksabajtów mogłoby przechowywać każde słowo kiedykolwiek wypowiedziane przez człowieka, więc zbudowanie technologii wspierającej analizę danych genomowych nie jest łatwym zadaniem.

Jako taki, Multiomics Suite ma na celu zapewnienie firmom takim jak Colossal infrastruktury potrzebnej do zrozumienia dużych ilości danych, aby mogły poświęcić więcej czasu na nowe odkrycia naukowe.

„Gdybyśmy musieli robić wszystko od zera, to znaczy, to jest siła Google Cloud, prawda?” Wiceprezes firmy Colossal ds. strategii i nauk obliczeniowych, Alexander Titus, powiedział w wywiadzie dla CNBC. „Nie musimy budować tego od zera, więc zdecydowanie oszczędzamy czas i pieniądze”.

Zdolność naukowców do sekwencjonowania DNA historycznie przewyższała ich zdolność do rozszyfrowania i analizy. Jednak wraz z rozwojem technologii w ostatnich latach dane genomowe umożliwiły nowy wgląd w obszary, takie jak zmienność genetyczna związana z chorobą.

Maniar Google Cloud powiedział, że może ostatecznie pomóc w opracowaniu bardziej spersonalizowanych leków i terapii. Według artykułu opublikowanego w czasopiśmie „Nature” tylko w 2021 roku dwie trzecie leków zatwierdzonych przez Food and Drug Administration było wspieranych przez badania genetyki człowieka.

Maniar wierzy, że Multiomics Suite pomoże zachęcić do dalszych innowacji.

Ben Lamm, dyrektor generalny Colossal, powiedział, że Multiomics Suite jest powodem, dla którego firma była w stanie przeprowadzić badania w „dowolnym rozsądnym terminie”. Colossal rozpoczął pilotaż technologii Google pod koniec zeszłego roku, w wyniku czego Lamm powiedział, że celem firmy jest wyprodukowanie mamuta włochatego do 2028 roku.

Lamm powiedział, że bez pakietu Multiomics Suite firma cofnęłaby się o ponad dekadę.

„Nie bylibyśmy nawet w pobliżu miejsca, w którym jesteśmy dzisiaj” – powiedział.

Lamm powiedział, że przed użyciem pakietu Google Cloud zarządzanie danymi w Colossal odbywało się ręcznie za pomocą arkuszy kalkulacyjnych.

Powiedział, że próba zbudowania bardziej złożonych narzędzi potrzebnych do badań byłaby dla firmy „ogromnym obciążeniem”.

„Nie jesteśmy już w małych danych, jeśli chodzi o biologię”, powiedział Titus z Colossal. „Myślimy w skali, w jaki sposób uzyskać wgląd w 10 000, 20 000, 10 milionów lat historii ewolucji? Odpowiedzi na te pytania po prostu nie ma bez skalowalnej infrastruktury obliczeniowej i narzędzi, takich jak przetwarzanie w chmurze i multiomika”.


Źródło