Technologia

Oparte na sztucznej inteligencji „multiwyszukiwanie” Google, które łączy tekst i obrazy w jednym zapytaniu, staje się globalne • TechCrunch

  • 8 lutego, 2023
  • 4 min read
Oparte na sztucznej inteligencji „multiwyszukiwanie” Google, które łączy tekst i obrazy w jednym zapytaniu, staje się globalne • TechCrunch


Kredyty obrazkowe: Google

Wśród innych ogłoszeń skupionych na sztucznej inteligencji, Google poinformowało dzisiaj, że jego nowsza funkcja „multisearch” będzie teraz dostępna dla użytkowników na całym świecie na urządzeniach mobilnych, wszędzie tam, gdzie Google Lens jest już dostępny. Funkcja wyszukiwania, która pozwala użytkownikom wyszukiwać zarówno tekst, jak i obrazy w tym samym czasie, została po raz pierwszy wprowadzona w kwietniu ubiegłego roku jako sposób na unowocześnienie wyszukiwarki Google, aby lepiej wykorzystać możliwości smartfona. Odmiana tego rozwiązania, „multisearch near me”, która jest skierowana do lokalnych firm, również stanie się dostępna na całym świecie w ciągu najbliższych kilku miesięcy, podobnie jak multisearch w Internecie i nowa funkcja Lens dla użytkowników Androida.

Jak wcześniej wyjaśnił Google, multisearch jest zasilany przez technologię sztucznej inteligencji o nazwie Multitask Unified Model (MUM), która może rozumieć informacje w różnych formatach, w tym tekst, zdjęcia i filmy, a następnie wyciągać wnioski i powiązania między tematami, koncepcjami i pomysłami . Google umieścił MUM w swoich funkcjach wyszukiwania wizualnego Google Lens, w których użytkownicy mogliby dodawać tekst do zapytania wyszukiwania wizualnego.

Warto przeczytać!  Wszystkie obrotowe drzwi, łamliwe ściany i ich lokalizacje na nowej mapie Valorant Lotus

„Na nowo zdefiniowaliśmy, czym jest wyszukiwanie, wprowadzając Lens. Od tego czasu przenieśliśmy Lens bezpośrednio na pasek wyszukiwania i nadal wprowadzamy nowe funkcje, takie jak zakupy i pomoc w odrabianiu zadań domowych krok po kroku”, Prabhakar Raghavan, starszy wiceprezes Google odpowiedzialny za produkty wyszukiwania, asystenta, dane geograficzne, reklamy, handel i płatności, — powiedział podczas konferencji prasowej w Paryżu.

Na przykład użytkownik może wyświetlić w wyszukiwarce Google zdjęcie koszuli, która mu się podoba, a następnie zapytać Lens, gdzie może znaleźć ten sam wzór, ale na innym typie odzieży, np. spódnicy lub skarpetkach. Mogą też skierować telefon na zepsuty element roweru i wpisać w wyszukiwarce Google zapytanie typu „jak naprawić”. Ta kombinacja słów i obrazów może pomóc Google w przetwarzaniu i zrozumieniu wyszukiwanych haseł, których wcześniej nie mogła obsłużyć lub które byłyby trudniejsze do wprowadzenia przy użyciu samego tekstu.

Technika ta jest najbardziej pomocna przy wyszukiwaniu zakupów, gdzie możesz znaleźć ubrania, które Ci się podobają, ale w różnych kolorach lub stylach. Możesz też zrobić zdjęcie mebla, na przykład zastawy stołowej, aby znaleźć pasujące elementy, na przykład stolik kawowy. W przypadku wielu wyszukiwań użytkownicy mogą również zawężać i udoskonalać swoje wyniki według marki, koloru i atrybutów wizualnych, powiedział Google.

Warto przeczytać!  Garena Free Fire MAX Wykorzystaj kody na 3 stycznia: Zdobądź fajne skórki Katana już dziś

Funkcja została udostępniona użytkownikom z USA w październiku ubiegłego roku, a następnie w grudniu została rozszerzona na Indie. Od dzisiaj Google twierdzi, że multisearch jest dostępny dla wszystkich użytkowników na całym świecie na urządzeniach mobilnych, we wszystkich językach i krajach, w których dostępny jest Lens.

Odmiana „multisearch near me” również wkrótce się rozszerzy, poinformowało dzisiaj Google.

Google ogłosił w maju zeszłego roku, że może kierować wielowyszukiwarkowe zapytania do lokalnych firm (inaczej „multisearch near me”), które zwracałyby wyniki wyszukiwania produktów, których użytkownicy szukali w lokalnych sklepach detalicznych lub innych firmach. Na przykład w przypadku roweru z zepsutą częścią możesz dodać tekst „w pobliżu” do zapytania wyszukiwania ze zdjęciem, aby znaleźć lokalny sklep rowerowy lub sklep ze sprzętem, który miał potrzebną część zamienną.

Ta funkcja będzie dostępna we wszystkich językach i krajach, w których Obiektyw jest dostępny w ciągu najbliższych kilku miesięcy, powiedział Google. W nadchodzących miesiącach rozszerzy się również poza urządzenia mobilne z obsługą wielu wyszukiwań w Internecie.

Jeśli chodzi o nowe produkty do wyszukiwania, gigant wyszukiwania drażnił się z nadchodzącą funkcją Google Lens, zauważając, że użytkownicy Androida wkrótce będą mogli wyszukiwać to, co widzą na zdjęciach i filmach w aplikacjach i witrynach na swoim telefonie, pozostając nadal w aplikacji lub na Strona internetowa. Google nazywa to „przeszukaj swój ekran” i powiedział, że będzie również dostępne wszędzie tam, gdzie oferowany jest Lens.

Warto przeczytać!  OnePlus 11 i starsze urządzenia otrzymują aktualizację OxygenOS 13.1

Google udostępnił również nowy kamień milowy dla Google Lens, zauważając, że ludzie używają tej technologii ponad 10 miliardów razy miesięcznie.




Źródło