Firma, która zbudowała platformę Hanooman AI, może wypuścić system operacyjny za trzy miesiące
![Firma, która zbudowała platformę Hanooman AI, może wypuścić system operacyjny za trzy miesiące](https://oen.pl/wp-content/uploads/2024/05/110427620-770x470.jpg)
Z raportu wynika, że Seetha Mahalaxmi Healthcare (SML), firma, która uruchomiła platformę Hanooman Generative Artificial Intelligence (GenAI) zbudowaną w Indiach, planuje zadebiutować w systemie operacyjnym (OS).
Według raportu Vishnu Vardhana, współzałożyciela i dyrektora generalnego SML, firma planuje zbudować kompleksowy ekosystem rozwiązań AI – wynika z raportu Moneycontrol. Vardhan powiedział, że testy beta systemu operacyjnego mogą zostać ogłoszone w przyszłym miesiącu, a potencjalne wdrożenie nastąpi w ciągu trzech miesięcy.
„Pracujemy nad budowaniem mniejszych modeli sztucznej inteligencji, w których nie trzeba uruchamiać nawet procesorów graficznych. Podchodzimy szczegółowo i myślę, że to kolejna wielka szansa. Hanooman potrzebuje narzędzi aplikacyjnych, które można łatwo wdrożyć. Tworzymy te aplikacje; a także jego system operacyjny w nadchodzących miesiącach. Tworzymy rodzaj platformy pozbawionej kodu” – powiedział Vardhan.
Platforma Hanooman AI jest dostępna w 98 językach na całym świecie, w tym w 12 językach indyjskich, i ma dotrzeć do 200 milionów użytkowników w pierwszym roku od uruchomienia.
„Budujemy system operacyjny w oparciu o duże modele językowe (LLM). Ponieważ programy LLM mogą ujawniać interfejsy API użytkowników, poszliśmy o krok do przodu i pomyśleliśmy o zbudowaniu narzędzi, w których każdy z odrobiną wiedzy będzie mógł wdrożyć agentów w swojej firmie… Ten system operacyjny może działać na dobrych laptopach. Chcemy przenieść przetwarzanie brzegowe do generatywnej sztucznej inteligencji, ale będziemy musieli do tego użyć laptopów. Wdrożenie chipów byłoby kosztowne” – dodał.
Dlaczego firma chce opracować system operacyjny
Celem firmy jest ograniczenie drogich procesorów graficznych (GPU) do obsługi LLM, a system operacyjny ma być kolejnym krokiem w tym kierunku. Oprócz systemu operacyjnego firma opracowuje także modele małych języków (SLM) klasy korporacyjnej, aby rozwiać obawy związane z LLM udostępniającymi interfejsy API dla przedsiębiorstw.
SLM są opłacalną alternatywą dla LLM i są specjalnie przeszkoleni do wykonywania określonych zadań. Mogą działać z mniejszą mocą obliczeniową.
Według raportu Vishnu Vardhana, współzałożyciela i dyrektora generalnego SML, firma planuje zbudować kompleksowy ekosystem rozwiązań AI – wynika z raportu Moneycontrol. Vardhan powiedział, że testy beta systemu operacyjnego mogą zostać ogłoszone w przyszłym miesiącu, a potencjalne wdrożenie nastąpi w ciągu trzech miesięcy.
„Pracujemy nad budowaniem mniejszych modeli sztucznej inteligencji, w których nie trzeba uruchamiać nawet procesorów graficznych. Podchodzimy szczegółowo i myślę, że to kolejna wielka szansa. Hanooman potrzebuje narzędzi aplikacyjnych, które można łatwo wdrożyć. Tworzymy te aplikacje; a także jego system operacyjny w nadchodzących miesiącach. Tworzymy rodzaj platformy pozbawionej kodu” – powiedział Vardhan.
Platforma Hanooman AI jest dostępna w 98 językach na całym świecie, w tym w 12 językach indyjskich, i ma dotrzeć do 200 milionów użytkowników w pierwszym roku od uruchomienia.
„Budujemy system operacyjny w oparciu o duże modele językowe (LLM). Ponieważ programy LLM mogą ujawniać interfejsy API użytkowników, poszliśmy o krok do przodu i pomyśleliśmy o zbudowaniu narzędzi, w których każdy z odrobiną wiedzy będzie mógł wdrożyć agentów w swojej firmie… Ten system operacyjny może działać na dobrych laptopach. Chcemy przenieść przetwarzanie brzegowe do generatywnej sztucznej inteligencji, ale będziemy musieli do tego użyć laptopów. Wdrożenie chipów byłoby kosztowne” – dodał.
Dlaczego firma chce opracować system operacyjny
Celem firmy jest ograniczenie drogich procesorów graficznych (GPU) do obsługi LLM, a system operacyjny ma być kolejnym krokiem w tym kierunku. Oprócz systemu operacyjnego firma opracowuje także modele małych języków (SLM) klasy korporacyjnej, aby rozwiać obawy związane z LLM udostępniającymi interfejsy API dla przedsiębiorstw.
SLM są opłacalną alternatywą dla LLM i są specjalnie przeszkoleni do wykonywania określonych zadań. Mogą działać z mniejszą mocą obliczeniową.