Samsung Galaxy S9 jest już na rynku, a niebawem dołączy do niego Huawei P20 - kolejny flagowy model z Azji. Oba te smartfony łączy między innymi fakt posiadania kamery 3D - takiej jak w nowym iPhone X od Apple. Wszystko wskazuje, że technologie pomiaru głębi będą kolejnym polem bitwy pomiędzy technologicznymi gigantami. W najbliższym czasie wszyscy dowiemy się, czy Samsungowi i Huawei uda się dorównać osiągnięciom najnowszego iPhone'a.
Poprzeczka ustawiona przez Apple z ich kamerą TrueDepth znajduje się bardzo wysoko, jak ocenia Pierre Cambou z działu układów MEMS i wizyjnych w firmie Yole Développement. Przewiduje on, że w ciągu około roku, na rynku pojawią się technologie mogące konkurować z produktami Apple.
Inaczej jednak niż w przypadku wyścigu na ilość megapikseli we wbudowanym w smartfon aparacie, sektor sensorów 3D jest trudniejszy zarówno w ocenie wzrostu, jak i w poprawie parametrów urządzeń. Moduł kamery 3D składa się tak na prawdę z szerokiej gamy urządzeń. Wszystkie one muszą ze sobą sprawnie współpracować. Istotne jest także zgranie dostaw wszystkich elementów od podwykonawców, na etapie budowy smartfona. Kamery 3D nazwać można "zbieraniną podjednostek", jak mówi Cambou. "Jak jest w przypadku Apple iPhone X? Szereg firm zaangażowanych jest w stworzenie modułu 3D w tym smartfonie: STMicroelectronics, LG Innotex, Foxcon, Ams i Lumentum" - wymienia analityk.
Jeśli chodzi o Galaxy S9 od Samsunga, to obecne recenzje nowego smartfona mówią, że system rozpoznawania twarzy użytkownika, wbudowany w telefon, jest co najmniej rozczarowujący. "Jak pokazuje dogłębne spojrzenie na nowy system weryfikacji biometrycznej Samsunga i to jak wypada on w porównaniu z FaceID iPhone X, system ten nie jest zbyt bezpieczny; na pewno nie na tyle, by obsługiwać płatności mobilne" - czytamy na portalu CNET. "System rozpoznawania twarzy Samsunga wykorzystuje zwykłą kamerę 2D do rozpoznawania twarzy. Dla kontrastu Face ID od Apple korzysta ze złożonego systemu skanowania 3D, by rozpoznać twarz użytkownika" - wyjaśnia portal. Więcej na temat modułu TrueDepth w iPhone X pisaliśmy na Elektrodzie jakiś czas temu. Zwykła kamera 2D zamontowana w Galaxy S9 niestety daje się łatwo oszukać. Podobny system znajdował się w zeszłorocznym S8 i ludziom z powodzeniem udało się oszukiwać go wykorzystując do tego zdjęcia właściciela telefonu. Wszystko wskazuje na to, że ta sama sztuczka powinna działać też z nowym smartfonem koreańskiego producenta.
Jeśli natomiast chodzi o Huawei P20, sprawa wygląda inaczej. Aczkolwiek sam telefon nie ukazał się jeszcze na rynku, to doniesienia prasowe wskazują, że ma on być wyposażony w "potrójną kamerę", co Huawei mocno podkreśla, jako jedną kluczową z cech nowego smartfona.
Czemu potrójna kamera? W czym lepsza jest od dwóch kamer? Te pytania łatwo jest zadać, jednakże odpowiedź na nie jest dosyć złożona. "Systemy z trzema kamerami są mało zbadanym jeszcze rejonem, który dopiero co zaczyna być wprowadzany do wykorzystania i musi udowodnić swoje zalety" - mówi Eran Briman, wicedyrektor ds. marketingu w firmie Corephotonics - rynkowego lidera w systemach wykorzystujących dwie kamery.
Trzeba jednak pamiętać, że trzy kamery zestawione mogą być ze sobą w różnych formach i konfiguracjach, jak mówi Briman. Różne konfiguracje modułu wizyjne mogą mieć różne cele; układy mogą lepiej działać w warunkach słabego oświetlenia, mieć lepszy zoom, większą głębię obrazu, wyższą rozdzielczość czy jakość obrazu.
Jak mówi Briman, w skład trójkamerowego systemu wchodzić mogą następujące trzy kamery:
a) Zwykła kolorowa kamera (RGB), kamera monochromatyczna oraz kamera wąsko- lub szerokokątna.
b) Kamera szerokokątna np. z obiektywem typu rybie oko, standardowa kamera i kamera z teleobiektywem.
c) Standardowa kamera szerokokątna i dwie kamery z teleobiektywami, jedna z dwukrotnym przybliżeniem, druga z pięciokrotnym.
"Inne konfiguracje są oczywiście także możliwe, także włączając w to zupełnie różne sensory obrazu" - podsumowuje Briman. "Co jednak najważniejsze, takie trzy kamery są w stanie dostarczyć większej ilości informacji na temat głębi obrazu niż zwykle stosowany układ dwóch kamer. (...) Główną przyczyną tego jest fakt, że odległość pomiędzy kamerami, w szczególności pomiędzy pierwsza w trzecią kamerą systemu, będzie większa. Im większa jest ta odległość, tym informacje na temat głębi obrazu są precyzyjniejsze, ale z drugiej strony z większą odległością w parze idzie także większe obciążenie dla oprogramowania, związane z problemami z okluzjami obrazu, synchronizacją trzech kamer etc. Dodatkowo, łącząc informacje z trzech kamer, dostanie się w teorii więcej informacji niż wykorzystując tylko dwie" - tłumaczy Briman.
Innymi słowy podejście Huawei z trzema kamerami jest elementem strategii firmy, by rozwinąć swoją technologię pomiaru głębi obrazu. Jakkolwiek nie ma obecnie żadnych potwierdzonych informacji, analitycy sugeruję, że technologie sensorów 3D firma ta rozwija we współpracy z Qualcommem. Firma ta ogłosiła w zeszłym roku, że współpracuje z Himax Technologies nad w pełni zintegrowanym modułem oświetlenia strukturyzowanego. Dodatkowo wiadomo, że moduł kamery głębi od Qualcomma w produkcji pojawić miał się w pierwszym kwartale tego roku.
Kto jest kim w świecie obrazów 3D
Jak opisuje Yole, Apple wykorzystuje do identyfikacji twarzy użytkownika i odblokowywania telefonu połączenie kamery wykorzystującej czas przelotu światła do analizy głębi obrazu z modułem kamery z strukturyzowaną iluminację. Oświetlenie jest sterowane przez moduł i zmienia się w razie potrzeby z zalania światłem całego obrazi do wyświetlania wzoru kropek.
Apple iPhone X najpierw robi zdjęcie z pomocą kamery w podczerwieni z równomiernym oświetleniem. Zrobienie zdjęcia uruchamia algorytm detekcji twarzy. System ten jednak nie został zaprojektowany do ciągłej pracy - za wykrycie, że przed telefonem pojawiła się w ogóle twarz odpowiada sensor czasu przelotu. Uruchamia on kamerę podczerwoną która robi zdjęcie - najpierw normalnie, a potem z oświetleniem strukturyzowanym w postaci macierzy kropek.
Dane zebrane z tych wszystkich sensorów przesyłane są do procesora aplikacyjnego, który wykorzystując sieć neuronową wytrenowaną do rozpoznawania twarzy użytkownika, analizuje, czy twarz przed telefonem to właśnie użytkownik i czy można odblokować telefon.
Jak zwraca uwagę Cambou, system w żaden sposób nie generuje realnego obrazu 3D. "Wszystkie informacje, jakie są potrzebne do rekonstrukcji obrazu trójwymiarowego zawarte są w zdjęciu z strukturyzowanym oświetleniem. Aby korzystać z aplikacji wykorzystującej obrazy 3D, procesor aplikacyjny wyznacza mapę głębokości na podstawie obrazu z strukturyzowanym oświetleniem" - mówi analityk. "iPhone X wykorzystuje ogromną, dostępną w procesorze A11, moc obliczeniową, jako że podejście z wykorzystaniem strukturyzowanego oświetlenia jest bardzo zasobożerne. Wykorzystanie sieci neuronowej jest kluczową technologią, która sprawia, że takie podejście jest w ogóle możliwe".
W ogólności, jeśli chodzi o sensory 3D istnieją zasadniczo trzy technologie: obrazu stereo, system oświetlenia z strukturyzowanym światłem oraz sensory mierzące czas przelotu światła. W zaprezentowanej obok tabeli zebrane przez Yole zostały wady i zalety wszystkich tych technologii.
Każdy z modułów określanych jako "kamera 3D" tak naprawdę składa się z szeregu urządzeń. Analitycy z Yole dokładnie analizują każde z nich. I tak, jeśli chodzi o aktywne systemy obrazu stereo to składają się one z dwóch zsynchronizowanych kamer NIR (pracujących w bliskiej podczerwieni) oraz opcjonalnie oświetlacza NIR. Kamery takie dostarcza Omnivision lub STMicroelectronics, a oświetlacze Ostam, Lumentum, Finisar i Ams. Dodatkowo potrzebny jest sprzętowy akcelerator - dedykowany procesor wizyjny. Układy takie produkuje Iniutive oraz Intel-Movidius.
Jeśli chodzi o systemy z oświetleniem strukturyzowanym, to moduł taki składać ma się z jednej kamery z globalną migawką, którą dostarcza Omnivision lub STMicroelectronics oraz strukturyzowanego oświetlacza NIR - takie moduły dostarczają Ams, Himax, Namuga oraz Goertek. Do tego potrzebne jest odpowiednie oprogramowanie do rekonstrukcji 3D, które tworzą firmy, takie jak Apple Primesense, Mantis, Namuga czy Orbbec.
Trzecia kategoria to systemy z pomiarem czasu przelotu impulsu. Tego rodzaju systemy produkowane są przez PMD oraz Sony/Softkinetic. Towarzyszyć im mogą dedykowane oświetlacze NIR produkcji Osrama, Lumentum, Finisara lub Ams. Jak zauważa dodatkowo Cambou, tego rodzaju sensory zapewnia także STMicro oraz Ams, ale ich urządzenia mają rozdzielczość zaledwie kilku pikseli - nie jest to prawdziwa kamera jak u konkurencji.
Jak konkurować z Applem?
Jeśli założymy, że technologia TrueDepth z iPhone X wyprzedza wszystkich innych, tak jak mówią analitycy z Yole, to czego dokładnie brakuje konkurencji w ich kamerach 3D? Jak wskazuje Cambou, jednym z kluczowych czynników powodzenia jest "silnik neuronowy", czyli odpowiedni algorytm, np. oparty o sieć neuronową, który umożliwi wykorzystanie posiadanego sprzętu. "Qualcomm szybko ruszył ze swoim rozwiązaniem, chcąc dołączyć do grona posiadaczy systemów 3D w portfolio, ale póki co... niewiele się stało" - dodaje. "Aby wszystko się udało, trzeba skonstruować system integrujący w sobie kamerę 2D i 3D, który mieści się w przedniej części smartfona i kosztuje poniżej 15 dolarów" - podsumowuje analityk. Takie zadanie nie jest proste, ale z pewnością jest możliwe, jak pokazuje rynek.
Co więcej, "system ten musi mieć pewien minimalny poziom jakości działania w zakresie identyfikacji parametrów biometrycznych" - mówi Cambou - "Jeżeli da się w prosty sposób go oszukać, to nie jest to pożądane rozwiązanie".
"Tutaj chyba tkwi właśnie największy problem" - mówi analityk - "Apple wiedziało od początku, po co projektuje kamerę 3D. Od początku firma pracowała nad interfejsem mającym identyfikować dane biometryczne osoby". W tym czasie konkurencja nie miała tak czytelnej wizji funkcjonalności swojego produktu.
"Poziom jakości działania, jaki wymaga Apple od systemu identyfikacyjnego znajduje się bardzo wysoko - dużo wyżej niż to, co osiąga obecnie konkurencja. To, w jaki sposób np. Himax zmaga się z zadaniem wskazuje, że nie jest to jedynie kwestia technologiczna, ale zasadniczy problem ze zrozumieniem zadania" - podsumowuje Cambou.
Czy ktoś jeszcze, oprócz wspominanych firm zajmuje się tymi technologiami? Analityk z Yole wskazuje tutaj głównie na Mediateka. Firma ta dostarcza obecnie procesory aplikacyjne do niektórych systemów sensorów 3D, ale chce rozszerzyć swój wkład i zacząć dostarczać akceleratory sieci neuronowych, dedykowane do identyfikacji biometrycznej. Wszystko wskazuje, że Mediatek dostarczać będzie tego rodzaju akceleratory do nowej generacji telefonów Xiaomi, które wykorzystywać mają kamery 3D projektowane przez firmę Orbbec.
Nieuchwytny 'chiński czynnik'
Jak mówi Cambou - można wiele debatować o przyszłości kamer 3D - o tym, które są bezpieczniejsze w zakresie identyfikacji użytkownika; o tym, jakie w przyszłości technologie będą najpopularniejsze etc. Jednakże myśląc o tym, nie możemy zapominać o 'chińskim czynniku'. Państwo Środka jest ogromnym rynkiem, na którym dominuje jeden dostawca płatności - Alipay. Metoda identyfikacji, która wykorzystywać będzie kamerę 3D, która okaże się dostatecznie dobra dla Alipay, szybko stanie się de facto standardem przemysłowym, z uwagi na ogrom tego rynku.
Aplikacje, takie jak WeChat czyt Alipay, które w przyszłości wykorzystywać mają systemy identyfikacji użytkownika z pomocą kamer trójwymiarowych są w Chinach niezwykle popularne. Jak oceniają analitycy - system, który przyjęty zostanie w tym kraju, wygra w tym sensie, że to on zostanie szeroko zaadaptowany na całym świecie, jako nowej generacji system identyfikacyjny.
Źródło: https://www.eetimes.com/document.asp?doc_id=1333098
Poprzeczka ustawiona przez Apple z ich kamerą TrueDepth znajduje się bardzo wysoko, jak ocenia Pierre Cambou z działu układów MEMS i wizyjnych w firmie Yole Développement. Przewiduje on, że w ciągu około roku, na rynku pojawią się technologie mogące konkurować z produktami Apple.
Inaczej jednak niż w przypadku wyścigu na ilość megapikseli we wbudowanym w smartfon aparacie, sektor sensorów 3D jest trudniejszy zarówno w ocenie wzrostu, jak i w poprawie parametrów urządzeń. Moduł kamery 3D składa się tak na prawdę z szerokiej gamy urządzeń. Wszystkie one muszą ze sobą sprawnie współpracować. Istotne jest także zgranie dostaw wszystkich elementów od podwykonawców, na etapie budowy smartfona. Kamery 3D nazwać można "zbieraniną podjednostek", jak mówi Cambou. "Jak jest w przypadku Apple iPhone X? Szereg firm zaangażowanych jest w stworzenie modułu 3D w tym smartfonie: STMicroelectronics, LG Innotex, Foxcon, Ams i Lumentum" - wymienia analityk.
Jeśli chodzi o Galaxy S9 od Samsunga, to obecne recenzje nowego smartfona mówią, że system rozpoznawania twarzy użytkownika, wbudowany w telefon, jest co najmniej rozczarowujący. "Jak pokazuje dogłębne spojrzenie na nowy system weryfikacji biometrycznej Samsunga i to jak wypada on w porównaniu z FaceID iPhone X, system ten nie jest zbyt bezpieczny; na pewno nie na tyle, by obsługiwać płatności mobilne" - czytamy na portalu CNET. "System rozpoznawania twarzy Samsunga wykorzystuje zwykłą kamerę 2D do rozpoznawania twarzy. Dla kontrastu Face ID od Apple korzysta ze złożonego systemu skanowania 3D, by rozpoznać twarz użytkownika" - wyjaśnia portal. Więcej na temat modułu TrueDepth w iPhone X pisaliśmy na Elektrodzie jakiś czas temu. Zwykła kamera 2D zamontowana w Galaxy S9 niestety daje się łatwo oszukać. Podobny system znajdował się w zeszłorocznym S8 i ludziom z powodzeniem udało się oszukiwać go wykorzystując do tego zdjęcia właściciela telefonu. Wszystko wskazuje na to, że ta sama sztuczka powinna działać też z nowym smartfonem koreańskiego producenta.
Jeśli natomiast chodzi o Huawei P20, sprawa wygląda inaczej. Aczkolwiek sam telefon nie ukazał się jeszcze na rynku, to doniesienia prasowe wskazują, że ma on być wyposażony w "potrójną kamerę", co Huawei mocno podkreśla, jako jedną kluczową z cech nowego smartfona.
Czemu potrójna kamera? W czym lepsza jest od dwóch kamer? Te pytania łatwo jest zadać, jednakże odpowiedź na nie jest dosyć złożona. "Systemy z trzema kamerami są mało zbadanym jeszcze rejonem, który dopiero co zaczyna być wprowadzany do wykorzystania i musi udowodnić swoje zalety" - mówi Eran Briman, wicedyrektor ds. marketingu w firmie Corephotonics - rynkowego lidera w systemach wykorzystujących dwie kamery.
Trzeba jednak pamiętać, że trzy kamery zestawione mogą być ze sobą w różnych formach i konfiguracjach, jak mówi Briman. Różne konfiguracje modułu wizyjne mogą mieć różne cele; układy mogą lepiej działać w warunkach słabego oświetlenia, mieć lepszy zoom, większą głębię obrazu, wyższą rozdzielczość czy jakość obrazu.
Jak mówi Briman, w skład trójkamerowego systemu wchodzić mogą następujące trzy kamery:
a) Zwykła kolorowa kamera (RGB), kamera monochromatyczna oraz kamera wąsko- lub szerokokątna.
b) Kamera szerokokątna np. z obiektywem typu rybie oko, standardowa kamera i kamera z teleobiektywem.
c) Standardowa kamera szerokokątna i dwie kamery z teleobiektywami, jedna z dwukrotnym przybliżeniem, druga z pięciokrotnym.
"Inne konfiguracje są oczywiście także możliwe, także włączając w to zupełnie różne sensory obrazu" - podsumowuje Briman. "Co jednak najważniejsze, takie trzy kamery są w stanie dostarczyć większej ilości informacji na temat głębi obrazu niż zwykle stosowany układ dwóch kamer. (...) Główną przyczyną tego jest fakt, że odległość pomiędzy kamerami, w szczególności pomiędzy pierwsza w trzecią kamerą systemu, będzie większa. Im większa jest ta odległość, tym informacje na temat głębi obrazu są precyzyjniejsze, ale z drugiej strony z większą odległością w parze idzie także większe obciążenie dla oprogramowania, związane z problemami z okluzjami obrazu, synchronizacją trzech kamer etc. Dodatkowo, łącząc informacje z trzech kamer, dostanie się w teorii więcej informacji niż wykorzystując tylko dwie" - tłumaczy Briman.
Innymi słowy podejście Huawei z trzema kamerami jest elementem strategii firmy, by rozwinąć swoją technologię pomiaru głębi obrazu. Jakkolwiek nie ma obecnie żadnych potwierdzonych informacji, analitycy sugeruję, że technologie sensorów 3D firma ta rozwija we współpracy z Qualcommem. Firma ta ogłosiła w zeszłym roku, że współpracuje z Himax Technologies nad w pełni zintegrowanym modułem oświetlenia strukturyzowanego. Dodatkowo wiadomo, że moduł kamery głębi od Qualcomma w produkcji pojawić miał się w pierwszym kwartale tego roku.
Kto jest kim w świecie obrazów 3D
Jak opisuje Yole, Apple wykorzystuje do identyfikacji twarzy użytkownika i odblokowywania telefonu połączenie kamery wykorzystującej czas przelotu światła do analizy głębi obrazu z modułem kamery z strukturyzowaną iluminację. Oświetlenie jest sterowane przez moduł i zmienia się w razie potrzeby z zalania światłem całego obrazi do wyświetlania wzoru kropek.
Apple iPhone X najpierw robi zdjęcie z pomocą kamery w podczerwieni z równomiernym oświetleniem. Zrobienie zdjęcia uruchamia algorytm detekcji twarzy. System ten jednak nie został zaprojektowany do ciągłej pracy - za wykrycie, że przed telefonem pojawiła się w ogóle twarz odpowiada sensor czasu przelotu. Uruchamia on kamerę podczerwoną która robi zdjęcie - najpierw normalnie, a potem z oświetleniem strukturyzowanym w postaci macierzy kropek.
Dane zebrane z tych wszystkich sensorów przesyłane są do procesora aplikacyjnego, który wykorzystując sieć neuronową wytrenowaną do rozpoznawania twarzy użytkownika, analizuje, czy twarz przed telefonem to właśnie użytkownik i czy można odblokować telefon.
Jak zwraca uwagę Cambou, system w żaden sposób nie generuje realnego obrazu 3D. "Wszystkie informacje, jakie są potrzebne do rekonstrukcji obrazu trójwymiarowego zawarte są w zdjęciu z strukturyzowanym oświetleniem. Aby korzystać z aplikacji wykorzystującej obrazy 3D, procesor aplikacyjny wyznacza mapę głębokości na podstawie obrazu z strukturyzowanym oświetleniem" - mówi analityk. "iPhone X wykorzystuje ogromną, dostępną w procesorze A11, moc obliczeniową, jako że podejście z wykorzystaniem strukturyzowanego oświetlenia jest bardzo zasobożerne. Wykorzystanie sieci neuronowej jest kluczową technologią, która sprawia, że takie podejście jest w ogóle możliwe".
W ogólności, jeśli chodzi o sensory 3D istnieją zasadniczo trzy technologie: obrazu stereo, system oświetlenia z strukturyzowanym światłem oraz sensory mierzące czas przelotu światła. W zaprezentowanej obok tabeli zebrane przez Yole zostały wady i zalety wszystkich tych technologii.
Każdy z modułów określanych jako "kamera 3D" tak naprawdę składa się z szeregu urządzeń. Analitycy z Yole dokładnie analizują każde z nich. I tak, jeśli chodzi o aktywne systemy obrazu stereo to składają się one z dwóch zsynchronizowanych kamer NIR (pracujących w bliskiej podczerwieni) oraz opcjonalnie oświetlacza NIR. Kamery takie dostarcza Omnivision lub STMicroelectronics, a oświetlacze Ostam, Lumentum, Finisar i Ams. Dodatkowo potrzebny jest sprzętowy akcelerator - dedykowany procesor wizyjny. Układy takie produkuje Iniutive oraz Intel-Movidius.
Jeśli chodzi o systemy z oświetleniem strukturyzowanym, to moduł taki składać ma się z jednej kamery z globalną migawką, którą dostarcza Omnivision lub STMicroelectronics oraz strukturyzowanego oświetlacza NIR - takie moduły dostarczają Ams, Himax, Namuga oraz Goertek. Do tego potrzebne jest odpowiednie oprogramowanie do rekonstrukcji 3D, które tworzą firmy, takie jak Apple Primesense, Mantis, Namuga czy Orbbec.
Trzecia kategoria to systemy z pomiarem czasu przelotu impulsu. Tego rodzaju systemy produkowane są przez PMD oraz Sony/Softkinetic. Towarzyszyć im mogą dedykowane oświetlacze NIR produkcji Osrama, Lumentum, Finisara lub Ams. Jak zauważa dodatkowo Cambou, tego rodzaju sensory zapewnia także STMicro oraz Ams, ale ich urządzenia mają rozdzielczość zaledwie kilku pikseli - nie jest to prawdziwa kamera jak u konkurencji.
Jak konkurować z Applem?
Jeśli założymy, że technologia TrueDepth z iPhone X wyprzedza wszystkich innych, tak jak mówią analitycy z Yole, to czego dokładnie brakuje konkurencji w ich kamerach 3D? Jak wskazuje Cambou, jednym z kluczowych czynników powodzenia jest "silnik neuronowy", czyli odpowiedni algorytm, np. oparty o sieć neuronową, który umożliwi wykorzystanie posiadanego sprzętu. "Qualcomm szybko ruszył ze swoim rozwiązaniem, chcąc dołączyć do grona posiadaczy systemów 3D w portfolio, ale póki co... niewiele się stało" - dodaje. "Aby wszystko się udało, trzeba skonstruować system integrujący w sobie kamerę 2D i 3D, który mieści się w przedniej części smartfona i kosztuje poniżej 15 dolarów" - podsumowuje analityk. Takie zadanie nie jest proste, ale z pewnością jest możliwe, jak pokazuje rynek.
Co więcej, "system ten musi mieć pewien minimalny poziom jakości działania w zakresie identyfikacji parametrów biometrycznych" - mówi Cambou - "Jeżeli da się w prosty sposób go oszukać, to nie jest to pożądane rozwiązanie".
"Tutaj chyba tkwi właśnie największy problem" - mówi analityk - "Apple wiedziało od początku, po co projektuje kamerę 3D. Od początku firma pracowała nad interfejsem mającym identyfikować dane biometryczne osoby". W tym czasie konkurencja nie miała tak czytelnej wizji funkcjonalności swojego produktu.
"Poziom jakości działania, jaki wymaga Apple od systemu identyfikacyjnego znajduje się bardzo wysoko - dużo wyżej niż to, co osiąga obecnie konkurencja. To, w jaki sposób np. Himax zmaga się z zadaniem wskazuje, że nie jest to jedynie kwestia technologiczna, ale zasadniczy problem ze zrozumieniem zadania" - podsumowuje Cambou.
Czy ktoś jeszcze, oprócz wspominanych firm zajmuje się tymi technologiami? Analityk z Yole wskazuje tutaj głównie na Mediateka. Firma ta dostarcza obecnie procesory aplikacyjne do niektórych systemów sensorów 3D, ale chce rozszerzyć swój wkład i zacząć dostarczać akceleratory sieci neuronowych, dedykowane do identyfikacji biometrycznej. Wszystko wskazuje, że Mediatek dostarczać będzie tego rodzaju akceleratory do nowej generacji telefonów Xiaomi, które wykorzystywać mają kamery 3D projektowane przez firmę Orbbec.
Nieuchwytny 'chiński czynnik'
Jak mówi Cambou - można wiele debatować o przyszłości kamer 3D - o tym, które są bezpieczniejsze w zakresie identyfikacji użytkownika; o tym, jakie w przyszłości technologie będą najpopularniejsze etc. Jednakże myśląc o tym, nie możemy zapominać o 'chińskim czynniku'. Państwo Środka jest ogromnym rynkiem, na którym dominuje jeden dostawca płatności - Alipay. Metoda identyfikacji, która wykorzystywać będzie kamerę 3D, która okaże się dostatecznie dobra dla Alipay, szybko stanie się de facto standardem przemysłowym, z uwagi na ogrom tego rynku.
Aplikacje, takie jak WeChat czyt Alipay, które w przyszłości wykorzystywać mają systemy identyfikacji użytkownika z pomocą kamer trójwymiarowych są w Chinach niezwykle popularne. Jak oceniają analitycy - system, który przyjęty zostanie w tym kraju, wygra w tym sensie, że to on zostanie szeroko zaadaptowany na całym świecie, jako nowej generacji system identyfikacyjny.
Źródło: https://www.eetimes.com/document.asp?doc_id=1333098
Cool? Ranking DIY