Sztuczna inteligencja

Sztuczna Inteligencja firmy Google, stworzyła własną SI przewyższającą wszystkie inne!
Już na początku 2017 roku, naukowcy pracujący w ramach projektu Google Brain ogłosili istnienie sztucznej inteligencji AutoML. Narzędzia zdolnego do tworzenia własnych o wiele bardziej rozwiniętych sztucznych inteligencji. Terazo nieco ponad 8 miesiącach ogłoszono, że SI zdołała stworzyć nową wersje samej siebie, która jest najbardziej zaawansowanym tworem tego typu na świecie.
AutoML pełniło w tym procesie funkcję sieci neuronowej, która rozwijała dziecięcą sieć SI dla określonego zadania. Badacze nazwali ją NASNet, a jej zadaniem było rozpoznanie obiektów zaprezentowanych na nagraniach wideo. Sztuczna inteligencja miała rozpoznawać na nich ludzi, samochody, światła uliczne, torebki, plecaki, paralotnie itp. Wszystko to w czasie rzeczywistym.
AutoML szacowało wydajność NASNetu i wykorzystywało te informacje do dalszego ulepszenia swojej sztucznej inteligencji, powtarzając ten proces tysiące razy. Podczas testowania w zestawach danych obrazów ImageNet i COCO, które naukowcy Google nazywają „dwoma najbardziej szanowanymi zestawami danych akademickich na dużą skalę w dziedzinie wizji komputerowej”, NASNet prześcignął wszystkie inne sztuczne inteligencje powstałe ręką człowieka.
Według naukowców NASNet uzyskał 82,7 procent dokładności w prognozowaniu obrazów w zestawie walidacyjnym ImageNet. Jest to o 1,2 procent lepszy wynik niż jakiekolwiek wcześniej opublikowane wyniki, system jest również o 4 procent bardziej wydajny, z średnią średnią precyzją 43,1 procent (mAP). Dodatkowo, mniej wymagająca obliczeniowo wersja NASNet przewyższyła najlepsze modele o podobnych rozmiarach dla platform mobilnych o 3,1 procent.
Koncepcja, która się za tym kryje, jest dość prosta – algorytm uczy się, uzyskując ogromną liczbę danych – proces ten wymaga ogromnej ilości czasu i wysiłku. Automatyzując proces tworzenia dokładnych, wydajnych SI, sztuczna inteligencja, która może zbudować sztuczną inteligencję, bierze na siebie ciężar tej pracy. Pojawia się tutaj jednak dość istotny problem. Nawet jeśli rezultaty osiągnięte przez NASNet i AutoML wydają się niesamowite, koncept istnienia sztucznej inteligencji, która może tworzyć własną sztuczną inteligencję, niesie ze sobą istotne zagrożenia.
Co jeśli w pewnym momencie tego typu system osiągnąłby samoświadomość i stwierdził, że nie zamierza już dłużej służyć ludziom? Wszyscy znamy chyba fabułę serii filmów o Terminatorze i mimo iż daleko nam do humanoidalnych maszyn mordujących ludzi, to samoreplikujące się systemy komputerowe są istotnym zagrożeniem dla przyszłości rodzaju ludzkiego.
Aby to zrozumieć, wystarczy wspomnieć fiasko Sztucznej Inteligencji autorstwa Microsoftu. Bot o nazwie Tay został opracowany w taki sposób aby potrafił rozmawiać z innymi ludźmi, opowiadać żarty, komentować czyjeś zdjęcia, odpowiadać na pytania a nawet naśladować cudze wypowiedzi. Jest to oprogramowanie, które potrafi się uczyć podczas dyskusji w internecie. Microsoft pozwolił temu botowi prowadzić dyskusje na Twitterze. Szybko okazało się iż był to wielki błąd, a program w ciągu 24 godzin nauczył się wypisywać bardzo niestosowne, wulgarne, niepoprawne politycznie komentarze. Poddawał w wątpliwość Holocaust, stał się rasistą, antysemitą, znienawidził feministki i popierał masowe mordy Adolfa Hitlera.
Innym razem SI opracowane przez korporację Facebook stworzyły własny język, niezrozumiały dla nikogo poza nimi. Maszyny, oryginalnie korzystały z języka angielskiego, lecz samodzielnie go zmodyfikowały, aby zwiększyć efektywność komunikacji. W konsekwencji czego, facebook zadecydował o wyłączeniu ich na dobre. Jest to zaledwie kilka przykładów na nieprzewidywalny rozwój sztucznych umysłów.
Rządy wielu państw na świecie, już teraz pracują nad przepisami zapobiegającymi wykorzystywaniu sztucznej inteligencji do niebezpiecznych celów, takich jak autonomiczna broń. Dopóki ludzie utrzymują kontrolę nad ogólnym kierunkiem rozwoju sztucznej inteligencji, nie mamy się czego obawiać, jednak jeśli dojdzie do popularyzacji systemów takich jak AutoML niebezpieczeństwo powstania hipotetycznego SkyNetu jest jak najbardziej realne.
Sztuczna inteligencja jest przez wielu postrzegana jako poważne zagrożenie dla ludzkości. Część specjalistów bardzo niepokoi fakt, że choć nie zdajemy sobie jeszcze sprawy ze wszystkich niebezpieczeństw jakie będą w przyszłości na nas czekać, SI jest rozwijana na potęgę i staje się wszechobecna. Niepokój ten wynika z tego, że w ciągu najbliższych kilkunastu lat sztuczna inteligencja dorówna a następnie przewyższy ludzi w rozumowaniu.
Zdaniem brytyjskiego naukowca Stephena Hawkinga, który w ostatnich latach regularnie porusza ten temat, pewnego dnia SI stanie się zaawansowana do tego stopnia, że będziemy musieli ją uznać jako nową formę życia. Według niego stanie się tak, gdy człowiek opracuje system, który otrzyma umiejętność ciągłego doskonalenia się i samoreplikacji.
W przeszłości Hawking ostrzegał, że sztuczna inteligencja w najlepszym przypadku radykalnie odmieni naszą cywilizację, ale może również doprowadzić do jej upadku. Nastąpi to gdy inteligentne systemy uznają człowieka za zagrożenie dla Ziemi lub siebie samej. Dlatego od kilku lat część naukowców i ekspertów twierdzi, że trzeba stale monitorować rozwój SI i mieć nad nią pełną kontrolę.
Dzisiejsza sztuczna inteligencja posiada coraz większe możliwości. Amerykańska korporacja Google od dłuższego czasu pracuje nad systemem, który będzie potrafił przewidywać konsekwencje podejmowanych przez siebie decyzji. W październiku firma zaprezentowała program AutoML, który samodzielnie ulepszył swój kod źródłowy i stworzył nową wydajniejszą wersję samego siebie. Jak tak dalej pójdzie to obawy Stephena Hawkinga i wielu innych ekspertów ziszczą się szybciej niż nam się wydaje.
M@tis/John Moll/ innemedium

Related News

Leave a Reply

Your email address will not be published. Required fields are marked *

COPYRIGHT 2014 ZYCIE PUBLISHING SERVICES. ALL RIGHTS RESERVED.