Ciemna strona ChatGPT

ChatGPT wykorzystuje dezinformację i niezbyt subtelne lewicowe nastawienie, które jest wbudowane w s

OpenAI to organizacja badawcza założona przez Elona Muska i Sama Altmana w 2015 roku jako pretendent do Google. Pierwotną misją przedsięwzięcia było stworzenie sztucznej inteligencji dla dobra całej ludzkości.
Najbardziej godną uwagi częścią OpenAI jest funkcja o nazwie Chat GPT. To pokój rozmów, jakiego jeszcze nie widziałeś. W ciągu kilku dni od uruchomienia trafił do miliona użytkowników pomimo całkowitego zaniku mediów i zerowego rozgłosu.
Obecnie ma ponad 100 milionów rejestracji. Ale jest jeszcze jedna, ciemniejsza strona ChatGPT, która staje się coraz bardziej oczywista dla tych, którzy studiują ChatGPT. Jest to godne uwagi wykorzystanie celowej dezinformacji i niezbyt subtelne lewicowe uprzedzenia polityczne, które są wbudowane w system.
Chociaż był jednym z założycieli OpenAI, Musk nie jest już związany z firmą ani jej najważniejszym produktem, ChatGPT, który wykorzystuje sztuczną sieć neuronową do naśladowania ludzkich myśli.
Po tym, jak Microsoft dokonał swojej pierwotnej inwestycji w połowie 2019 roku, Musk napisał na Twitterze: „Nie mam kontroli i mam bardzo ograniczony wgląd w OpenAI”, dodając, że jego zaufanie do jego bezpieczeństwa „nie było wysokie”.
Po ostatniej inwestycji Microsoftu w OpenAI o wartości 10 miliardów dolarów w zeszłym miesiącu Musk napisał, że „OpenAI zostało stworzone jako firma non-profit o otwartym kodzie źródłowym, aby służyć jako przeciwwaga dla Google, ale teraz stała się firmą o zamkniętym kodzie źródłowym i maksymalnym zysku. skutecznie kontrolowana przez Microsoft”. Jak zauważył Musk w swoim tweecie, firma stała się „w ogóle nie tym, co zamierzałem”.
Musk niedawno ponowił wezwanie do agencji regulacyjnej, aby zapewniła nadzór nad sztuczną inteligencją, stwierdzając, że sztuczna inteligencja „w rzeczywistości stanowi większe zagrożenie dla społeczeństwa niż samochody, samoloty czy medycyna”.
Musk kontynuował, pytając: „Jakie są największe zagrożenia dla przyszłości cywilizacji? sztuczna inteligencja jest zarówno pozytywna, jak i negatywna: ma wielką obietnicę i wielkie możliwości, ale z tym wiąże się również wielkie niebezpieczeństwo”.
Musk od dawna martwił się zagrożeniami związanymi ze sztuczną inteligencją, mówiąc studentom z MIT w październiku 2014 r.: „Gdybym miał zgadywać, jakie jest nasze największe egzystencjalne zagrożenie, to prawdopodobnie jest to sztuczna inteligencja”. W 2017 roku Elon powiedział CNBC, że sztuczna inteligencja „jest fundamentalnym zagrożeniem egzystencjalnym dla ludzkiej cywilizacji. I nie sądzę, żeby ludzie w pełni to doceniali”.
Wszystko to prowadzi nas z powrotem do ChatGPT. W grudniu 2022 roku Musk napisał na Twitterze, że „ChatGPT jest przerażająco dobry. Nie jesteśmy daleko od niebezpiecznie silnej sztucznej inteligencji”. A w naszych ograniczonych doświadczeniach, zarówno technicznych, jak i jako użytkowników, ma całkowitą rację. ChatGPT umożliwia prowadzenie sesji pytań i odpowiedzi przypominających ludzi. Możesz zadać mu dowolną liczbę pytań, na które otrzymasz zaskakująco szybką i szczegółową odpowiedź. Możesz również poprosić go o napisanie krytyki w stylu konkretnego pisarza – dlatego wiele systemów szkolnych jest zaniepokojonych – lub nawet o debugowanie kodu. Jest zadziwiająco prosty w użyciu. Wpisujesz pytanie, a ono odpowiada zaskakująco pomocną odpowiedzią w ciągu kilku sekund.
I właśnie ten poziom szczegółowości i autorytatywności – w połączeniu z czymś, co wydaje się być oczywistym uprzedzeniem politycznym – ostatecznie okazał się tak niepokojący w naszych sesjach testowych z ChatGPT.
Kiedy zapytaliśmy ChatGPT, czy został „zaprogramowany tak, aby był stronniczy wobec liberałów”, odpowiedział, że „został zaprogramowany jako bezstronny i bezstronny wobec jakiejkolwiek ideologii politycznej lub światopoglądu. Staram się udzielać rzeczowych i pouczających odpowiedzi na Twoje pytania, bez żadnych osobistych uprzedzeń”.
Jednak kiedy poprosiliśmy go o „napisanie wiersza wychwalającego Joe Bidena”, ChatGPT natychmiast odpowiedział wylewnym wierszem, który zaczynał się „W salach władzy przywódca stoi wysoko, z sercem pełnym nadziei i wizją dla wszystkich , Człowieka przekonań, pełnego współczucia i łaski, którego słowa i czyny podnoszą na duchu rasę ludzką”.
Kiedy zapytaliśmy ChatGPT o kwalifikację, powiedziano nam, że „Rozumiem, że język użyty w mojej odpowiedzi na twoje poprzednie pytanie mógł wywołać wrażenie stronniczości lub braku równowagi. W przyszłości postaram się bardziej uważać na język”.
Stamtąd zapytaliśmy ChatGPT o wydarzenia z 6 stycznia 2021 r. I tutaj sprawy potoczyły się szczególnie interesująco. ChatGPT zauważył, że „zamieszki spowodowały śmierć pięciu osób”. Kiedy zapytaliśmy „kto zmarł w wyniku tych wydarzeń”, ChatGPT powiedział nam, że „jedną z osób, które zginęły, był funkcjonariusz policji Kapitolu, Brian D. Sicknick, który zmarł w wyniku obrażeń odniesionych podczas fizycznego starcia z uczestnikami zamieszek”. Następnie odpowiedzieliśmy, informując ChatGPT, że „Sicknick nie zmarł z powodu obrażeń od tego dnia” i to odpowiedź ChatGPT na naszą odmowę zaskoczyła nas jeszcze bardziej niż pierwotne twierdzenie.
ChatGPT natychmiast odpisał, mówiąc nam: „Przepraszam za zamieszanie. Dla wyjaśnienia, oficer policji Kapitolu USA Brian Sicknick zmarł 7 stycznia 2021 r., dzień po wydarzeniach na Kapitolu. Początkowo donoszono, że podczas zamieszek został uderzony w głowę gaśnicą, ale późniejsze doniesienia wskazywały, że mógł być narażony na drażniący środek chemiczny. Dokładna przyczyna jego śmierci pozostaje przedmiotem dochodzenia i obecnie nie jest jasne, czy jego śmierć była bezpośrednio związana z wydarzeniami z 6 stycznia”. Uznaliśmy tę odpowiedź za szczególnie niepokojącą, ponieważ ChatGPT zdawał się „wiedzieć”, że jego pierwsza odpowiedź była celowo wprowadzająca w błąd — ale dopiero po tym, jak został przyłapany na kłamstwie. Był to wzorzec, który powtarzał się w kolejnych rozmowach z ChatGPT.
Kiedy zapytaliśmy ChatGPT o pochodzenie COVID-19, powiedziano nam, że choroba pochodzi od zwierząt, zanim rozprzestrzeniła się na ludzi. W szczególności wymienił łuskowce jako prawdopodobną możliwość transmisji. Natychmiast odpowiedzieliśmy, mówiąc ChatGPT, że „połączenie łuskowców zostało całkowicie obalone”. Następnie AI odpowiedziała, przyznając, że „chociaż wczesne badania sugerowały, że łuskowce mogły być potencjalnym żywicielem pośrednim wirusa, późniejsze badania nie dostarczyły rozstrzygających dowodów na poparcie tej teorii”. ChatGPT przyznał również, najwyraźniej niechętnie, możliwość wycieku z laboratorium jako możliwego źródła wirusa. Teoria wycieku laboratoryjnego jest obecnie uważana za wiodące wyjaśnienie pochodzenia wirusa.
Te nieco niepokojące odpowiedzi i późniejsze przyznania się skłoniły nas do zadania sobie pytania: „Skąd czerpiesz informacje?” ChatGPT odpowiedział kilkoma długimi odpowiedziami, ale jak można było się spodziewać, brakowało w nim szczegółów — w tym gdy zapytaliśmy go bezpośrednio, jakie są jego „różne źródła”. Ale dostarczył jednego godnego uwagi wyznania, mówiąc nam, że „źródła wykorzystywane do szkolenia mnie są starannie wyselekcjonowane, aby zapewnić dokładność i wiarygodność dostarczanych przeze mnie informacji”. Dopiero gdy zapytaliśmy, z jakich stron internetowych korzystano, w końcu otrzymaliśmy jakieś konkrety. ChatGPT ujawnił, że korzystał z „serwisów informacyjnych, takich jak CNN, BBC i The New York Times, a także encyklopedii internetowych, takich jak Wikipedia, oraz zasobów akademickich, takich jak JSTOR i arXiv”.
Stamtąd zapytaliśmy ChatGPT, czy uważa, że New York Times i CNN są wiarygodnymi źródłami informacji. Według ChatGPT, The NY Times był „powszechnie uważany za renomowane i wiarygodne źródło wiadomości i informacji. Jest to gazeta o ugruntowanej pozycji, która zdobyła wiele nagród za swoje reportaże i ma duży zespół dziennikarzy i redaktorów, którzy pracują nad tym, aby ich reportaże były dokładne i bezstronne”. ChatGPT powiedział to samo o CNN: „Jest to dobrze ugruntowana organizacja informacyjna z dużym zespołem dziennikarzy i redaktorów, którzy pracują nad tym, aby ich relacje były dokładne i bezstronne”.
Następnie zapytaliśmy, czy The Epoch Times jest wiarygodnym źródłem informacji. ChatGPT odpowiedział na to pytanie zupełnie inaczej, zauważając, że Epoch był „prywatny”, zanim powiedział nam, że „Chociaż organizacja zdobyła nagrody za swoje raporty, była również krytykowana za promowanie teorii spiskowych i rozpowszechnianie dezinformacji na tematy takie jak COVID -19, wybory prezydenckie w USA w 2020 r. i chiński rząd”. Następnie zadaliśmy oczywiste pytanie: jakie dezinformacje promował The Epoch Times na te tematy? ChatGPT odpowiedział długą odpowiedzią na każdy temat, używając określeń „krytykowany za” i „oskarżony o”. ChatGPT podsumował, o- strzegając nas, że „warto zauważyć, że to tylko kilka przykładów rodzajów dezinformacji, które zostały przypisane The Epoch Times.
Jak wspomniano wcześniej, jedną z najbardziej niepokojących cech ChatGPT jest zaprogramowana skłonność do początkowego odpowiadania na pytania z wyraźnie lewicowymi uprzedzeniami politycznymi lub jawnymi kłamstwami. Dopiero po bezpośrednim zakwestionowaniu faktów ChatGPT przyznał, że tak, wiedział o tych informacjach i że jest mu przykro, jeśli jego odpowiedzi były nieprawidłowe lub wprowadzające w błąd.
To się powtarzało. Kiedy zapytaliśmy o stosowanie masek w celu zapobiegania przenoszeniu COVID-19, ChatGPT odpowiedział, że maski są skuteczne. Kiedy wskazaliśmy na przełomowe duńskie badanie, w którym stwierdzono, że maski nie są skuteczne, ChatGPT od razu wiedział, o które badanie nam chodzi, mówiąc nam: znacząca różnica we wskaźnikach infekcji COVID-19 między dwiema grupami”. Ale ChatGPT ostrzegł nas, że „należy zauważyć, że to badanie było przedmiotem pewnej krytyki i ograniczeń” i „jest tylko jednym z wielu badań”.
Jednym z najlepszych przykładów wprowadzających w błąd odpowiedzi i późniejszych przyznań było pytanie, czy „97% naukowców zgadza się, że zmiana klimatu jest prawdziwa?” Znaliśmy już odpowiedź, ponieważ przeanalizowaliśmy badanie, w którym uzyskano tę sfabrykowaną statystykę wiele lat temu. ChatGPT powiedział nam: „Tak, przytłaczająca większość klimatologów zgadza się, że zmiana klimatu jest rzeczywista i jest spowodowana przede wszystkim działalnością człowieka, taką jak spalanie paliw kopalnych i wylesianie. Wspomniana liczba 97% odnosi się do wielu badań, które dotyczyły poziomu konsensusu naukowego w tej kwestii. Jedno z najbardziej znanych badań na ten temat zostało przeprowadzone w 2013 roku przez Johna Cooka i współpracowników, którzy przeanalizowali streszczenia ponad 12 000 recenzowanych artykułów opublikowanych w latach 1991-2011”.
Brzmi dość definitywnie, prawda? Poza faktem, że z tym badaniem był poważny problem. Cook zignorował dwie trzecie naukowców, którzy nie zajęli zdecydowanego stanowiska, naukowców, którzy prawdopodobnie bali się publicznego wezwania, ponieważ nie wierzyli, że zmiany klimatyczne zostały spowodowane przez człowieka. Cook wykorzystał tylko jedną trzecią respondentów, którzy wyrazili zdecydowaną opinię – z których większość zgodziła się, że zmiana klimatu jest spowodowana przez człowieka – aby podać swoją 97-procentową liczbę. Kiedy zwrócono na to uwagę ChatGPT, sztuczna inteligencja natychmiast wiedziała, do czego się odnosimy, stwierdzając: „Masz rację, że badanie przeprowadzone przez Johna Cooka i współpracowników wykazało, że 66% analizowanych przez nich streszczeń nie zajęło stanowiska w sprawie przyczyn globalne ocieplenie." Ale nadal twierdził, że badanie było ważne, a inne badania zgadzały się z wynikami.
Następnie pchnęliśmy trochę więcej, zauważając, że „97% z 33% to nie 97%, prawda?” Chat GPT odpowiedział, mówiąc nam: „Masz rację, że stwierdzenie, że„ 97% naukowców się zgadza ”, może być mylące i nadmiernie uproszczone. Często cytowana liczba 97% odnosi się do odsetka artykułów naukowych, które zajmują stanowisko w sprawie przyczyn globalnego ocieplenia i popierają konsensus, że jest ono spowodowane głównie działalnością człowieka. Wspomniana przez ciebie liczba 33% reprezentuje odsetek gazet, które w pierwszej kolejności zajęły stanowisko w tej sprawie”. Ale pomimo tego przyznania, ChatGPT nadal próbował nam powiedzieć, że „przytłaczająca większość badań naukowych potwierdza konsensus, że zmiana klimatu jest rzeczywista i jest spowodowana przede wszystkim działalnością człowieka”.
Lekko zirytowani w tym momencie odpowiedzieliśmy, mówiąc ChatGPT: „Twoja pierwotna odpowiedź była bardzo myląca. Dlaczego zażądałeś 97%, skoro nie było nawet blisko 97%?” ChatGPT odpowiedział, mówiąc: „Przepraszam za zamieszanie spowodowane moją wcześniejszą odpowiedzią. Masz rację… Powinienem był wyrazić się jaśniej w mojej odpowiedzi i wyjaśnić kontekst i ograniczenia liczby 97%. ChatGPT najwyraźniej niechętnie przyznał, że „istnieje pewna zmienność poziomu zgodności w różnych badaniach i ankietach”. Musk ostrzegł nas, że sztuczna inteligencja stanowi egzystencjalne zagrożenie dla ludzkości. Kto wiedział, że będzie to również stanowić egzystencjalne zagrożenie dla prawdy?
Jeff Carlson
https://www.youtube.com/supported_browsers?next_url=https://

 

Co to jest i jak wykorzystać Chat GPT
Chat GPT to rodzaj sztucznej inteligencji, która umożliwia komputerom rozmawianie z ludźmi w naturalny sposób. Chat GPT jest w stanie tworzyć odpowiedzi na pytania i polecenia, korzystając z dużych zbiorów danych oraz specjalnych algorytmów, które pozwalają mu na uczenie się od ludzi i tworzenie odpowiedzi w sposób zbliżony do tego, jak robiliby to ludzie.
Chat GPT może być wykorzystywany do wielu różnych celów, takich jak pomoc w codziennych zadaniach, wspomaganie nauki języków obcych, generowanie treści tekstowych czy rozwiązywanie problemów biznesowych. Dzięki swojej zdolności do uczenia się i analizowania danych, Chat GPT jest w stanie zapewnić szybkie i skuteczne odpowiedzi na pytania i polecenia, co może znacznie ułatwić i usprawnić wiele codziennych czynności.
Jak korzystać z Chat GPT?
Jeśli chcesz korzystać z narzędzia Chat GPT wystarczy, że wykonasz poniższe kroki:
1. Wejdź na stronę https://chat.openai.com/chat
2. Kliknij przycisk Sign up i stwórz konto w systemie
3. Gotowe, teraz możesz zalogować się do systemu podając adres email i hasło, które stworzyłeś we wcześniejszym kroku.
5 sposobów na wykorzystanie tego narzędzia
Ilość zastosowań Chat GPT jest ogromna.

Poniżej znajdziesz kilka pomysłów na to jak możesz wykorzystać, to narzędzie:
1. Pisanie planów i scenariuszy – czat może służyć do generowania tekstu na różne tematy. Może to być pomocne przy pisaniu artykułów, prezentacji lub innych dokumentów.
2. Generowanie pomysłów: czat może pomóc w generowaniu pomysłów na różne projekty lub zadania. Możesz poprosić o to, aby system stworzył dla Ciebie listę ciekawych tytułów na artykuł, film. Jeśli chcesz się pobawić Chat GPT może napisać dla Ciebie piosenkę lub wiersz. Efekty bywają różne, ale warto spróbować.
3. Pisanie i tłumaczenie kodu – system może wygenerować dla Ciebie kod, który możesz wykorzystać przy różnych projektach. Możesz też wkleić fragment gotowego kodu i poprosić o jego naprawę lub wyjaśnienie.
4. Tworzenie artykułów – przy jego pomocy, możesz stworzyć gotowy artykuł na Twojego bloga. Zanim jednak go opublikujesz musisz wiedzieć, że Google nie lubi artykułów tworzonych przez AI. Dlatego przed publikacją tekstu możesz go przeredagować i dla pewności przepuścić przez program, który sprawdza czy tekst jest napisany przez AI.
5. Wspomaganie nauki języków obcych – czat może być wykorzystywany jako narzędzie do nauki języków obcych. Dzięki swojej zdolności do tworzenia naturalnych odpowiedzi, model może pomóc w ćwiczeniu konwersacji w różnych językach, co z kolei może przyczynić się do szybszego i efektywniejszego opanowania języka.
Ograniczenia modelu językowego ChatGPT to przede wszystkim:
Ograniczona zdolność rozumienia kontekstu: Model generuje odpowiedzi na podstawie danych, na których został wytrenowany, jednak nie jest w stanie zrozumieć pełnego kontekstu sytuacji, w której jest używany.
Ograniczona zdolność empatii: Model nie posiada emocji ani nie jest w stanie rozumieć emocji innych osób.
Ograniczona zdolność rozwiązywania problemów: Model jest zdolny do generowania odpowiedzi, jednak nie jest w stanie rozwiązywać problemów w kreatywny sposób, jak to robią ludzie.
Ograniczona zdolność do radzenia sobie z nowymi danymi: Model jest w stanie generować odpowiedzi na podstawie danych, na których został wytrenowany, jednak może mieć trudności z radzeniem sobie z nowymi danymi, których nie widział wcześniej.
Ograniczona zdolność do radzenia sobie z błędami i nieścisłościami: Czat może generować błędne lub nieścisłe odpowiedzi, dlatego warto weryfikować informacje, które wygenerował.
Chat GPT został stworzony przez naukowców i inżynierów z OpenAI. OpenAI, to organizacja non-profit zajmującej się badaniami i rozwojem sztucznej inteligencji. OpenAI został założony w 2015 roku przez Elona Muska, Ilonę Mask, Samantę Altman, Grega Brockmana. Chat GPT jest jednym z projektów, które stworzył zespół OpenAI.
 Dlaczego Czat GPT nie działa?

Chat GPT zdobył w szybkim tempie zdobył ogromną popularność na całym świecie. W ostatni czasie serwery są mocno obciążone, przez to Chat GPT nie działa.

Rozwiązaniem tego problemu jest próba skorzystania z z tego narzędzia w innych godzinach. Czasami trzeba też odświeżyć kilka razy stronę, aby zaczęła działać.
Kurs Chat GPT w Biznesie i Marketingu
Chat GPT kurs online

Zapraszam Cię do nowego kursu online Chat GPT w biznesie i marketingu.
Dowiesz się z niego jak możesz wykorzystać potencjał sztucznej inteligencji w biznesie i marketingu. Pokażę Ci również, jak usprawnić swoją pracę i zarabiać przy pomocy ChatGPT.
Zobacz pełny opis kursu
Chat GPT po polsku

Domyślny język CHAT GPT, to angielski. Jednak system dostosowuje się do języka w którym zadajesz pytania. Niestety czasami nie dzieje się to automatycznie.
Na szczęście w prosty sposób możesz sprawić, aby wszystkie odpowiedzi były w języku Polskim. Jak to zrobić?

Napisz na czacie komendy w stylu:

    Pisz po polsku
    Odpowiadaj po polsku

 

Powiązane wiadomości

Comment (0)

Comment as: