Jump to content
IGNORED

ChatGPT


Vapad

Recommended Posts

1 hour ago, Kenji said:

To što chatgpt "ne zna" ništa posle 2020.  znači da je do tad treniran. Treniranje se nastavlja naravno ali vrlo oprezno jer nas nekolicina može uspešno da istroluje nove podatke onako iz zezanja. Čak i kad bi model sam sebe korigovao preko live veze na internetu opet je korupcija dataseta neizbežna. (Human nature)

 

Ovako sam i ja razumeo da stoje stvari - da su zatvorili kanale za učenje da ne bi prošao kao oni nesrećni Twitter chatbotovi koje je masa u roku od odmah zadojila najradikalnijim teorijama zavere, purely for the lolz.

 

  • +1 1
Link to comment
3 hours ago, Kenji said:

 Ako je prompt (upit) ovo, statistika kaže da će odgovor "najverovatnije" biti ovo.

 

U prilog ovome, mislim da sam već kačio na forumu, gledajući prvenstvo u fudbalu me je zaintrigiralo poreklo pentagrama na zastavi Maroka, pa sam ga pitao:

 

Screenshot_2022-12-17-16-30-02-750_com.aScreenshot_2022-12-17-16-30-20-522_com.aScreenshot_2022-12-17-16-30-26-412_com.a

 

Ono što je interesantno je da i u prvom netačnom i trećem (ne znam da li je tačan) odgovoru, crvena boja simbolizuje krv junaka koji su se borili na nezavisnost Maroka.

Edited by JozoMujica
Link to comment
5 hours ago, Kenji said:

Mislim da priča o AI modelu koji u real time-u uči od ljudi jednostavno nije tačna i da je običan PR i liability stunt. AI/ML modeli su suštinski napredna statistika izgradjena od iterativnih ponavljanja: ovo je ovo a ovo je ovo, kroz dva konkurentna algoritma. Jedan "uči" a drugi ga koriguje kroz tačne unose. Proizvod ovoga je model koji je ustvari statistički i barata verovatnoćom. Ako je prompt (upit) ovo, statistika kaže da će odgovor "najverovatnije" biti ovo. Ovakav način učenja samo konceptualno podseća na humano kognitivno učenje ali se oslanja na iterativno ponavljanje, brute force, bez analize ili sinteze "naučene" informacije. Iteracije su višestruko brže (learning rate) od onoga što pruža interakcija sa korisnikom i najveći problem je ustvari što fact checking zahteva ljudsku intervenciju.

 

 

 

To što chatgpt "ne zna" ništa posle 2020.  znači da je do tad treniran. Treniranje se nastavlja naravno ali vrlo oprezno jer nas nekolicina može uspešno da istroluje nove podatke onako iz zezanja. Čak i kad bi model sam sebe korigovao preko live veze na internetu opet je korupcija dataseta neizbežna. (Human nature)

 

 

 

Dakle chatgpt je snapshot statistika do 2020. Model će se dotrenirati i sa hard kodom zakrpiti politička nekorektnost ili verovatnoća fifty fifty. Ali će razvoj zavisiti od stanja društva tj. biće taman prosečno "tačan" koliko i informacije na kojima je izgradjen. Pošto smo u post truth vremenu možete da zamislite u kom pravcu će ovo ići.

 

 

 

Nabacio bih samo i tezu da će se onako tehnokratski vrlo lako pretvoriti u ultimativni autoritet whats true or not. Jer neće niko imati ni volje ni kapaciteta da se bori protiv većine.

Ovo kao da je napisao chatgpt :-P 

 

Ima tačnih stvari, ima bogme i ozbiljno netačnih, ali proizvedeni tekst deluje veoma uverljivo. 

  • Haha 1
Link to comment

Malo sam samo zagrebao na aktuelne teme i odmah je zabagovao gore nego Wiki

 

Gz6C2hp.png

 

Hvala Nole na bronzi iz Londona u timskom tenisu!

 

EDIT: Posle je krenuo dalje da baguje kako je Novak osvojio srebro 2016, pa kako je osvojio bronzu a da te godine srebro nije dodeljeno...

 

Ukratko za sada mi zvuci kao pijani ortak na pab kvizu...

Edited by *edited by mod
Link to comment
5 hours ago, Weenie Pooh said:

Ne znam, ja nešto mislim da crvena boja na zastavi zaista simbolizuje krv junaka :unsure:

 

Ma nije sporno da simbolizuje, nego mi je bilo interesantno kako i kada daje potpuno netačan odgovor oko izgleda zastave (više zvezda i horizontalne pruge) i kada daje tačan(?), ponavlja istu frazu za crvenu boju.

Link to comment
15 hours ago, Kenji said:

Mislim da priča o AI modelu koji u real time-u uči od ljudi jednostavno nije tačna i da je običan PR i liability stunt. AI/ML modeli su suštinski napredna statistika izgradjena od iterativnih ponavljanja: ovo je ovo a ovo je ovo, kroz dva konkurentna algoritma. Jedan "uči" a drugi ga koriguje kroz tačne unose. Proizvod ovoga je model koji je ustvari statistički i barata verovatnoćom. Ako je prompt (upit) ovo, statistika kaže da će odgovor "najverovatnije" biti ovo. Ovakav način učenja samo konceptualno podseća na humano kognitivno učenje ali se oslanja na iterativno ponavljanje, brute force, bez analize ili sinteze "naučene" informacije. Iteracije su višestruko brže (learning rate) od onoga što pruža interakcija sa korisnikom i najveći problem je ustvari što fact checking zahteva ljudsku intervenciju.

 

 

 

To što chatgpt "ne zna" ništa posle 2020.  znači da je do tad treniran. Treniranje se nastavlja naravno ali vrlo oprezno jer nas nekolicina može uspešno da istroluje nove podatke onako iz zezanja. Čak i kad bi model sam sebe korigovao preko live veze na internetu opet je korupcija dataseta neizbežna. (Human nature)

 

 

 

Dakle chatgpt je snapshot statistika do 2020. Model će se dotrenirati i sa hard kodom zakrpiti politička nekorektnost ili verovatnoća fifty fifty. Ali će razvoj zavisiti od stanja društva tj. biće taman prosečno "tačan" koliko i informacije na kojima je izgradjen. Pošto smo u post truth vremenu možete da zamislite u kom pravcu će ovo ići.

 

 

 

Nabacio bih samo i tezu da će se onako tehnokratski vrlo lako pretvoriti u ultimativni autoritet whats true or not. Jer neće niko imati ni volje ni kapaciteta da se bori protiv većine.

 

rado bih te ispravio, ali naprosto nemam vremena. a ukratko ne ide, pogotovo sto ima dosta toga sto je delimicno tacno, a tu onda mora bas dosta da se objasnjava sta i kako.

crveno - pogresno

narandzasto - delimicno tacno

zeleno - tacno

 

recimo ovo za statistiku i verovatnocu. ml modeli ne rade verovatnocama vec vektorima koji imaju proizvoljne vrednosti. u zavisnosti od toga sta model radi, kako mi interpretiramo njegove rezultate, oni se mogu dodatno normalizovati i onda dobijamo nesto sto lici na verovatnocu (nekada jeste, jer suma svih ishoda daje 1, nekada je pak izlaz/interpretacija takva da celokupni rezultat ne predstavlja verovatnocu, ali se i dalje moze videti koji je pojedinacni rezultat najverovatniji -> njegova vrednost je veca od vrednosti ostalih opcija u skupu vektora koji opisuju ishode).

 

pokusacu da iskopam par razumljivih linkova kako radi chatgpt, pa ce to malo pojasniti ove zabune oko toga sta on moze (i zasto chatgpt i njegove varijacije nikada nece moci da resava analiticko/matematicke probleme, niti da bude baza istinitih odgovora na pitanja*) i objasniti zasto nekada tako spektakularno pogresi.

ukratko: u jezgru chatgpt.a je takozvani transformer model koji veoma pametno zna da pogodi koja je sledeca rec u recenici.

tipa, ako mu dam prompt "preko prece naokolo ?", on ce znati da umesto ? ide "blize"

to radi i u varijacijama, pa ce znati da resi i prompt "preko prece ? blize" i slicne varijacije. 

ovo je zgodno za generisanje teksta, davanje odgovora, itd. ali ne moze da resava matematicke i ostale analiticke probleme (osim ako ih nije video toliko puta da ih je naucio napamet. mada ce i tada nekada da zabaguje i izgenerise pogresne reci)

 

chatgpt je dodao jos dosta toga oko transformera (izmedju ostalog koriste i Reinforcement Learning from Human Feedback, ali ne samo RL) i uspeli su da naprave zaista fascinantnu stvar koju pride mogu da pretvore u isplativ proizvod. svaka im cast za to, ali je zgodno znati ove detalje kako on radi, da bi se rezultati mogli smisleno interpretirati.

 

*mislim da je meta pocetkom kovid pandemije napravila slican model koji je trebao da daje odgovore na pitanja u vezi kovida. no on je zbrljao razne (same po sebi tacne) rezultate u jednu supu iz koje su ispadale totalne gluposti, jer on naprosto gadja sledecu rec i ne razume ceo kontekst kada nesto vazi i kada je nesto primenljivo.

Edited by Zverilla
  • +1 3
  • Hvala 6
Link to comment
8 hours ago, Zverilla said:

 

rado bih te ispravio, ali naprosto nemam vremena. a ukratko ne ide, pogotovo sto ima dosta toga sto je delimicno tacno, a tu onda mora bas dosta da se objasnjava sta i kako.

crveno - pogresno

narandzasto - delimicno tacno

zeleno - tacno

 

recimo ovo za statistiku i verovatnocu. ml modeli ne rade verovatnocama vec vektorima koji imaju proizvoljne vrednosti. u zavisnosti od toga sta model radi, kako mi interpretiramo njegove rezultate, oni se mogu dodatno normalizovati i onda dobijamo nesto sto lici na verovatnocu (nekada jeste, jer suma svih ishoda daje 1, nekada je pak izlaz/interpretacija takva da celokupni rezultat ne predstavlja verovatnocu, ali se i dalje moze videti koji je pojedinacni rezultat najverovatniji -> njegova vrednost je veca od vrednosti ostalih opcija u skupu vektora koji opisuju ishode).

 

pokusacu da iskopam par razumljivih linkova kako radi chatgpt, pa ce to malo pojasniti ove zabune oko toga sta on moze (i zasto chatgpt i njegove varijacije nikada nece moci da resava analiticko/matematicke probleme, niti da bude baza istinitih odgovora na pitanja*) i objasniti zasto nekada tako spektakularno pogresi.

ukratko: u jezgru chatgpt.a je takozvani transformer model koji veoma pametno zna da pogodi koja je sledeca rec u recenici.

tipa, ako mu dam prompt "preko prece naokolo ?", on ce znati da umesto ? ide "blize"

to radi i u varijacijama, pa ce znati da resi i prompt "preko prece ? blize" i slicne varijacije. 

ovo je zgodno za generisanje teksta, davanje odgovora, itd. ali ne moze da resava matematicke i ostale analiticke probleme (osim ako ih nije video toliko puta da ih je naucio napamet. mada ce i tada nekada da zabaguje i izgenerise pogresne reci)

 

chatgpt je dodao jos dosta toga oko transformera (izmedju ostalog koriste i Reinforcement Learning from Human Feedback, ali ne samo RL) i uspeli su da naprave zaista fascinantnu stvar koju pride mogu da pretvore u isplativ proizvod. svaka im cast za to, ali je zgodno znati ove detalje kako on radi, da bi se rezultati mogli smisleno interpretirati.

 

*mislim da je meta pocetkom kovid pandemije napravila slican model koji je trebao da daje odgovore na pitanja u vezi kovida. no on je zbrljao razne (same po sebi tacne) rezultate u jednu supu iz koje su ispadale totalne gluposti, jer on naprosto gadja sledecu rec i ne razume ceo kontekst kada nesto vazi i kada je nesto primenljivo.

Uh, tek sad vidim da sam paušalno uleteo u ongoing raspravu na svetskom nivou, Machine learning vs Statistika a pošto mi nije oblast laymanovo sam i sudeći po tvom odgovoru ne mnogo pogrešio. Razumem akademsku distinkciju striktno matematičke statistike ali kao što si i sam više puta pomenuo verovatnoću moram da naglasim da sam iste termine koristio ne-akademski i bez namere da unizim čitavu oblast mašinskog učenja. I da I see what you did there :laugh: u prvom odgovoru.

 

Isto tako razumem da sam objašnjavao adversarial mreže jer su mnogo lakše za objašnjavanje od transformera (moguće da grešim pošto su deo mog istraživanja i to iz polja umetnosti)

 

 

  • +1 1
Link to comment

cb.jpg

Naletim na neki komentar kako grijesi kod ovakvih pitanja.. Kod Osim 29. Januara 2023. i 26. Decembra 2022., juče nisu bili ni drugi dani. je cekao ~7-8 sekundi prije odgovora, a kod tačnog odgovora je ozbiljno zastao, 10+ sec. Dalje nije provalio foru na osnovu prethodne prepiske, vec je sve ponovio.

  • Haha 3
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...