Jump to content
IGNORED

ChatGPT


Vapad

Recommended Posts

Posted

mislim da neural network tu stoji kao paradigma za razvoj ai u smislu paralelne obrade podataka, ni prva ni posljednja

  • +1 1
Posted
1 hour ago, Kenji said:

To što chatgpt "ne zna" ništa posle 2020.  znači da je do tad treniran. Treniranje se nastavlja naravno ali vrlo oprezno jer nas nekolicina može uspešno da istroluje nove podatke onako iz zezanja. Čak i kad bi model sam sebe korigovao preko live veze na internetu opet je korupcija dataseta neizbežna. (Human nature)

 

Ovako sam i ja razumeo da stoje stvari - da su zatvorili kanale za učenje da ne bi prošao kao oni nesrećni Twitter chatbotovi koje je masa u roku od odmah zadojila najradikalnijim teorijama zavere, purely for the lolz.

 

  • +1 1
Posted (edited)
3 hours ago, Kenji said:

 Ako je prompt (upit) ovo, statistika kaže da će odgovor "najverovatnije" biti ovo.

 

U prilog ovome, mislim da sam već kačio na forumu, gledajući prvenstvo u fudbalu me je zaintrigiralo poreklo pentagrama na zastavi Maroka, pa sam ga pitao:

 

Screenshot_2022-12-17-16-30-02-750_com.aScreenshot_2022-12-17-16-30-20-522_com.aScreenshot_2022-12-17-16-30-26-412_com.a

 

Ono što je interesantno je da i u prvom netačnom i trećem (ne znam da li je tačan) odgovoru, crvena boja simbolizuje krv junaka koji su se borili na nezavisnost Maroka.

Edited by JozoMujica
Posted
5 hours ago, Kenji said:

Mislim da priča o AI modelu koji u real time-u uči od ljudi jednostavno nije tačna i da je običan PR i liability stunt. AI/ML modeli su suštinski napredna statistika izgradjena od iterativnih ponavljanja: ovo je ovo a ovo je ovo, kroz dva konkurentna algoritma. Jedan "uči" a drugi ga koriguje kroz tačne unose. Proizvod ovoga je model koji je ustvari statistički i barata verovatnoćom. Ako je prompt (upit) ovo, statistika kaže da će odgovor "najverovatnije" biti ovo. Ovakav način učenja samo konceptualno podseća na humano kognitivno učenje ali se oslanja na iterativno ponavljanje, brute force, bez analize ili sinteze "naučene" informacije. Iteracije su višestruko brže (learning rate) od onoga što pruža interakcija sa korisnikom i najveći problem je ustvari što fact checking zahteva ljudsku intervenciju.

 

 

 

To što chatgpt "ne zna" ništa posle 2020.  znači da je do tad treniran. Treniranje se nastavlja naravno ali vrlo oprezno jer nas nekolicina može uspešno da istroluje nove podatke onako iz zezanja. Čak i kad bi model sam sebe korigovao preko live veze na internetu opet je korupcija dataseta neizbežna. (Human nature)

 

 

 

Dakle chatgpt je snapshot statistika do 2020. Model će se dotrenirati i sa hard kodom zakrpiti politička nekorektnost ili verovatnoća fifty fifty. Ali će razvoj zavisiti od stanja društva tj. biće taman prosečno "tačan" koliko i informacije na kojima je izgradjen. Pošto smo u post truth vremenu možete da zamislite u kom pravcu će ovo ići.

 

 

 

Nabacio bih samo i tezu da će se onako tehnokratski vrlo lako pretvoriti u ultimativni autoritet whats true or not. Jer neće niko imati ni volje ni kapaciteta da se bori protiv većine.

Ovo kao da je napisao chatgpt :-P 

 

Ima tačnih stvari, ima bogme i ozbiljno netačnih, ali proizvedeni tekst deluje veoma uverljivo. 

  • Haha 1
Posted

Steve Harvey Reaction GIF

Imao si pola sata me ispraviš. (reinforcement learning)

Posted

Ne znam, ja nešto mislim da crvena boja na zastavi zaista simbolizuje krv junaka :unsure:

Posted (edited)

Malo sam samo zagrebao na aktuelne teme i odmah je zabagovao gore nego Wiki

 

Gz6C2hp.png

 

Hvala Nole na bronzi iz Londona u timskom tenisu!

 

EDIT: Posle je krenuo dalje da baguje kako je Novak osvojio srebro 2016, pa kako je osvojio bronzu a da te godine srebro nije dodeljeno...

 

Ukratko za sada mi zvuci kao pijani ortak na pab kvizu...

Edited by *edited by mod
Posted
5 hours ago, Weenie Pooh said:

Ne znam, ja nešto mislim da crvena boja na zastavi zaista simbolizuje krv junaka :unsure:

 

Ma nije sporno da simbolizuje, nego mi je bilo interesantno kako i kada daje potpuno netačan odgovor oko izgleda zastave (više zvezda i horizontalne pruge) i kada daje tačan(?), ponavlja istu frazu za crvenu boju.

Posted (edited)
15 hours ago, Kenji said:

Mislim da priča o AI modelu koji u real time-u uči od ljudi jednostavno nije tačna i da je običan PR i liability stunt. AI/ML modeli su suštinski napredna statistika izgradjena od iterativnih ponavljanja: ovo je ovo a ovo je ovo, kroz dva konkurentna algoritma. Jedan "uči" a drugi ga koriguje kroz tačne unose. Proizvod ovoga je model koji je ustvari statistički i barata verovatnoćom. Ako je prompt (upit) ovo, statistika kaže da će odgovor "najverovatnije" biti ovo. Ovakav način učenja samo konceptualno podseća na humano kognitivno učenje ali se oslanja na iterativno ponavljanje, brute force, bez analize ili sinteze "naučene" informacije. Iteracije su višestruko brže (learning rate) od onoga što pruža interakcija sa korisnikom i najveći problem je ustvari što fact checking zahteva ljudsku intervenciju.

 

 

 

To što chatgpt "ne zna" ništa posle 2020.  znači da je do tad treniran. Treniranje se nastavlja naravno ali vrlo oprezno jer nas nekolicina može uspešno da istroluje nove podatke onako iz zezanja. Čak i kad bi model sam sebe korigovao preko live veze na internetu opet je korupcija dataseta neizbežna. (Human nature)

 

 

 

Dakle chatgpt je snapshot statistika do 2020. Model će se dotrenirati i sa hard kodom zakrpiti politička nekorektnost ili verovatnoća fifty fifty. Ali će razvoj zavisiti od stanja društva tj. biće taman prosečno "tačan" koliko i informacije na kojima je izgradjen. Pošto smo u post truth vremenu možete da zamislite u kom pravcu će ovo ići.

 

 

 

Nabacio bih samo i tezu da će se onako tehnokratski vrlo lako pretvoriti u ultimativni autoritet whats true or not. Jer neće niko imati ni volje ni kapaciteta da se bori protiv većine.

 

rado bih te ispravio, ali naprosto nemam vremena. a ukratko ne ide, pogotovo sto ima dosta toga sto je delimicno tacno, a tu onda mora bas dosta da se objasnjava sta i kako.

crveno - pogresno

narandzasto - delimicno tacno

zeleno - tacno

 

recimo ovo za statistiku i verovatnocu. ml modeli ne rade verovatnocama vec vektorima koji imaju proizvoljne vrednosti. u zavisnosti od toga sta model radi, kako mi interpretiramo njegove rezultate, oni se mogu dodatno normalizovati i onda dobijamo nesto sto lici na verovatnocu (nekada jeste, jer suma svih ishoda daje 1, nekada je pak izlaz/interpretacija takva da celokupni rezultat ne predstavlja verovatnocu, ali se i dalje moze videti koji je pojedinacni rezultat najverovatniji -> njegova vrednost je veca od vrednosti ostalih opcija u skupu vektora koji opisuju ishode).

 

pokusacu da iskopam par razumljivih linkova kako radi chatgpt, pa ce to malo pojasniti ove zabune oko toga sta on moze (i zasto chatgpt i njegove varijacije nikada nece moci da resava analiticko/matematicke probleme, niti da bude baza istinitih odgovora na pitanja*) i objasniti zasto nekada tako spektakularno pogresi.

ukratko: u jezgru chatgpt.a je takozvani transformer model koji veoma pametno zna da pogodi koja je sledeca rec u recenici.

tipa, ako mu dam prompt "preko prece naokolo ?", on ce znati da umesto ? ide "blize"

to radi i u varijacijama, pa ce znati da resi i prompt "preko prece ? blize" i slicne varijacije. 

ovo je zgodno za generisanje teksta, davanje odgovora, itd. ali ne moze da resava matematicke i ostale analiticke probleme (osim ako ih nije video toliko puta da ih je naucio napamet. mada ce i tada nekada da zabaguje i izgenerise pogresne reci)

 

chatgpt je dodao jos dosta toga oko transformera (izmedju ostalog koriste i Reinforcement Learning from Human Feedback, ali ne samo RL) i uspeli su da naprave zaista fascinantnu stvar koju pride mogu da pretvore u isplativ proizvod. svaka im cast za to, ali je zgodno znati ove detalje kako on radi, da bi se rezultati mogli smisleno interpretirati.

 

*mislim da je meta pocetkom kovid pandemije napravila slican model koji je trebao da daje odgovore na pitanja u vezi kovida. no on je zbrljao razne (same po sebi tacne) rezultate u jednu supu iz koje su ispadale totalne gluposti, jer on naprosto gadja sledecu rec i ne razume ceo kontekst kada nesto vazi i kada je nesto primenljivo.

Edited by Zverilla
  • +1 3
  • Hvala 6
Posted
8 hours ago, Zverilla said:

 

rado bih te ispravio, ali naprosto nemam vremena. a ukratko ne ide, pogotovo sto ima dosta toga sto je delimicno tacno, a tu onda mora bas dosta da se objasnjava sta i kako.

crveno - pogresno

narandzasto - delimicno tacno

zeleno - tacno

 

recimo ovo za statistiku i verovatnocu. ml modeli ne rade verovatnocama vec vektorima koji imaju proizvoljne vrednosti. u zavisnosti od toga sta model radi, kako mi interpretiramo njegove rezultate, oni se mogu dodatno normalizovati i onda dobijamo nesto sto lici na verovatnocu (nekada jeste, jer suma svih ishoda daje 1, nekada je pak izlaz/interpretacija takva da celokupni rezultat ne predstavlja verovatnocu, ali se i dalje moze videti koji je pojedinacni rezultat najverovatniji -> njegova vrednost je veca od vrednosti ostalih opcija u skupu vektora koji opisuju ishode).

 

pokusacu da iskopam par razumljivih linkova kako radi chatgpt, pa ce to malo pojasniti ove zabune oko toga sta on moze (i zasto chatgpt i njegove varijacije nikada nece moci da resava analiticko/matematicke probleme, niti da bude baza istinitih odgovora na pitanja*) i objasniti zasto nekada tako spektakularno pogresi.

ukratko: u jezgru chatgpt.a je takozvani transformer model koji veoma pametno zna da pogodi koja je sledeca rec u recenici.

tipa, ako mu dam prompt "preko prece naokolo ?", on ce znati da umesto ? ide "blize"

to radi i u varijacijama, pa ce znati da resi i prompt "preko prece ? blize" i slicne varijacije. 

ovo je zgodno za generisanje teksta, davanje odgovora, itd. ali ne moze da resava matematicke i ostale analiticke probleme (osim ako ih nije video toliko puta da ih je naucio napamet. mada ce i tada nekada da zabaguje i izgenerise pogresne reci)

 

chatgpt je dodao jos dosta toga oko transformera (izmedju ostalog koriste i Reinforcement Learning from Human Feedback, ali ne samo RL) i uspeli su da naprave zaista fascinantnu stvar koju pride mogu da pretvore u isplativ proizvod. svaka im cast za to, ali je zgodno znati ove detalje kako on radi, da bi se rezultati mogli smisleno interpretirati.

 

*mislim da je meta pocetkom kovid pandemije napravila slican model koji je trebao da daje odgovore na pitanja u vezi kovida. no on je zbrljao razne (same po sebi tacne) rezultate u jednu supu iz koje su ispadale totalne gluposti, jer on naprosto gadja sledecu rec i ne razume ceo kontekst kada nesto vazi i kada je nesto primenljivo.

Uh, tek sad vidim da sam paušalno uleteo u ongoing raspravu na svetskom nivou, Machine learning vs Statistika a pošto mi nije oblast laymanovo sam i sudeći po tvom odgovoru ne mnogo pogrešio. Razumem akademsku distinkciju striktno matematičke statistike ali kao što si i sam više puta pomenuo verovatnoću moram da naglasim da sam iste termine koristio ne-akademski i bez namere da unizim čitavu oblast mašinskog učenja. I da I see what you did there :laugh: u prvom odgovoru.

 

Isto tako razumem da sam objašnjavao adversarial mreže jer su mnogo lakše za objašnjavanje od transformera (moguće da grešim pošto su deo mog istraživanja i to iz polja umetnosti)

 

 

  • +1 1
Posted

cb.jpg

Naletim na neki komentar kako grijesi kod ovakvih pitanja.. Kod Osim 29. Januara 2023. i 26. Decembra 2022., juče nisu bili ni drugi dani. je cekao ~7-8 sekundi prije odgovora, a kod tačnog odgovora je ozbiljno zastao, 10+ sec. Dalje nije provalio foru na osnovu prethodne prepiske, vec je sve ponovio.

  • Haha 3

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...