Jump to content
slow

Uberizacija = urušena ekonomija, da ili ne?

Recommended Posts

hazard

 

Delovi ovog članka su klasičan senzacionalizam.

 

 

Given data about several different biological functions within the cell, the computer did something mind-blowing. “We found this really beautiful, elegant equation that described how the cell worked, and that tended to hold true over all of our new experiments,” Schmidt says. There was only one problem: The humans had no idea why the equation worked, or what underlying scientific principle it suggested. It was, Schmidt says, as if they’d consulted an oracle.

This should terrify scientists. If robots can now outsmart us, what’s left for people to do? More importantly, if we’re entering an age in which machines will be the primary discoverers of new scientific wisdom, what will that mean for human knowledge? We may be able to make use of the laws and equations uncovered by computers, but it’s quite possible that some of it will be too complex for even the smartest humans to understand.

 

A onda objasnjenje (koje mi je bilo ocigledno cim sam procitao prvu recenicu o tome sta taj program radi):

 

 

 

At the moment, Schmidt and Lipson’s machine is still very much subservient to humans—it depends on people to feed it data, and to direct it toward novel research problems. Eureqa is quite simple in design. After it’s fed data about a particular process (the swinging of a pendulum, the dynamics of a cell), the computer generates a huge field of potential equations. These initial equations are random, and the vast majority of them will not apply. But a few of these random equations will show some agreement with the physical world. “We take the ones that are slightly better than the others, and we randomly recombine them to get new equations—and then we repeat the process over and over again, billions and billions and billions of times, until we’ve exhausted the space of short, simple equations,” Schmidt says. In the end, this Darwinian process tends to come up with equations that describe “invariant relationships”—that is, equations that apply across all the data. Such invariant relationships are often associated with fundamental laws of nature: the conservation of energy, Newton’s laws of motionthe mass-energy equivalence.

 

 

OK, znaci kompjuter uzme masu podataka, i onda nasumično generiše jednačine koje bi te podatke mogle da povezuju, i onda isproba svaku dok ne nađe pravu. Super mega-giga fancy curve-fitting algorithm. A šta ako su podaci suviše suženi pa uradi overfit za jedan opseg (tj. ne nađe generalni zakon nego ,,lokalnu" jednačinu gde je možda jedan od koeficijenata za generalni zakon nula)? To se zove ,,computers outsmarting scientists"?

 

Dalje

 

 

But there are two problems for human scientists expecting to find long-term employment as meaning-finders. First, Lipson is already working on ways for the computer to explain itself—that is, to describe, in terms that humans might understand, what its equations mean. For the pendulum, we might explain to the computer that we understand a certain quantity as representing energy. Then the software will have to explain its new finding using only the concepts that we’ve taught it. “It’s a little bit like if a child asks you, ‘What’s an airplane?’ and you say, ‘Well, it has wings like a bird, and it has an engine, like a car.’ ” At some point, though, the computer might discover laws that are impossible for us to understand. “It would be like trying to explain Shakespeare to a dog,” Lipson says.

 

M'ajde? Napravio si super curve-fitter, i sa'će odma' AI koji tumači jednačine? Klasično prodavanje magle.

 

 

Strogatz believes our window of insight is closing—that “we’re reaching our limitations.” In several fields, we seem to be approaching the limits of our intellectual abilities. “People talk about hundreds of billions of things in economics, in the brain, in genes,” Strogatz says. “Once you start talking about that kind of number, lots of interesting interactions occur, and that’s where the scientific frontier problems are—and we’re just not very good at thinking about those kinds of numbers.” And computers are.

 

Gluposti. Kompjuteri ne misle o brojevima, kompjuteri ne misle uopšte. Kompjuteri računaju - sa vrlo konkretnim brojevima, bez ikakve suštinske moći da se bave apstraktnim, generalizovanim brojevima. Da, naravno, kompjuteri mnogo bolje računaju i rade matematiku sa brojevima sa 6 i 9 nula nego što to čine ljudi. To rade zato što su takve računice mehaničke operacije koje se mogu raditi bez mozga i naravno da to brže radi mašina nego čovek.

 

Kompjuter ne ume da reši jednačinu sa jednom nepoznatom x + 2 = 5 na način koji to radi čovek - analitički. Naravno kompjuter ume da nađe vrlo dobru aproksimaciju za jednačinu na n-ti stepen koristeći numeričke metode (koje su izumeli ljudi, ali koje kompjuter daleko brže izvršava) i to jednačine gde je analitičko rešenje nemoguće (i gde je neki matematičar analitiči dokazao da je tako), i može na isti način da reši x + 2 = 5, ali je u tom slučaju daleko manje efikasan nego čovek.

 

 

Neither Strogatz nor Lipson have a date in mind for when humans will lose their mastery over science. Even as the robots get smarter and smarter, there will still be many human traits that science will depend on. For instance, taste—the ability to choose interesting, creative areas of science to investigate. But make no mistake: Our time is limited. “As thinking machines, they have a lot of advantages over us—this is obvious,” Strogatz says. “We’re not going to be the best players in town. I do think we’ll be put out of business. This is really going to happen.”

 

Ovo je već rejkurcvajlovsko pričanje u prazno.

 

OMG the robotz can fit an equation to big data! oh noes we're d00med!!!

Share this post


Link to post
hazard

Aaa čekaj. Pa ovde ima još

 

 


 

I’d discount Nordaus’ “perhaps.” If you think us humans are secure in our jobs, you’d have to believe either a) that computers’ progress will slow or stop, or b) that humans will keep finding new jobs as machines take our old ones. Option A isn’t going to happen. And for most people, Option B is just a hope, because computers aren’t replacing one kind of human skill—they’re getting better at a wide range of skills that apply across many different jobs. 

 

 

 

Ajde čak da prihvatimo tezu da će marš murovog zakona dovesti do kompjutera koji mogu da imitiraju ljudski mozak (što je po samo sebi problematično jer 1) mi ne znamo dovoljno o mozgu da bi mogli efikasno da ga imitiramo 2) imamo vrlo neosnovanu pretpostavku da je mozak zapravo veliki kompjuter).

 

Na osnovu čega se tvrdi da se progres u kompjuterskoj industriji neće usporiti ili zaustaviti? Da se neće udariti u neko ,,tvrdo" fizičko ograničenje (tipa, tranzistor ne može biti manje od N atoma i došli smo maksimuma koji možemo da nabijemo na čip)? Da kompjuterska industrija neće postati ,,zrela" kao automobilska gde je progres daleko sporiji? Mislim, progres je već usporio:

 

Originalni Murov ,,zakon" je bio udvostručavanje na godinu dana, da bi ga sam Mur revidirao kasnije na dve godine, a industrija je uzimala 18 meseci kao taj period udvostručavanja. A Intel sada kaže da za najnovije tehnologije period skoro 2 i po godine.

 

 


"Moore's law" should be considered an observation or projection and obviously not a physical or natural law. Although the rate held steady from 1975 until around 2012, the rate was faster during the first decade. In general, it is not logically sound to extrapolate from the historical growth rate into the indefinite future. For example, the 2010 update to the International Technology Roadmap for Semiconductors, predicted that growth would slow around 2013,[18] and Gordon Moore in 2015 foresaw that the rate of progress would reach saturation: "I see Moore’s law dying here in the next decade or so."[19]

Intel confirmed in 2015 that the pace of advancement has slowed, starting at the 22 nm node around 2012, and continuing at 14 nmBrian Krzanich, CEO of Intel, announced that "our cadence today is closer to two and a half years than two.” This is scheduled to hold through the 10 nm node in late 2017.[20] He cited Moore's 1975 revision as a precedent for the current deceleration, which results from technical challenges and is “a natural part of the history of Moore's law.”[21][22][23]

 

Sad, ne kažem ja da će nužno sve stati ili žešće usporiti, ali je apsolutno debilna decidna izjava da sigurno neće.

Edited by hazard

Share this post


Link to post
Indy

Pa to u Murovom zakonu je raw processing power. Napredak je sad u nacinu na koji se to koristi, recimo stvari koje radi Google. To vec cini neke white collar profesije suvisnima.

Share this post


Link to post
hazard

Ne sumnjam, kompjuteri su vec pojeli dosta white collar profesija, jos od 80tih. Ja sam se osvrnuo na neke vrlo konkretne tvrdnje u samom clanku za koje smatram da su neosnovano preterivanje.

 

Btw Murov zakon (ne samo on, naravno) je glavna stvar koja omgucava to sto Gugl radi. I drugi. Naravno i kada bi stao Murov zakon mogla bi da se cedi suva drenovina jos jako dugo da se na drugi nacin nastavi progres, ali ako bi se zaustavio jedini nacin da se probije neki krajnji zid bila bi neka potpuno nova tehnologija (kao npr., lupam, opticki kompjuteri).

Share this post


Link to post
ManicMiner

Murov zakon nije glavna stvar koja guglu omogucava da radi to sto radi, vec izmedju milion i dva servera razasutih diljem planete.

 

Da ne preterujem sa tehnikalijama, samo da kazem da je mnogo vaznija efikasna kontrola i medjusobna komunikacija izmedju ovolikih racunara od toga da li se u njima nalazi CPU od 2 ili 3 gigaherca

Share this post


Link to post
Indy

To sam i hteo da kazem, networking i tzv internet of things guraju nove barijere, a eventualni peak hardware tu mozda moze samo malo da uspori stvari. A mislim da peaku nismo ni blizu (ako ga uopste ima). Pritom, uopste nisam ljubitelj Kurzweila.

Share this post


Link to post
ManicMiner

Ne da nismo blizu peak-a nego je brzina CPU-a trenutno najmanje limitirajuci faktor u IT svetu.  

Share this post


Link to post
Prokleto Djubre

Ne da nismo blizu peak-a nego je brzina CPU-a trenutno najmanje limitirajuci faktor u IT svetu.  

 

Upravo tako i zato je svako bavljenje Murovim zakonom promaseno. Necemo moci da stavimo ocekivan broj tranzistora na odredjenu povrsinu silicijuma? Koga briga, paralelizovacemo tih starih masina tempom koji je brzi od 2xgodina ili na koliko vec je taj koeficijent nabazdaren. Sto kaze MM, mi imamo toliko posla u ubrzavanju komunikacije izmedju racunara da je brzina procesora nesto sto moze da se ne mrda godinama i opet ne bi bila kocnica.

Share this post


Link to post
hazard

Upravo tako i zato je svako bavljenje Murovim zakonom promaseno. Necemo moci da stavimo ocekivan broj tranzistora na odredjenu povrsinu silicijuma? Koga briga, paralelizovacemo tih starih masina tempom koji je brzi od 2xgodina ili na koliko vec je taj koeficijent nabazdaren. Sto kaze MM, mi imamo toliko posla u ubrzavanju komunikacije izmedju racunara da je brzina procesora nesto sto moze da se ne mrda godinama i opet ne bi bila kocnica.

 

Pa nije bas ,,koga briga" jebiga, Gugl ovo sto radi ne bi mogao da radi sa starim 486icama na 100 MHz, ma koliko god ih umrezavao. Tj. radio bi nesto slicno ali kapaciteti ne bi bili ni priblizno isti.

 

U opste nije ,,koga briga" sto ne mozemo da stavimo vise tranzistora na istu povrsinu silicijuma, jer jer komunikacija unutar cipa uvek brza od komunikacije izvan cipa. I tu uopste nije sama brzina cipa (ono sto se meri u GHz) kljucna (to je doslo do nekog vrhunca zbog mnogih stvari a vazan faktor je potrosnja struje) vec upravo to koliko tranzistora ima na cipu...upravo zbog te komunikacije. 32 jezgra na istom cipu rade brze od 4 cipa sa 8 jezgara. I ne lome se sada dzabe da proizvodjaci da sto vise memorije integrisu sa CPUom na isti cip (ili da bar CPU cip i memorijski cip stave u isto pakovanje), jer se time drasticno smanjuje I/O latency za memoriju.

 

No poenta primera sa Murovim zakonom uopste nije u tome, ovo su detalji - poenta je da je usporio i da nikada nije bio nikakav ,,zakon". Tako ce se i ,,istrositi" raznorazna resenja da se kompjuteri ubrzaju i postaju mocniji i bez Murovog zakona ali slicnim tempom. 

 

Poenta je samo u tome da je odlucno tvrditi da ,,napredak kompjutera nece stati" ekstremno glupo. OK, sigurno nece stati u sledecih 10, 20 godina, slazem se. Ali za 50? Ili 100? Mi smo proziveli najrapidniji period rasta i razvoja IT industrije i skloni smo da ekstrapoliramo taj rast i razvoj na buducnost. To uopste ne mora da bude tacno.

 

Dovoljno je da IT industrija ,,uspori'' na tempo recimo automobilske i zeleznicke industrije - to je tempo napretka koji je daleko, daleko sporiji (i ako napretka i u tim industrijama nesumnjivo ima). Zasto bi to, a priori, bilo nemoguce?

 

Pretpostavljati da ce kompjuteri unedogled eksponencijalno rasti su kao one pretpostavke u ekonomskim modelima pre 2007. da ce cene nekretnina samo da rastu.

Share this post


Link to post
slow

Mislim da će ovaj proces totalne automatizacije najžešće udariti zemlje sa lošom obrazovnom strukturom i one koji se oslanjaju na šrafciger industriju, a mi smo upravo to postali. Tu će problem nezaposlenosti biti sve veći jer će se i ono malo postojeće industrije i usluga automatizovati. Jedini spas je ulaganje u naučni razvoj i poboljšanje obrazovne strukture ali i to nema izgleda za uspeh jer mladi i obrazovani ljudi beže masovno iz ove rupe od države. Začarani krug...

Share this post


Link to post
Prokleto Djubre

 

No poenta primera sa Murovim zakonom uopste nije u tome, ovo su detalji - poenta je da je usporio i da nikada nije bio nikakav ,,zakon". Tako ce se i ,,istrositi" raznorazna resenja da se kompjuteri ubrzaju i postaju mocniji i bez Murovog zakona ali slicnim tempom. 

 

 

Ma svejedno, naci ce se nesto. Evo na primer: http://phys.org/news/2015-11-quantum-coding-silicon.html

I naravno da se ne radi o zakonu nego o primecenom rastu u nekom trenutku razvoja i on uopste ne mora biti takav u buducnosti, ali ono sto ti ne uzimas u obzir je da je dovoljna ovakva jedna revolucija da sve skoci drasticno a ne da uspori. Ono sto ja kazem je da ne treba brinuti o Guglu jer su im margine sumanuto velike svakako i da uz iste cipove oni mogu jednostavno unapredjivati svoju mrezu uz nesto vece troskove i napretke u drugim delovima sistema.

IT industrija dugo nece moci da uspori iz prostog razloga sto jos ogroman broj sfera ljudskog rada nije automatizovan a ima prostora za to. Medicina, transport, proizvodnja... gomila stvari su tek ovlas dodirnute racunarima i cekaju svoje mini revolucije i drasticna uvecanja racunarskog rada naustrb ljudskog. Za sada je prakticno pobrano tek nisko rastuce voce, standardizacije raznih procesa i sazrevanje IT industrije se tek ceka i prakticno ne postoji mogucnost da se ne desi u sledecim decenijama. Briga za buducnost IT-ja je promasena stvar, za sve ostale treba brinuti jer ce se mnogi odnosi drasticno menjati kako se ove stvari budu desavale.

Share this post


Link to post
ManicMiner

Pa da, Murov zakon u biti predstavlja obzervaciju, a pre ili kasnije osudjen je na zaborav obzirom da postoji fizicka barijera (velicina atoma) dokle je logicka kola moguce smanjivati.

 

No, kao sto je kolega Prokleto Djubre vec linkovao, polako se razvijaju alternative u vidu kvantnih racunara.

 

Ali to je samo jedan, i to malecni aspekt modernog IT-a. Ponovicu - CPU ne predstavlja usko grlo vec ihahaj vremena, u stvari sve ostalo sto okruzuje CPU kaska za nekoliko redova velicina u odnosu na brzinu kojom se prave sve noviji i noviji procesori.

 

Glede googla odavno se zna na sta njihovi serveri lice - niti oni koriste najmoderniji i najbrzi hardver, niti ce ga ikada koristiti. http://www.cnet.com/news/google-uncloaks-once-secret-server-10209580/

 

Kao sto se moze videti u pitanju je gvozdjurija koji je i u tom vremenu bila prilicno skromnih performansi, a big deal za njihove inzenjere je power consumption a ne sirova procesorska snaga.

Edited by ManicMiner

Share this post


Link to post
hazard

Ma svejedno, naci ce se nesto. Evo na primer: http://phys.org/news/2015-11-quantum-coding-silicon.html

I naravno da se ne radi o zakonu nego o primecenom rastu u nekom trenutku razvoja i on uopste ne mora biti takav u buducnosti, ali ono sto ti ne uzimas u obzir je da je dovoljna ovakva jedna revolucija da sve skoci drasticno a ne da uspori. Ono sto ja kazem je da ne treba brinuti o Guglu jer su im margine sumanuto velike svakako i da uz iste cipove oni mogu jednostavno unapredjivati svoju mrezu uz nesto vece troskove i napretke u drugim delovima sistema.

IT industrija dugo nece moci da uspori iz prostog razloga sto jos ogroman broj sfera ljudskog rada nije automatizovan a ima prostora za to. Medicina, transport, proizvodnja... gomila stvari su tek ovlas dodirnute racunarima i cekaju svoje mini revolucije i drasticna uvecanja racunarskog rada naustrb ljudskog. Za sada je prakticno pobrano tek nisko rastuce voce, standardizacije raznih procesa i sazrevanje IT industrije se tek ceka i prakticno ne postoji mogucnost da se ne desi u sledecim decenijama. Briga za buducnost IT-ja je promasena stvar, za sve ostale treba brinuti jer ce se mnogi odnosi drasticno menjati kako se ove stvari budu desavale.

 

To je taj nicim izazvan optimizam o kome pricam :D

 

Mislim da si moje primedbe presiroko shvatio. Govorimo o samom ,,cistom" tehnoloskom napretku koji bi teoretski omogucio kompjuteru da se priblizi ljudskom mozgu na nacin na koji se to predvidja u onom clanku gore (i njemu slicnima). Nisam govorio uopste o rastu i napretku IT industrije nego kompjutera. Naravno da ce IT industrija nastaviti da raste, bas kao sto ti opisujes, sireci svoja resenja, proizvode i usluge na polja gde se slabo koristi. Hocu samo da kazem da to sto ce za 20 godina IT da bude 10 puta vise prisutniji u svakom domenu privrede ne znaci nuzno da ce sami uredjaji biti 10 puta mocniji (na nacin na koji je danasnji procesor mocniji od 486ice). To sto cemo nesumnjivo naci nove i vece primene za kompjutere ne znaci da ce kompjuteri postati ,,misleci".

Share this post


Link to post
Prokleto Djubre

To je taj nicim izazvan optimizam o kome pricam  :D

 

Nije nicim izazvan, postoje znacajne naznake da ce se desiti jos nekoliko revolucija (jedna od njih pomenuta u linku). Cak i da nema revolucija, intenzitet usporavanja nije toliko velik tako da ce se nekakav rast svakako nastaviti.

 

Mislim da si moje primedbe presiroko shvatio. Govorimo o samom ,,cistom" tehnoloskom napretku koji bi teoretski omogucio kompjuteru da se priblizi ljudskom mozgu na nacin na koji se to predvidja u onom clanku gore (i njemu slicnima). Nisam govorio uopste o rastu i napretku IT industrije nego kompjutera. Naravno da ce IT industrija nastaviti da raste, bas kao sto ti opisujes, sireci svoja resenja, proizvode i usluge na polja gde se slabo koristi. Hocu samo da kazem da to sto ce za 20 godina IT da bude 10 puta vise prisutniji u svakom domenu privrede ne znaci nuzno da ce sami uredjaji biti 10 puta mocniji (na nacin na koji je danasnji procesor mocniji od 486ice). To sto cemo nesumnjivo naci nove i vece primene za kompjutere ne znaci da ce kompjuteri postati ,,misleci".

 

Ja ti od pocetka pricam da to uopste nije kljucno. Ako CPU ne bude brzi, postoji mali milion nacina da ukupan sistem bude brzi - ubrzanje komunikacije medju samim racunarima koje ce omoguciti nove nacine paralelizovanja. Teoretski modeli cekaju vec decenijama da se mreza ubrza i to se neminovno desava i nastavice da se desava. Ti sve vreme insistiras na tome da kompjuteri nisu "misleci" i hajde da se slozimo s tako nekom definicijom misleceg, opet ti prolazi ispod radara jako puno teoretskih nacina da se to promeni u buducnosti. Uostalom, do nedavno smo mislili da "misleci" podrazumeva i npr. voznju automobila i evo bukvalno sada na nase oci dobijamo prve automobile koji "misle" u smislu da donose bolje odluke od ljudi na autoputu i da uce na greskama na nacin na koji ljudi nisu u stanju.

http://electrek.co/2015/10/30/the-autopilot-is-learning-fast-model-s-owners-are-already-reporting-that-teslas-autopilot-is-self-improving/

https://www.youtube.com/watch?v=9X-5fKzmy38

 

Takodje, cini se da pod razmisljanjem podrazumevas neke stvari koje su prosto kompilacija do sada vidjenog. Zamisli dijagnostiku u medicini - to je oblast u kojoj se dobar od manje dobrog lekara razlikuje upravo u tome koliko "big data" stvari ima u glavi i koliko je to znanje apdejtovano. I covek danas i racunar sutra kad vide simptome zakljucuju na isti nacin: prethodni slucajevi nam govore da je 20% mogucnosti da je ovo rak, 70% da je ekcem (da surovo banalizujem) i onda se iz toga izvlaci zakljucak sta dalje preduzeti. Potpuno je nerazumno verovati kako ce za 20 godina covek to raditi bolje od racunara.

 

To su samo primeri iz gomile koji pokazuju da mnogo stosta sto ljudi smatraju za "razmisljanje" ili "zakljucivanje" u stvari moze da se svede na analizu podataka dobijenih u ranijim slicnim slucajevima i primenu rezultata te analize na istovetan problem. Ono gde nam je covek verovatno nezamenljiv je u delu gde definise "slicno" iz prethodne recenice. Medju racunarski nepismenima ima hajpa oko vestacke inteligencije, to naravno priznajem, pa i stvari koje se danas zovu vestackom inteligencijom nisu ni blizu onome sto se tradicionalno smatra inteligencijom. To je potpuno jasno i ne zelim da se sporim oko toga. Ono oko cega se sporim jeste, po mom misljenju, pogresna procena onoga cemu sluzi ljudska inteligencija. Vecina poslova zahteva tek malo te takve inteligencije i mogla bi itekako biti svedena na racunar i obrazovanog operatora (vicnog tom domenu + nekom obliku high-level programiranja).

Tu ja vidim samo jedan problem i to socioloski - sta sa svim tim ljudima koji postaju visak?

Share this post


Link to post
slow

Tu ja vidim samo jedan problem i to socioloski - sta sa svim tim ljudima koji postaju visak?

 

Pa ništa, izumrće, potkačiće ih evolucioni garbage collector, ostaće samo programeri.   :D

Share this post


Link to post

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

×