<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Tyler Cowen &#8211; Intel sistem d.o.o.</title>
	<atom:link href="https://intelsistem.hr/tag/tyler-cowen/feed/" rel="self" type="application/rss+xml" />
	<link>https://intelsistem.hr</link>
	<description>O budućnosti poslova i tehnologijama</description>
	<lastBuildDate>Sun, 16 Apr 2023 11:46:57 +0000</lastBuildDate>
	<language>hr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://intelsistem.hr/wp-content/uploads/2020/02/intel-sistem-favicon-pos-1.svg</url>
	<title>Tyler Cowen &#8211; Intel sistem d.o.o.</title>
	<link>https://intelsistem.hr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Niall Ferguson &#8211; &#8220;Vanzemaljci su sletjeli a mi smo ih stvorili&#8221;</title>
		<link>https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/vanzemaljci-su-sletjeli-a-mi-smo-ih-stvorili/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Wed, 12 Apr 2023 12:55:50 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[GPT-4]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Niall Ferguson]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Reid Hoffman]]></category>
		<category><![CDATA[Stephen Wolfram]]></category>
		<category><![CDATA[Tyler Cowen]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=1815</guid>

					<description><![CDATA[Ne čitam svaki dan predviđanje propasti koje je tako zastrašujuće kao ono Eliezera Yudkowskog u časopisu Time prošlog tjedna. “Najvjerojatniji rezultat izgradnje nadljudski pametne umjetne inteligencije, u bilo čemu sličnom [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Ne čitam svaki dan predviđanje propasti koje je tako zastrašujuće kao ono <a href="https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/pauziranje-razvoja-umjetne-inteligencije-nije-dovoljno-moramo-sve-zatvoriti/" target="_blank" rel="noopener"><strong>Eliezera Yudkowskog</strong></a> u časopisu Time prošlog tjedna.</p>
<p>“Najvjerojatniji rezultat izgradnje nadljudski pametne umjetne inteligencije, u bilo čemu sličnom sadašnjim okolnostima,” napisao je, “jest da će doslovno svi na Zemlji umrijeti. Ne kao u &#8216;možda neka daleka prilika&#8217;, nego kao u &#8216;to je očita stvar koja bi se dogodila.&#8217; &#8230; Ako netko izgradi premoćnu AI, pod sadašnjim uvjetima, očekujem da će svaki pojedini član ljudske vrste i sav biološki život na Zemlji umrijeti ubrzo nakon toga.” On sugerira da bi takva umjetna inteligencija mogla lako pobjeći s interneta &#8220;kako bi izgradila umjetne oblike života&#8221;, zapravo vodeći biološki rat protiv nas. Njegova preporuka je jasna. Trebamo potpuni, globalni moratorij na razvoj umjetne inteligencije.</p>
<p>Ovo ide puno dalje od otvorenog pisma koje su potpisali Elon Musk, Steve Wozniak (suosnivač Applea) i više od 15.000 poznatih osoba koji pozivaju na šestomjesečnu pauzu u razvoju AI moćnijih od trenutnog stanja tehnike. Ali njihova je motivacija ista kao Yudkowskyjeva: uvjerenje da razvoj umjetne inteligencije s nadljudskim sposobnostima u nedostatku bilo kakvog međunarodnog regulatornog okvira riskira katastrofu. Jedina stvarna razlika je u tome što Yudkowsky sumnja da se takav okvir može osmisliti unutar pola godine. Gotovo je sigurno da je u pravu u vezi s tim.<br />
Dakle, ako je Yudkowsky u pravu da je umjetna inteligencija potencijalno opasna kao nuklearno ili biološko oružje, šestomjesečna stanka vjerojatno neće postići mnogo. S druge strane, njegov poziv na potpuno zamrzavanje istraživanja i razvoja ima približno jednake šanse za uspjeh kao i Baruchov plan o internacionalizaciji nuklearnih istraživanja.</p>
<p>Jedna očita razlika između tih starijih smrtonosnih oružja i umjetne inteligencije jest da većinu istraživanja o umjetnoj inteligenciji provodi privatni sektor. Prema posljednjem izvješću <a href="https://intelsistem.hr/wp-content/uploads/2023/04/2023-HAI_AI-Index-Report.pdf" target="_blank" rel="noopener"><strong>Stanfordskog instituta za umjetnu inteligenciju</strong></a> usmjerenu na čovjeka, globalna privatna ulaganja u umjetnu inteligenciju iznosila su 92 milijarde dolara u 2022. godini, od čega je više od polovice bilo u SAD-u. Privatne tvrtke proizvele su ukupno 32 značajna modela strojnog učenja, u usporedbi sa samo tri koja su proizvele akademske institucije. Sretno u isključivanju svega toga.</p>
<p>Moj kolega <a href="https://marginalrevolution.com/about" target="_blank" rel="noopener"><strong>Tyler Cowen</strong></a> bio je pragmatičniji. Postavio je neka hipotetska pitanja: “Što da smo 2006. kolektivno odlučili obustaviti razvoj društvenih medija na šest mjeseci dok smo razmišljali o mogućim štetama od njihove široke upotrebe? Njegovi učinci u to vrijeme jedva da su bili očiti i još uvijek se osporavaju. U međuvremenu, nakon šestomjesečne odgode, koliko bismo još bili u procesu evaluacije? Pa čak i ako američke tvrtke uvedu šestomjesečnu pauzu, tko može reći da će kineske tvrtke učiniti?&#8221;</p>
<p>Ali najelokventniji branitelj neobuzdanog istraživanja i razvoja umjetne inteligencije moj je stari prijatelj <strong>Reid Hoffman</strong>, osnivač LinkedIna, koji je napisao cijelu <a href="https://intelsistem.hr/wp-content/uploads/2023/04/impromptu-reid-hoffman.pdf" target="_blank" rel="noopener"><strong>knjigu</strong></a> o toj temi&#8230; otprilike polovicu knjige generirala je umjetna inteligencija.<br />
Za čitatelja laika problem ove rasprave je dvojak. Prvo, čini se da svi branitelji umjetne inteligencije dosta ulažu u umjetnu inteligenciju. Drugo, oni uglavnom priznaju da postoji barem određeni rizik u razvoju AI-a s inteligencijom superiornijom od naše. Čini se da je Hoffmanova poanta: vjerujte nam da ćemo ovo učiniti etički, jer ako nas obuzdate, negativci će biti ti koji će raditi na razvoju i tada ćete možda dobiti Skynet.</p>
<p>Započnimo tako što ćemo biti precizniji o čemu raspravljamo. Većina AI radi stvari koje nude dobrobiti, a ne prijetnje čovječanstvu. Na primjer, DeepMindov AlphaFold odredio je strukture oko 200 milijuna proteina, što je veliki znanstveni korak naprijed.</p>
<p>Rasprava koju danas vodimo odnosi se na određenu granu umjetne inteligencije: velike jezične modele (LLM) koje proizvode organizacije kao što je OpenAI, posebice ChatGPT i njegov snažniji nasljednik GPT-4. Pozadina OpenAI-ja je fascinantna. Kad sam se prije sedam godina preselio u Kaliforniju, sudjelovao sam u raspravi sa Samom Altmanom, jednim od osnivača OpenAI.<br />
Poput svog bivšeg partnera Elona Muska, Altman je u nekom trenutku shvatio da je podučavanje neuronskih mreža vožnji teže nego što su pretpostavljali. Stoga se OpenAI okrenuo LLM-u.</p>
<p>Međutim, ubrzo je postalo očito da je izgradnja LLM-a dovoljno snažnog za generiranje vjerodostojnih rezultata preskupa za neprofitnu organizaciju zbog ogromne računalne snage koja je potrebna. Tako je Altman stvorio profitni ogranak OpenAI-ja i prodao veliki udio izvršnom direktoru Microsofta Satyi Nadelli, koji je vidio zlatnu priliku da uhvati korak s Googleom, dotadašnjim liderom u razvoju umjetne inteligencije.<br />
&#8220;Dugoročno&#8221;, rekao je Altman za Wall Street Journal, želi &#8220;postaviti globalnu upravljačku strukturu koja bi nadzirala odluke o budućnosti umjetne inteligencije i postupno smanjivala moć izvršnog tima OpenAI-ja nad svojom tehnologijom.&#8221; Krajnja je misija OpenAI-ja, nastavio je, &#8220;sigurno&#8221; izgraditi umjetnu opću inteligenciju. Cilj je &#8220;izbjeći utrku prema izgradnji opasnih AI sustava potaknutih konkurencijom i umjesto toga dati prednost sigurnosti čovječanstva.&#8221;<br />
Kratkoročno, međutim, Altman je sada dio te utrke. I to je, naravno, razlog zašto se posvađao ne samo s Muskom, čija je tvrtka Tesla također u utrci, već i s vodećim istraživačem sigurnosti OpenAI-ja, Dariom Amodeijem, koji je napustio OpenAI kako bi osnovao vlastitu AI tvrtku pod nazivom Anthropic , iza kojeg stoji … Google.</p>
<p>Dakle, koliko je opasna ova utrka za profitni LLM? Površno gledano, uopće nije opasno. Kao što moj omiljeni genij, <a href="https://www.stephenwolfram.com/" target="_blank" rel="noopener"><strong>Stephen Wolfram</strong></a>, objašnjava, umjetna inteligencija kao što je ChatGPT “u osnovi uvijek pokušava … proizvesti &#8216;razuman nastavak&#8217; bilo kojeg teksta koji je do sada dobio, gdje pod &#8216;razumnim&#8217; mislimo na &#8216;ono što bi netko mogao očekivati napisano nakon što ste vidjeli što su ljudi napisali na milijardama web-stranica.&#8217; &#8230; Kada ChatGPT radi nešto poput pisanja eseja, ono što zapravo radi jest samo pita uvijek iznova &#8216;s obzirom na dosadašnji tekst, koja bi trebala biti sljedeća riječ?&#8217; — i svaki put dodajući riječ.”<br />
GPT-4 je samo još snažnija neuronska mreža za predviđanje riječi, koja obavlja ogroman broj operacija na nizovima brojeva s GPU-ovima — procesorskim jedinicama koje su izvorno dizajnirane za ubrzavanje grafičkog prikazivanja. Kao rezultat toga, njegov je rezultat još uvjerljivije ljudski nego ChatGPT-ov.</p>
<p>Ne samo da je to prilično vjerojatno, već prema iscrpnom izvješću <a href="https://intelsistem.hr/wp-content/uploads/2023/04/2303.12712-Bubeck.pdf" target="_blank" rel="noopener"><strong>Bubeck et al.</strong></a> (2023.), GPT-4 također može &#8220;riješiti nove i teške zadatke koji obuhvaćaju matematiku, kodiranje, viziju, medicinu, pravo, psihologiju i još mnogo toga, bez potrebe za bilo kakvim posebnim poticajima&#8221; i s &#8220;izrazito bliskim performansama na ljudskoj razini&#8221;.<br />
Dopustite mi da sada ponudim drugačiju analogiju od nuklearnih bombi i biološkog ratovanja. Što više čitam o GPT-4, to više mislim da ovdje ne govorimo o umjetnoj inteligenciji (tj. sintetičkoj ljudskoj inteligenciji), već o neljudskoj inteligenciji, koju smo osmislili i istrenirali da zvuči uvjerljivo poput nas.</p>
<p>Kao što moj kolega s Hoover Instituta Manny Rincon-Cruz kaže: LLM-i ne manipuliraju atomima ili bitovima; manipuliraju nama. I nije toliko važno da će GPT-5 &#8220;odlučiti&#8221; da nas zbriše. Umjesto toga, rizik je da ćemo se raskomadati kao vrsta korištenjem LLM-a za neplemenite ili podle ciljeve.</p>
<p><em><a href="https://www.niallferguson.com/" target="_blank" rel="noopener"><strong>Niall Ferguson</strong></a> je kolumnist Bloomberg Opinion. Viši suradnik Milbank Family, Hoover Institution na Sveučilištu Stanford i osnivač Greenmantlea, savjetodavne tvrtke, nedavno je autor knjige “Doom: The Politics of Catastrophe”.</em></p>
<p><em>Objavljeno na <a href="https://www.bloomberg.com/opinion/articles/2023-04-09/artificial-intelligence-the-aliens-have-landed-and-we-created-them" target="_blank" rel="noopener">Bloomberg</a> stranicama, 9.4.2023.g.</em></p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
