<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Future of Life Institute &#8211; Intel sistem d.o.o.</title>
	<atom:link href="https://intelsistem.hr/tag/future-of-life-institute/feed/" rel="self" type="application/rss+xml" />
	<link>https://intelsistem.hr</link>
	<description>O budućnosti poslova i tehnologijama</description>
	<lastBuildDate>Thu, 20 Apr 2023 13:49:33 +0000</lastBuildDate>
	<language>hr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://intelsistem.hr/wp-content/uploads/2020/02/intel-sistem-favicon-pos-1.svg</url>
	<title>Future of Life Institute &#8211; Intel sistem d.o.o.</title>
	<link>https://intelsistem.hr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Pauziranje razvoja umjetne inteligencije nije dovoljno. Moramo sve zatvoriti</title>
		<link>https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/pauziranje-razvoja-umjetne-inteligencije-nije-dovoljno-moramo-sve-zatvoriti/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Wed, 12 Apr 2023 12:12:48 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Eliezer Yudkowsky]]></category>
		<category><![CDATA[Future of Life Institute]]></category>
		<category><![CDATA[MIRI]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=1813</guid>

					<description><![CDATA[Otvoreno pismo Future of Life Institute objavljeno danas poziva &#8220;sve AI laboratorije da odmah zaustave na barem 6 mjeseci obuke AI sustava moćnijih od GPT-4.&#8221; Ovaj 6-mjesečni moratorij bio bi [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Otvoreno pismo <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/" target="_blank" rel="noopener">Future of Life Institute</a> objavljeno danas poziva &#8220;sve AI laboratorije da odmah zaustave na barem 6 mjeseci obuke AI sustava moćnijih od GPT-4.&#8221; Ovaj 6-mjesečni moratorij bio bi bolji nego bez moratorija. Poštujem sve koji su istupili i potpisali. Ali to je poboljšanje na margini. Suzdržao sam se od potpisa jer smatram da pismo podcjenjuje ozbiljnost situacije i traži premalo da se riješi.</p>
<p>Ključno pitanje nije &#8220;ljudsko-konkurentna&#8221; inteligencija (kako to otvoreno pismo kaže); to se događa nakon što AI dođe do inteligencije pametnije od ljudske. Ključni pragovi možda nisu očiti, definitivno ne možemo unaprijed izračunati što će se dogoditi, a trenutačno se čini zamislivim, kada bi istraživački laboratorij prešao kritične granice a da to ne primijeti.</p>
<p>Mnogi istraživači ogrezli u ova pitanja, uključujući i mene, očekuju da će najvjerojatniji rezultat izgradnje nadljudski pametne umjetne inteligencije, u bilo čemu sličnom sadašnjim okolnostima, biti da će doslovno svi na Zemlji umrijeti. Ne kao u &#8220;to je možda neka daleka prilika&#8221;, već kao u &#8220;to je očita stvar koja bi se dogodila.&#8221; Nije da ne možete, u principu, preživjeti stvarajući nešto puno pametnije od vas; radi se o tome da bi to zahtijevalo preciznost i pripremu i nove znanstvene uvide, a vjerojatno i nepostojanje AI sustava sastavljenih od divovskih nedokučivih nizova frakcijskih brojeva.</p>
<p>Bez te preciznosti i pripreme, najvjerojatniji ishod je umjetna inteligencija koja ne radi ono što želimo i ne mari za nas niti za osjećajni život općenito. Takva vrsta brige je nešto što bi se načelno moglo ugraditi u AI, ali mi nismo spremni i trenutno ne znamo kako.</p>
<p><em><a href="https://intelligence.org/author/eliezer/" target="_blank" rel="noopener">Eliezer Yudkowsky</a> je teoretičar odlučivanja iz SAD-a i vodi istraživanje na Institutu za istraživanje strojne inteligencije. Od 2001. godine radi na usklađivanju opće umjetne inteligencije i naširoko ga se smatra utemeljiteljem tog područja.</em></p>
<p>Pročitajte više u <a href="https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/" target="_blank" rel="noopener">Time</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Bilten Instituta za budućnost života: Pauzirajte divovske AI eksperimente!</title>
		<link>https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/bilten-instituta-za-buducnost-zivota-pauzirajte-divovske-ai-eksperimente/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Wed, 05 Apr 2023 13:26:16 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[Future of Life Institute]]></category>
		<category><![CDATA[GPT-4]]></category>
		<category><![CDATA[LLaMA]]></category>
		<category><![CDATA[OpenAI]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=2078</guid>

					<description><![CDATA[Apel Instituta za budućnost života &#8211; Future of Life Institute Uz izdanje GPT-4, OpenAI je objavio dva dokumenta: tehničko izvješće o mogućnostima GPT-4 i sistemsku karticu, koja detaljno opisuje mnoge [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Apel Instituta za budućnost života &#8211; <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/" target="_blank" rel="noopener">Future of Life Institute</a></p>
<p>Uz izdanje GPT-4, OpenAI je objavio dva dokumenta: tehničko izvješće o mogućnostima GPT-4 i sistemsku karticu, koja detaljno opisuje mnoge rizike koje će GPT-4 predstavljati zajedno s naporima tvrtke da ublaži te štete.<br />
Evo kratkog sažetka nekih problema koji se pojavljuju na kartici sustava:</p>
<p><img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Veliki modeli će se razmnožavati: Metin jezični model &#8211; LLaMA &#8211; odmah je procurio preko BitTorrenta nekoliko dana nakon što je objavljen. Sada ga možete pokrenuti na računalu ako imate tehničke vještine.<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Neke štete su predvidljive: ako svi imaju moćne AI sustave u svojim džepovima, netko će učiniti loše stvari, poput preplavljenja interneta sintetičkim medijima. OpenAI, Stanford i Centar za sigurnost i nove tehnologije već su objavili izvješće u kojem se opisuju rizici dezinformacija.<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Moćni modeli mogu se koristiti na neočekivane načine: pokazalo se da umjesto toga možete koristiti komercijalno dostupan AI model namijenjen otkrivanju novih lijekova za stvaranje patogena. Ovaj model će trenutno generirati više od 40 tisuća patogena &#8211; uključujući VX, najsmrtonosniji nervni agens ikada &#8211; u otprilike šest sati<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Sigurnost i etika bit će žrtve AI utrke: S obzirom na to koliko su ovi sustavi sposobni, nije iznenađujuće da će se obje države i drugi AI laboratoriji utrkivati u nastojanjima da razviju vlastite velike modele. Žurba s uvođenjem ovih sustava vjerojatno će ih natjerati da ignoriraju važna sigurnosna razmatranja.<br />
Zašto je ovo važno: Model ili kartice sustava relativno su novi mehanizmi transparentnosti. Njihov je cilj pružiti sveobuhvatan, ali pristupačan pregled o tome kako su programeri dizajnirali sustav umjetne inteligencije, uključujući detalje o podacima, algoritmima, performansama te etičkim i sigurnosnim pitanjima.<br />
Izvješće OpenAI-ja odstupa od norme ne pružajući pojedinosti o GPT-4, ali karticu sustava ipak vrijedi pročitati u cijelosti s obzirom na to da opsežno pokriva ukupno 11 rizika i predstavlja važan aspekt sigurne implementacije snažnih modela.<br />
Kartica sustava naglašava potrebu za pauziranjem ogromnih eksperimenata umjetne inteligencije: usprkos sveobuhvatnoj pokrivenosti potencijalnih rizika u kartici sustava, niti jedna tvrtka ne može identificirati i ublažiti sve štete povezane s jezičnim modelima ili predvidjeti njihov učinak na društvo.<br />
Trebamo vremena da osmislimo ove sustave za jasnu dobrobit svih i da društvu damo priliku da se prilagodi.<br />
S obzirom na visoke uloge koji su uključeni, u našem smo otvorenom pismu naveli neke odgovore upravljanja za koje smatramo da bi ih trebalo primijeniti prije nego što laboratoriji umjetne inteligencije obuče čak i veće modele. To uključuje:</p>
<p><img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" />Nova i sposobna regulatorna tijela posvećena umjetnoj inteligenciji;<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Nadzor i praćenje visoko sposobnih AI sustava i velikih skupova računalnih sposobnosti;<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Sustavi podrijetla i vodenih žigova koji pomažu u razlikovanju pravog od sintetičkog i za praćenje curenja modela; robustan ekosustav revizije i certificiranja;<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Odgovornost za štetu uzrokovanu umjetnom inteligencijom;<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Snažno javno financiranje tehničkog sigurnosnog istraživanja umjetne inteligencije;<br />
<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/25b6.png" alt="▶" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Institucije s dobrim resursima za suočavanje s dramatičnim ekonomskim i političkim poremećajima (osobito u demokraciji) koje će umjetna inteligencija uzrokovati.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
