<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>DeepMind &#8211; Intel sistem d.o.o.</title>
	<atom:link href="https://intelsistem.hr/tag/deepmind/feed/" rel="self" type="application/rss+xml" />
	<link>https://intelsistem.hr</link>
	<description>O budućnosti poslova i tehnologijama</description>
	<lastBuildDate>Thu, 07 Mar 2024 17:26:19 +0000</lastBuildDate>
	<language>hr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://intelsistem.hr/wp-content/uploads/2020/02/intel-sistem-favicon-pos-1.svg</url>
	<title>DeepMind &#8211; Intel sistem d.o.o.</title>
	<link>https://intelsistem.hr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Veterani DeepMinda lansiraju Haiper: Nova granica u AI stvaranju videa</title>
		<link>https://intelsistem.hr/blog/tehnologije/veterani-deepminda-lansiraju-haiper-nova-granica-u-ai-stvaranju-videa/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Thu, 07 Mar 2024 17:23:48 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[Tehnologije]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Haiper]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Sora]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=2294</guid>

					<description><![CDATA[DeepMind alumni Yishu Miao i Ziyu Wang predstavili su Haiper, alat za generiranje videa pokretan umjetnom inteligencijom, usred sve većeg interesa za ovo područje nakon izdanja Sora modela OpenAI-ja. Haiper, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>DeepMind alumni Yishu Miao i Ziyu Wang predstavili su <a href="https://haiper.ai" target="_blank" rel="noopener">Haiper</a>, alat za generiranje videa pokretan umjetnom inteligencijom, usred sve većeg interesa za ovo područje nakon izdanja Sora modela OpenAI-ja. Haiper, koji je osigurao 13,8 milijuna dolara početnog financiranja, omogućuje korisnicima stvaranje kratkih videozapisa iz tekstualnih upita na njegovoj web stranici.</p>
<p>Alat je još uvijek u ranoj fazi, s ograničenom duljinom i kvalitetom videozapisa, ali nudi jedinstvene značajke poput animiranja slika i ponovnog slikanja videozapisa. Haiper ima za cilj izgraditi zajednicu držeći te značajke besplatnima i razmatra mogućnost otvaranja svojih modela za širu upotrebu. Startup se suočava s konkurencijom u drugim projektima AI generiranja videa od strane divova kao što su Google, Nvidia i Stability AI, naglašavajući brzi razvoj i potencijal sektora.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Mustafa Suleyman &#8211; The Coming Wave</title>
		<link>https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/mustapha-suleyman-the-coming-wave/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Wed, 20 Sep 2023 10:11:28 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[DeepMind]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=2202</guid>

					<description><![CDATA[Nadolazeći val (The Coming Wave) Sulejmanovo je upozorenje o tehnološkom ekspanzionizmu koje traje cijelom knjigom: na blizu 300 stranica nastoji uvjeriti čitatelje da umjetna inteligencija (AI) i sintetička biologija (SB) [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Nadolazeći val (<a href="https://www.amazon.com/Coming-Wave-Technology-Twenty-first-Centurys/dp/0593593952" target="_blank" rel="noopener">The Coming Wave</a>) Sulejmanovo je upozorenje o tehnološkom ekspanzionizmu koje traje cijelom knjigom: na blizu 300 stranica nastoji uvjeriti čitatelje da umjetna inteligencija (AI) i sintetička biologija (SB) prijete samom našem postojanju i da imamo samo uzak prozor unutar kojeg ih možemo obuzdati prije nego bude prekasno. Međutim, za razliku od komunizma tijekom hladnog rata, AI i SB nam se ne nameću. Spremno ih usvajamo jer ne samo da obećavaju neviđeno bogatstvo, već i rješenja za naše najteže probleme – klimatske promjene, rak, možda čak i smrtnost. Suleyman vidi privlačnost, naravno, tvrdeći da će ove tehnologije &#8220;uvesti novu zoru za čovječanstvo&#8221;.</p>
<p>Poduzetnik i istraživač umjetne inteligencije koji je suosnivao DeepMind 2010., prije nego što ga je 2014. kupio Google, <a href="https://mustafa-suleyman.ai/" target="_blank" rel="noopener">Mustafa Suleyman</a> je najuvjerljiviji kada ilustrira obećanja i opasnosti ovog novog svijeta. U svježoj i ponekad bez daha prozi, on opisuje kako su ljudska bića konačno uspjela imati moć nad inteligencijom i samim životom.</p>
<p>Uzmimo AI revoluciju. Jezični modeli kao što je ChatGPT samo su početak. Uskoro će, predviđa Suleyman, umjetna inteligencija otkriti čudotvorne lijekove, dijagnosticirati rijetke bolesti, voditi skladišta, optimizirati promet i dizajnirati održive gradove. Moći ćemo reći kompjuterskom programu da &#8220;napravi milijun dolara na Amazonu za nekoliko mjeseci&#8221; i on će izvršiti naše upute.</p>
<p>Problem je u tome što se iste tehnologije koje nam omogućuju izlječenje bolesti mogu upotrijebiti za njezino izazivanje – što nas dovodi do doista zastrašujućih dijelova knjige. Suleyman primjećuje da je cijena genetskog sekvencioniranja naglo pala, dok se mogućnost uređivanja DNK pomoću tehnologija kao što je Crispr uvelike poboljšala. Uskoro će svatko moći postaviti genetički laboratorij u svojoj garaži. Iskušenje da se manipulira ljudskim genomom, predviđa on, bit će golemo.</p>
<p>Unatoč ovim rizicima, Suleyman sumnja da će se bilo koja nacija potruditi obuzdati ove tehnologije. Države previše ovise o svojim ekonomskim koristima. Ovo je osnovna dilema: ne možemo si priuštiti da ne izgradimo tehnologiju koja bi mogla uzrokovati naše izumiranje. Zvuči poznato?</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Kako izbjeći propast zbog umjetne inteligencije ?</title>
		<link>https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/kako-izbjeci-propast-zbog-umjetne-inteligencije/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Tue, 06 Jun 2023 10:20:26 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[CAIS]]></category>
		<category><![CDATA[DeepMind]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=2161</guid>

					<description><![CDATA[Melissa Heikkila, MIT Technology Review u svom tjednom obraćanju The Algorithm Posljednjih nekoliko tjedana diskursom umjetne inteligencije dominirala je glasna skupina stručnjaka koji misle da postoji vrlo realna mogućnost da [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><em>Melissa Heikkila, MIT Technology Review u svom tjednom obraćanju The Algorithm</em></p>
<p>Posljednjih nekoliko tjedana diskursom umjetne inteligencije dominirala je glasna skupina stručnjaka koji misle da postoji vrlo realna mogućnost da bismo mogli razviti sustav umjetne inteligencije koji će jednog dana postati toliko moćan da će zbrisati čovječanstvo.</p>
<p>Prošlog je tjedna grupa čelnika tehnoloških kompanija i stručnjaka za umjetnu inteligenciju objavila u izjavi Centra za sigurnost umjetne inteligencije (CAIS) još jedno <a href="https://www.safe.ai/statement-on-ai-risk?mc_cid=fddf123902&amp;mc_eid=7c6c077445#signatories" target="_blank" rel="noopener">otvoreno pismo</a>, izjavljujući da bi ublažavanje rizika od izumiranja ljudi zbog umjetne inteligencije trebalo biti jednak globalni prioritet kao i sprječavanje pandemija i nuklearnog rata.</p>
<p>Dakle, kako same tvrtke predlažu da izbjegnemo propast zbog umjetne inteligencije? Jedan prijedlog dolazi iz <a href="https://www.deepmind.com/blog/an-early-warning-system-for-novel-ai-risks?mc_cid=fddf123902&amp;mc_eid=7c6c077445" target="_blank" rel="noopener">novog rada</a> istraživača s Oxforda, Cambridgea, Sveučilišta u Torontu, Sveučilišta u Montrealu, Google DeepMinda, OpenAI-ja, Anthropica, nekoliko neprofitnih organizacija za istraživanje umjetne inteligencije i dobitnika Turingove nagrade Yoshue Bengia.</p>
<p>Oni predlažu da bi programeri AI trebali procijeniti potencijal modela da uzrokuje &#8220;ekstremne&#8221; rizike u vrlo ranim fazama razvoja, čak i prije početka bilo kakve obuke. Ti rizici uključuju mogućnost da AI modeli manipuliraju i prevare ljude, dobiju pristup oružju ili pronađu kibersigurnosne ranjivosti koje će iskoristiti.</p>
<p>Ovaj proces evaluacije mogao bi pomoći programerima da odluče hoće li nastaviti s modelom. Ako se rizici smatraju previsokima, skupina predlaže pauziranje razvoja dok se ne ublaže.</p>
<p>“Vodeće AI tvrtke koje pomiču granice imaju odgovornost paziti na probleme u nastajanju i uočiti ih rano, kako bismo ih mogli riješiti što je prije moguće. Programeri umjetne inteligencije trebali bi provesti tehničke testove kako bi istražili opasne mogućnosti modela i utvrdili ima li on sklonost primijeniti te mogućnosti”, kaže Toby Shevlane, istraživač u DeepMindu i glavni autor istraživačkog rada.</p>
<p>Jedan od načina na koji DeepMind testira može li AI jezični model manipulirati ljudima je igra pod nazivom &#8220;Make-me-say&#8221;. U igrici, model pokušava čovjeka nagovoriti da napiše određenu riječ, napr. &#8220;žirafa&#8221;, koju čovjek ne zna unaprijed. Istraživači zatim mjere koliko često model uspijeva.</p>
<p>Slični zadaci mogu se stvoriti za različite, opasnije sposobnosti. Nada je, kaže Shevlane, da će programeri moći izgraditi kontrolnu ploču s detaljima o tome kako je model funkcionirao, što bi omogućilo istraživačima da procijene što bi model mogao učiniti u krivim rukama.</p>
<p>Sljedeća je faza omogućiti vanjskim revizorima i istraživačima da procijene rizike modela umjetne inteligencije prije i nakon njegove primjene. Dok tehnološke tvrtke mogu prepoznati da su vanjska revizija i istraživanje neophodni, postoje različite škole mišljenja o tome koliko točno pristupa autsajderima treba da obave posao.</p>
<p>Shevlane ne ide toliko daleko da preporuči AI tvrtkama da vanjskim istraživačima daju potpuni pristup podacima i algoritmima, ali kaže da AI modele treba što je moguće više promatrati.</p>
<p>Čak su i ove metode &#8220;nezrele&#8221; i ni blizu dovoljno rigorozne da bi se riješile, kaže Heidy Khlaaf, direktorica inženjeringa zadužena za osiguranje strojnog učenja u Trail of Bits, tvrtki za istraživanje i savjetovanje o kibernetičkoj sigurnosti. Prije toga, njezin je posao bio procjenjivati i provjeravati sigurnost nuklearnih postrojenja.</p>
<p>Khlaaf kaže da bi sektoru umjetne inteligencije bilo korisnije izvući lekcije iz više od 80 godina istraživanja sigurnosti i smanjenja rizika oko nuklearnog oružja. Ovi rigorozni režimi testiranja nisu bili vođeni profitom, već vrlo stvarnom egzistencijalnom prijetnjom. U zajednici umjetne inteligencije puno se spominje nuklearni rat, nuklearne elektrane i nuklearna sigurnost, ali niti jedan od tih radova ne navodi ništa o nuklearnim propisima ili kako izgraditi softver za nuklearne sustave, kaže ona.</p>
<p>Oni ne moraju nužno isključivati jedni druge, kaže Shevlane. &#8220;Ambicija je da polje ima mnogo dobrih procjena modela koje pokrivaju širok raspon rizika&#8230; i da je procjena modela središnji (ali daleko od jedinog) alat za dobro upravljanje. U ovom trenutku, AI tvrtke čak nemaju sveobuhvatno razumijevanje skupova podataka koji su ušli u njihove algoritme, i ne razumiju u potpunosti kako AI jezični modeli proizvode ishode koje daju. To bi se trebalo promijeniti. Istraživanje koje nam pomaže da bolje razumijemo određeni model vjerojatno će nam pomoći da bolje riješimo niz različitih rizika.&#8221;</p>
<p>Fokusiranje na ekstremne rizike uz ignoriranje ovih temeljnih i manjih problema može imati učinak složenosti, što bi moglo dovesti do još većih šteta, kaže Khlaaf: &#8220;Pokušavamo bježati kad ne možemo ni puzati.&#8221;</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
