<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>IBM &#8211; Intel sistem d.o.o.</title>
	<atom:link href="https://intelsistem.hr/tag/ibm/feed/" rel="self" type="application/rss+xml" />
	<link>https://intelsistem.hr</link>
	<description>O budućnosti poslova i tehnologijama</description>
	<lastBuildDate>Mon, 17 Feb 2025 17:12:10 +0000</lastBuildDate>
	<language>hr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://intelsistem.hr/wp-content/uploads/2020/02/intel-sistem-favicon-pos-1.svg</url>
	<title>IBM &#8211; Intel sistem d.o.o.</title>
	<link>https://intelsistem.hr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>IBM izaziva budućnost umjetnog zaključivanja</title>
		<link>https://intelsistem.hr/blog/ibm-izaziva-buducnost-umjetnog-zakljucivanja/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Mon, 17 Feb 2025 16:32:17 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Tehnologije]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[CoT]]></category>
		<category><![CDATA[IBM]]></category>
		<category><![CDATA[LLM]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=2383</guid>

					<description><![CDATA[Najnovija pomama u umjetnoj inteligenciji povezana je s modelima &#8216;zaključivanja&#8217;, velikim jezičnim modelima (Large Language Models-LLM) koji su prilagođeni da &#8216;razmišljaju&#8217; dulje prije nego što odgovore na upite. Osnova ovoga [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Najnovija pomama u umjetnoj inteligenciji povezana je s modelima &#8216;zaključivanja&#8217;, velikim jezičnim modelima (Large Language Models-LLM) koji su prilagođeni da &#8216;razmišljaju&#8217; dulje prije nego što odgovore na upite. Osnova ovoga &#8211; prikazana u OpenAI-jevoj o-seriji i DeepSeek-ovom R1 &#8211; uključuje razmišljanje lanca misli , Chain-of Thought (CoT), stariji pristup koji je, u kombinaciji s najnovijim LLM-ovima, imao prilično snažan učinak.<br />
Prvi put naglašen <a href="https://intelsistem.hr/wp-content/uploads/2025/02/2201.11903v6-CoT.pdf" target="_blank" rel="noopener">u radu istraživača Google DeepMind</a> iz 2022., CoT je započeo kao tehnika poticanja koja se nedavno razvila u pristup koji je ugrađen u same modele.</p>
<p>Ian Krietzberg iz <a href="https://www.thedeepview.co/" target="_blank" rel="noopener">The deep view</a> i <a href="https://research.ibm.com/people/david-cox" target="_blank" rel="noopener">Dr. David Cox</a> iz IBM donose više detalja :</p>
<p>• &#8220;Uglavnom, netko je shvatio da ako kažete, &#8216;recite modelu (da) razmišlja korak po korak&#8217;, to zapravo daje bolje rezultate&#8221;, rekao je dr. David Cox, potpredsjednik AI modela u IBM Research.<br />
• “Modelu će zapravo trebati vremena. Verbalizirat će nekoliko koraka i na kraju ćete dobiti bolji rezultat. A to je vrlo svestrana stvar. Ali ako samo to radite, onda to ima svoje granice”, rekao je. “Pomaže. Ali to ne mijenja život.”</p>
<p>I dok se industrija već mjesecima kreće u smjeru &#8216;zaključivanja&#8217;, došlo je do definitivnog pomaka nakon DeepSeek-ovog izdanja R1, naizgled jeftinijeg modela koji je postigao paritet s OpenAI-jevim modelima kroz učenje pojačanja i CoT rezoniranje.<br />
&#8220;Svi su imali stvarno, stvarno snažnu reakciju na izlazak R1, što nas je iskreno malo zbunilo u polju istraživanja&#8221;, rekao je Cox, objašnjavajući da DeepSeek, barem za one u industriji, nije baš došao niotkuda. “Već smo bili uzbuđeni. Svi smo već radili na tome.” I umjesto da čeka da ga objavi, IBM je odlučio &#8220;samo izbaciti nešto da pokaže što smo radili u tom vremenu.&#8221;<br />
Ranije ovog mjeseca, IBM je objavio izdanje za pregled verzije svog modela <strong>Granite 3.1 8B</strong> s omogućenim razmišljanjem,<a href="https://newsroom.ibm.com/2024-10-21-ibm-introduces-granite-3-0-high-performing-ai-models-built-for-business?utm_source=thedeepview&amp;utm_medium=newsletter&amp;utm_campaign=report-europeans-would-let-an-ai-vote-for-them" target="_blank" rel="noopener"> dijela IBM-ove obitelji manjih jezičnih modela</a> dizajniranih za uparivanje sa skupovima podataka specifičnim za poduzeća.</p>
<ul>
<li>Tamo gdje je DeepSeek iskoristio destilaciju modela kako bi postigao svoje rezultate, IBM je primijenio učenje pojačanja izravno na svoj model Granite kako bi potaknuo obrazloženje CoT-a, što osigurava &#8220;da su očuvane kritične karakteristike poput sigurnosti izvornog modela i opće performanse.&#8221;</li>
<li>Kao rezultat ovog pristupa, IBM je zabilježio dvoznamenkasti rast referentnih performansi koje su, posebice, dobro funkcionirale u širokom rasponu specifičnih zadataka bez žrtvovanja općih performansi.</li>
</ul>
<p>Istraživači nisu primijetili nikakvu razliku u sigurnosnoj izvedbi između modela s omogućenim razmišljanjem i izvornih modela. To je značajan trenutak u sukobu i raspravi između velikih i malih jezičnih modela, gdje manji modeli nude veću učinkovitost, ali općenito manje robusnu izvedbu.<br />
&#8220;Mislim da će to biti kontinuirani trend da zapravo možemo uzeti ove manje modele, koji su vrlo svestrani, vrlo brzi, vrlo učinkoviti, i onda ih praktički učiniti većim na zahtjev&#8221;, rekao je Cox. &#8220;Ideja da možete uzeti mali model i omogućiti mu da radi više stvari tako što ćete ga rasporediti u vremenu, to je nešto za što mislim da će se zavladati posvuda.&#8221;<br />
I za razliku od trenda koji trenutno vidimo kod sustava &#8211; poput ChatGPT-a &#8211; koji se mogu prebacivati između rezonirajućih i nerezonirajućih modela prema potrebi, IBM je dizajnirao ovaj model tako da korisnici mogu u biti uključiti ili isključiti CoT &#8211; bez mijenjanja modela. Budući da je obrazloženje CoT-a i duže i skuplje od alternative, to nije uvijek potrebno (ili poželjno). Zbog toga je IBM-ov fokus bio na fleksibilnosti.<br />
&#8220;Izrađujemo ovaj skup kontroliranih, programerima prilagođenih načina za dodavanje zastavica koje samo govore modelu što trebamo učiniti&#8221;, rekao je Cox.</p>
<p>Ovaj rad, prema Coxu, samo je početak dugoročnog trenda.</p>
<p>&#8220;Imamo još mnogo toga što se događa u prostoru razmišljanja, odvijaju se razne vrste rada na razmišljanju koje ćete vidjeti u nadolazećim mjesecima&#8221;, rekao je.<br />
&#8220;Ne mislim da ćemo dugoročno biti u svijetu u kojem imamo samo jedan divovski model koji pokušava učiniti sve&#8221;, dodao je Cox. “Imat ćemo ovaj cool set malih modela koji se mogu proširiti i razmišljati&#8230; to je svijet prema kojem mislimo da idemo. Postavite razvojnom programeru kontrolu, dajte mu skup alata koji može … izvršiti različite zadatke i automatizirati stvari i koristiti ovu tehnologiju na načine koji i dalje drže pod kontrolom programera i ljude.”</p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
