<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Chatbot &#8211; Intel sistem d.o.o.</title>
	<atom:link href="https://intelsistem.hr/tag/chatbot/feed/" rel="self" type="application/rss+xml" />
	<link>https://intelsistem.hr</link>
	<description>O budućnosti poslova i tehnologijama</description>
	<lastBuildDate>Fri, 16 Jun 2023 12:54:42 +0000</lastBuildDate>
	<language>hr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://intelsistem.hr/wp-content/uploads/2020/02/intel-sistem-favicon-pos-1.svg</url>
	<title>Chatbot &#8211; Intel sistem d.o.o.</title>
	<link>https://intelsistem.hr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Jesmo li svi mi besplatni AI radnici ?</title>
		<link>https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/jesmo-li-svi-mi-besplatni-ai-radnici/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Fri, 16 Jun 2023 12:35:35 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Chatbot]]></category>
		<category><![CDATA[FAccT]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=2169</guid>

					<description><![CDATA[Kako bi AI chatbotovi zvučali pametno i izbacivali manje toksične besmislice tajna je u korištenju tehnike koja se zove pojačano učenje iz ljudskih povratnih informacija, a ona koristi ljude za [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Kako bi AI chatbotovi zvučali pametno i izbacivali manje toksične besmislice tajna je u korištenju tehnike koja se zove pojačano učenje iz ljudskih povratnih informacija, a ona koristi ljude za unos poboljšanja odgovora modela. Oslanja se na malu vojsku ljudskih anotatora podataka koji procjenjuju ima li niz teksta smisla i zvuči li tečno i prirodno. Oni odlučuju treba li odgovor zadržati u bazi podataka AI modela ili ga ukloniti.<br />
Čak i najimpresivniji AI chatbotovi zahtijevaju tisuće radnih sati kako bi se ponašali na način na koji njihovi kreatori žele, a čak i tada to rade nepouzdano. Rad može biti brutalan i uznemirujući, neki su od komentara na ACM konferenciji o pravednosti, odgovornosti i transparentnosti (<a href="https://facctconference.org/2023/" target="_blank" rel="noopener">FAccT</a>). To je konferencija koja okuplja istraživanja o stvarima poput onih kako sustave umjetne inteligencije učiniti odgovornijima i etičnijima.<br />
Jedan od panela je s pionirom AI etike <a href="https://www.dair-institute.org/team" target="_blank" rel="noopener">Timnit Gebru</a>, koja je bila suvoditelj Googleovog odjela za etiku AI prije nego što je dobila otkaz. Gebru govori o tome kako se djelatnici za obradu podataka u Etiopiji, Eritreji i Keniji iskorištavaju za čišćenje internetske mržnje i dezinformacija. Na primjer, anotatori podataka u Keniji bili su plaćeni manje od 2 dolara po satu da pretraže hrpu uznemirujućeg sadržaja o nasilju i seksualnom zlostavljanju kako bi ChatGPT bio manje toksičan. Ti se radnici sada sindikalno udružuju kako bi dobili bolje uvjete rada.<br />
U seriji MIT Technology Review prošle godine, komentirano je kako umjetna inteligencija stvara novi kolonijalni svjetski poredak, a radnici koji se bave podacima snose najveći teret toga. Rasvjetljavanje izrabljivačkih radničkih praksi oko umjetne inteligencije postalo je još hitnije i važnije s porastom popularnih AI chatbotova kao što su ChatGPT, Bing i Bard i umjetne inteligencije za generiranje slika kao što su DALL-E 2 i Stable Diffusion.</p>
<p>Anotatori podataka uključeni su u svaku fazu razvoja umjetne inteligencije, od modela za obuku preko provjere njihovih rezultata do pružanja povratnih informacija koje omogućuju fino podešavanje modela nakon što je pokrenut. Često su prisiljeni raditi nevjerojatno brzim tempom kako bi ispunili visoke ciljeve i kratke rokove, kaže <a href="https://srravya.github.io/" target="_blank" rel="noopener">Srravya Chandhiramowuli</a>, doktorska istraživačica koja proučava radne prakse u radu s podacima na Cityju, Sveučilište u Londonu.<br />
&#8220;Ta ideja da možete izgraditi ove velike sustave bez ljudske intervencije je apsolutna zabluda&#8221;, kaže Chandhiramowuli. &#8220;Anotatori podataka daju AI modelima važan kontekst koji im je potreban za donošenje velikih odluka i čine se sofisticiranima. Očekuje se da anotatori utvrde vrijednosti koje su važne za tvrtku. Oni ne uče samo te daleke daleke stvari koje su im apsolutno besmislene &#8211; oni također trebaju shvatiti ne samo koji su ti drugi konteksti, već i koji su prioriteti sustava koji grade&#8221;, kaže ona.</p>
<p>Zapravo, svi mi radimo na podacima za velike tehnološke tvrtke, bili toga svjesni ili ne, tvrde istraživači sa Sveučilišta Kalifornija, Berkeley, Sveučilišta Kalifornija, Davis, Sveučilišta Minnesota i Sveučilišta Northwestern u novom radu predstavljenom na FAccT.<br />
Tekstualni i slikovni AI modeli treniraju se pomoću ogromnih skupova podataka koji su izvučeni s interneta. To uključuje naše osobne podatke i djela umjetnika zaštićena autorskim pravom, a ti podaci koje smo stvorili postali su zauvijek dio modela umjetne inteligencije koji je izgrađen kako bi tvrtki zaradio novac. Nesvjesno besplatno doprinosimo svojim radom učitavanjem svojih fotografija na javne stranice, glasanjem za komentare na Redditu, označavanjem slika na reCAPTCHA ili izvođenjem online pretraživanja.</p>
<p>Trenutačno je neravnoteža snaga jako iskrivljena u korist nekih od najvećih tehnoloških kompanija na svijetu. Da bismo to promijenili, ne trebamo ništa osim podatkovne revolucije i regulacije. Istraživači tvrde da je jedan od načina na koji ljudi mogu vratiti kontrolu nad svojim online postojanjem zagovaranje transparentnosti o tome kako se podaci koriste i iznalaženje načina da se ljudima da pravo da ponude povratne informacije i dijele prihode od upotrebe svojih podataka.</p>
<p>Iako ovaj rad na podacima čini okosnicu moderne umjetne inteligencije, rad na podacima i dalje je kronično podcijenjen i nevidljiv diljem svijeta, a plaće za anotatore ostaju niske.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Slavoj Žižek &#8211; Umjetni idiotizam</title>
		<link>https://intelsistem.hr/blog/tehnologije/ai-umjetna-inteligencija/slavoj-zizek-umjetni-idiotizam/</link>
		
		<dc:creator><![CDATA[ITS]]></dc:creator>
		<pubDate>Sun, 02 Apr 2023 10:56:50 +0000</pubDate>
				<category><![CDATA[AI - Umjetna inteligencija]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Chatbot]]></category>
		<category><![CDATA[Slavoj Žižek]]></category>
		<guid isPermaLink="false">https://intelsistem.hr/?p=2086</guid>

					<description><![CDATA[ Problem s novim chatbotovima nije samo to što su često glupi i naivni; to je da nisu dovoljno &#8220;glupi&#8221; ili &#8220;naivni&#8221; da uhvate nijanse, ironije i razotkrivajuća proturječja koja sačinjavaju [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><em> Problem s novim chatbotovima nije samo to što su često glupi i naivni; to je da nisu dovoljno &#8220;glupi&#8221; ili &#8220;naivni&#8221; da uhvate nijanse, ironije i razotkrivajuća proturječja koja sačinjavaju ljudsku kulturu i komunikaciju. Što je još gore, oslanjajući se na njih, riskiramo da podlegnemo istoj gluposti.</em></p>
<p>Nema ništa novo o &#8220;chatbotovima&#8221; koji su sposobni održavati razgovor na prirodnom jeziku, razumjeti osnovnu namjeru korisnika i ponuditi odgovore na temelju unaprijed postavljenih pravila i podataka. No, kapacitet takvih chatbota dramatično je povećan posljednjih mjeseci, što je dovelo do neslaganja i panike u mnogim krugovima.<br />
Mnogo je rečeno o chatbotovima koji nagovještavaju kraj tradicionalnog studentskog eseja. Ali pitanje koje zaslužuje veću pozornost jest kako bi chatbotovi trebali reagirati kada ljudski sugovornici koriste agresivne, seksističke ili rasističke primjedbe kako bi potaknuli bota da zauzvrat predstavi svoje vlastite lažne fantazije. Treba li umjetna inteligencija biti programirana da odgovara na istoj razini kao i pitanja koja se postavljaju?<br />
Ako odlučimo da je neka vrsta propisa u redu, onda moramo odrediti dokle treba ići cenzura. Hoće li političke pozicije koje neke grupe smatraju &#8220;uvredljivima&#8221; biti zabranjene? Što je s izrazima solidarnosti s Palestincima sa Zapadne obale ili tvrdnjom da je Izrael država aparthejda (što je bivši američki predsjednik Jimmy Carter svojedobno stavio u naslov knjige)? Hoće li oni biti blokirani kao &#8220;antisemitski&#8221;?<br />
Problem tu ne završava. Kao što upozorava umjetnik i pisac James Bridle, nove umjetne inteligencije &#8220;temeljene su na sveobuhvatnom prisvajanju postojeće kulture&#8221;, a uvjerenje da su &#8220;zapravo upućene ili značajne aktivno je opasno&#8221;. Stoga bismo također trebali biti vrlo oprezni s novim AI generatorima slika. “U svom pokušaju da razumiju i repliciraju cjelokupnu ljudsku vizualnu kulturu”, primjećuje Bridle, “[čini se] da su rekreirali i naše najmračnije strahove. Možda je to samo znak da su ti sustavi doista vrlo dobri u oponašanju ljudske svijesti, sve do užasa koji vreba u dubinama postojanja: naših strahova od prljavštine, smrti i korupcije.”<br />
Ali koliko su nove umjetne inteligencije dobre u približavanju ljudske svijesti? Zamislite bar koji je nedavno reklamirao posebno piće sa sljedećim uvjetima: &#8220;Kupite jedno pivo po cijeni od dva i primite drugo pivo potpuno besplatno!&#8221; Za svakog čovjeka ovo je očito šala. Klasična posebna ponuda &#8220;kupi jednu, uzmi jednu&#8221; preoblikovana je tako da se poništi. To je izraz cinizma koji će se cijeniti kao komična iskrenost, a sve kako bi se povećala prodaja. Bi li chatbot otkrio išta od ovoga?</p>
<p>&#8220;Jebote&#8221; predstavlja sličan problem. Iako označava nešto što većina ljudi uživa raditi (kopulacija), također često poprima negativnu valenciju (&#8220;Sjebani smo!&#8221; &#8220;Jebi se!&#8221;). Jezik i stvarnost su zbrkani. Je li umjetna inteligencija spremna uočiti takve razlike?<br />
U svom eseju iz 1805. “O postupnom oblikovanju misli u procesu govora” (prvi put objavljen posthumno 1878.), njemački pjesnik Heinrich von Kleist izokreće uvriježenu mudrost da ne treba otvarati usta da bi govorili ako nemate jasnu ideju o tome što reći: “Ako je dakle misao izražena na nejasan način, onda uopće ne slijedi da je ta misao zamišljena na zbrkan način. Naprotiv, vrlo je moguće da su ideje koje su izražene na najkonfuzniji način one koje su najjasnije promišljene.”<br />
Odnos između jezika i mišljenja je izuzetno kompliciran. U odlomku iz jednog od Staljinovih govora iz ranih 1930-ih, on predlaže radikalne mjere za &#8220;otkrivanje i borbu bez milosti čak i protiv onih koji se protive kolektivizaciji samo u svojim mislima &#8211; da, mislim na to, trebali bismo se boriti čak i protiv ljudskih misli.&#8221; Sa sigurnošću se može pretpostaviti da ovaj odlomak nije bio unaprijed pripremljen. Nakon što ga je uhvatio trenutak, Staljin je odmah postao svjestan onoga što je upravo rekao. Ali umjesto da se povuče, odlučio je ostati pri svojoj hiperboli.</p>
<p>Kao što je Jacques Lacan kasnije rekao, ovo je bio slučaj kada je istina izronila iznenada kroz čin izricanja. Louis Althusser identificirao je sličan fenomen u međuigri između nagrade (prise) i iznenađenja (surprise). Netko tko iznenada shvati (&#8220;nagradi&#8221;) ideju bit će iznenađen onim što je postigla. Opet, može li bilo koji chatbot to učiniti?<br />
Problem nije u tome što su chatbotovi glupi; to je da nisu dovoljno &#8220;glupi&#8221;. Nije da su naivni (nedostaje im ironija i refleksivnost); to je da nisu dovoljno naivni (nedostaje kada naivnost prikriva pronicljivost). Prava opasnost, dakle, nije da će ljudi zamijeniti chatbota sa stvarnom osobom; to je da će komunikacija s chatbotovima natjerati stvarne osobe da govore kao chatbotovi – propuštajući sve nijanse i ironije, opsesivno govoreći samo ono što mislite da želite reći.</p>
<p>Kad sam bio mlađi, prijatelj je otišao psihoanalitičaru na liječenje nakon traumatičnog iskustva. Ideja ovog prijatelja o tome što takvi analitičari očekuju od svojih pacijenata bila je klišej, pa je svoju prvu seansu proveo iznoseći lažne &#8220;slobodne asocijacije&#8221; o tome kako mrzi svog oca i želi njegovu smrt. Reakcija analitičara bila je genijalna: zauzeo je naivan “predfrojdovski” stav i predbacio mom prijatelju što ne poštuje svog oca (“Kako možeš tako govoriti o osobi koja te je učinila onim što jesi?”). Ova hinjena naivnost poslala je jasnu poruku: Ne vjerujem vašim lažnim &#8220;asocijacijama&#8221;. Bi li chatbot mogao uhvatiti ovaj podtekst?<br />
Najvjerojatnije ne bi, jer je to poput Rowana Williamsovog tumačenja princa Miškina u Idiotu Dostojevskog. Prema standardnom tumačenju, Myshkin, &#8220;idiot&#8221;, je svetac, &#8220;pozitivno dobar i lijep čovjek&#8221; kojeg dovode do izoliranog ludila grube brutalnosti i strasti stvarnog svijeta. Ali u Williamsovom radikalnom ponovnom čitanju, Myshkin predstavlja oko oluje: dobar i svetac, koliko god bio, on je taj koji izaziva pustoš i smrt kojoj svjedoči, zahvaljujući svojoj ulozi u složenoj mreži odnosa oko sebe .</p>
<p>Ne radi se samo o tome da je Miškin naivni prostak. Radi se o tome da ga njegova posebna vrsta tuposti ostavlja nesvjesnim svojih katastrofalnih učinaka na druge. On je ravna osoba koja doslovno priča kao chatbot. Njegova “dobrota” leži u tome što, poput chatbota, na izazove reagira bez ironije, nudeći floskule lišene svake refleksivnosti, shvaćajući sve doslovno i oslanjajući se na mentalni auto-complete, a ne na autentično oblikovanje ideja. Iz tog će se razloga novi chatbotovi jako dobro slagati s ideolozima svih boja, od današnje “probuđene” gomile do “MAGA” nacionalista koji radije spavaju.</p>
<p>(C) Project Syndicate, 23.3.2023.</p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
