Although trusting relations have been attributed as crucial for the social fabric, trust is in flux. Erosion of trust is increasingly being captured in surveys, recent studies, and media accompanied by multiple concepts of trust envisaging ways of restoring it. The main aim of this thesis is to reframe the problem from restoring trust to the question of trustworthiness. On that ground, we defend the thesis that the trustworthy by design model is better suited to address the question of distrust and misplaced trust than the alternatives. Based on the critical analysis of the state-of-the-art concepts of trust and trustworthiness we propose a new model of trustworthy by design that accommodates more inclusive aspects of responsibility, responsiveness and the diversity of perspectives. In order to test the model, we apply it to two case studies. First, we apply the trustworthy by design model to socio-technological algorithmic systems in decision-making process. It incorporates both responsibility and responsiveness early in the process of algorithmic design and throughout the decision-making cycle from framing the problem, choosing the data and the model, and all the way to deployment. We identify the input from diverse actors, domain experts, fairness, and inclusion as critical ingredients when making tradeoffs throughout the decision-making process. Second, we address the challenge of responsibility in distributed systems, governing challenges, regulation, and accountability. Finally, we apply the trustworthy by design model in the context of scientific institutions. Within the broader context of science and values we identify main indicators that influence trust in science from framing the problem and the scientific agenda to diverse voices, confirmation, and macro-biases. By applying the trustworthy by design model we argue that trustworthy scientific institutions require reformulation of the notion of objectivity in science to ensure responsibility, responsiveness and democratic accountability. Povjerenje je nužno u našim odnosima s drugim ljudima, javnim institucijama, organizacijama te digitalnim platformama. Povjerenje može biti terapeutsko (Horsburgh, 1960), korisno za suradnju (Gambetta, 1988; McLeod, 2015), samopoštovanje (Govier, 1993; McLeod, 2015) ekonomski i društveni prosperitet (Fukuyama, 1996), itd. Pa ipak, gubitak povjerenja trend je koji bilježe istraživanja javnog mnijenja, studije i mediji. Istovremeno, promjene u okviru digitalnih transformacija, koje neki zovu četvrtom industrijskom revolucijom (Schwab, 2017), usmjeravaju naše povjerenje i nepovjerenje prema novim digitalnim tehnologijama. Istraživanja te problematike ukazuju na promjenu modusa povjerenja u distribuirano povjerenje putem tehnologija i povjerenja u platforme (Botsman, 2017), istraživanje našeg povjerenja u tehnologije i artificijelne aktere (Taddeo, 2010; Castelfranchi and Falcone, 2010; Buechner and Tavani, 2011) te povjerenja u algoritme (Cohen et al., 2014; Rubel and Jones, 2016; Shackelford and Raymond, 2014). Najčešći odgovori na gubitak povjerenja bazirani na istraživanjima javnog mijenja te višestrukim konceptima povjerenja imaju za cilj pokušaj povratka povjerenja ili pak posve oprečno smatraju da je povjerenje nepotrebno u institucijama te da povjerenje u institucije nije primjenjivo u kontekstu novih digitalnih tehnologija. Kritičkom analizom trenutnih dosega istraživanja najznačajnijih koncepata povjerenja (Baier, 1986; Jones, 1996, 2013, 2017; Dasgupta, 1988; Cook et al., 2005; Hardin, 2002, 2006; O’Neill, 2002a, 2014; Townley and Garfield, 2013) pratimo promjene iz odnosa povjerenja između pojedinaca, do povjerenja u institucije te transformacije povjerenja u digitalne tehnologije. Ta pluridimenzionalna mapa koncepata povjerenja i njihovih jedinstvenih obilježja vezanih uz kontekst primjene služi kao prvi korak u adresiranju pitanja povjerenja u druge, u institucije, digitalne platforme ili algoritmičke sustave te određivanja emocionalnih ili racionalnih karakteristika povjerenja. Temeljem rezultata analize postavljamo tri međusobno povezane hipoteze. Prvo, ukazujemo na važnost modusa povjerenja (tzv. strong thin mode) koji ima veliki utjecaj na naše živote, primjerice na zdravlje ili financijsku stabilnost, ali je istovremeno naše razumijevanje povjerenja ograničeno jer se odvija u kompleksnim organizacijskim uvjetima gdje direktan kontakt licem u lice nije dostupan (Hosking, 2014). Ovaj modalitet povjerenja, iako zapostavljen, ukazuje na polugu koja nedostaje u razumijevanju transformacije između različitih modusa povjerenja. Drugo, na temelju razrade tvrdnje o neodrživosti hipoteze o deficitu znanja, tvrdimo da afektivni, emocionalni i kognitivni aspekti povjerenja igraju značajnu ulogu. Treće, na temelju kritičke analize različitih koncepata povjerenja, namjesto napuštanja povjerenja u institucije, predlažemo model koji bi bolje rješavao uočene nedostatke u modelu vjerodostojnih institucija. Temeljem kritičke analize koncepata povjerenja i vjerodostojnosti, cilj je rada preformulirati pitanje povjerenja u pitanje o vjerodostojnosti te izložiti novi model vjerodostojnog dizajna koji obuhvaća aspekte odgovornosti i dijaloga. Na toj osnovi branimo tezu da je model vjerodostojnosti po dizajnu prikladniji za rješavanje pitanja nepovjerenja i pogrešnog povjerenja nego alternative. Taj obrnuti pristup temeljen na vjerodostojnosti namjesto povjerenja nije nov, nekoliko autora je istaklo njegovu važnost u međuljudskim odnosima (Baier, 1986; Pettit, 1995; Jones, 1996, 2012; McGeer, 2008), te u institucionalnom i društvenom kontekstu (Hardin, 1996, 2002; O'Neill, 2002a, 2013, 2014; Potter, 2002). Nadalje, konceptualni okvir o razlici između koncepta povjerenja i vjerodostojnosti temeljimo na radu Onore O'Neill (2002a, 2002b, 2013, 2014) koja naglašava važnost davanja povjerenja jedino vjerodostojnim pojedincima ili institucijama (O'Neill, 2013). Na tom tragu dajemo prednost konceptu vjerodostojnosti nad povjerenjem s ciljem određivanja njegovih značajki koje mogu doprinijeti povjerenju u vjerodostojne institucije, sustave ili pojedince. Teza koju predstavljamo o modelu pouzdanog dizajna institucija ili sustava razlikuje se od postojećih pristupa, modificirajući koncept vjerodostojnosti koji sadrži aspekte odgovornosti, dijaloga i raznolikosti perspektiva. Nadalje, u svrhu testiranja model primjenjujemo na dvije studije slučaja o algoritamskim socio-tehnološkim sustavima te znanstvenim institucijama ukazujući na važnost njegove primjene u međuodnosu znanosti, društva i politike u okviru 4. industrijske revolucije. Predloženo preoblikovanje sustava i institucija trebalo bi omogućiti dvostrano povjerenje između javnosti i sustava koji se temelje na raznolikosti i uključivosti. U prvom poglavlju primjenjujemo fokus je na socio-tehnološkim algoritamskim sustavima koji su u pozadini digitalnih platformi. Posebno nas zanimaju algoritmi za donošenje odluka koji imaju veliki utjecaj na odluke o našem životu od zdravstvene skrbi, kreditnog skoringa do pravnog sustava. Mogu li algoritmi biti vjerodostojni, mogu li donositi pravedne odluke? U distribuiranim sustavima umjetnih i ljudskih agenata tko treba biti odgovoran kada nešto pođe po zlu? Kako regulirati algoritme ako su neki od njih crne kutije čak i njihovim kreatorima? Mapiranjem najutjecajnijih algoritama za donošenje odluka usredotočujemo se na pokazatelje koji utječu na gubitak povjerenja javnosti. To nas vodi pobližem ispitivanju utjecaja vrijednosnih aspekata algoritama i propusta u odgovornosti koji su posebno prisutni kod algoritama strojnog učenja, uz prijedlog načina osiguravanja vjerodostojnosti algoritamskih sustava. Usprkos lakoći s kojom dajemo povjerenje digitalnim platformama detaljnija analiza infrastrukture u pozadini ukazuje na složeniju problematiku jer algoritmi nisu neutralni, a pitanje odgovornosti u kompleksnom suodnosu artificijelnih i ljudskih aktera daleko od je od jednoznačnog. Mapiranje indikatora koji utječu na promjene povjerenja provodimo na primjeru algoritama za donošenja odluka, među kojima su algoritmi personalizacije (Hildebrandt, 2008; Newell and Marabelli, 2015; Taddeo and Floridi, 2015), algoritmi za profiliranje (Hildebrandt, 2008), algoritmi strojnog učenja, (Tutt, 2016; Burrell, 2016), algoritmi pregovaranja (Raymond, 2015), itd. Uz prednosti algoritamskih sustava u doprinosu učinkovitosti i poboljšanja sposobnosti, rezultati analize ukazuju na dva glavna izazova. Prvi se odnosi na vrijednosti prisutne u dizajnu algoritama, tehničkih ograničenja ili vrijednosti u procesu njihove provedbe. Algoritmi sadrže vrijednosne procjene koje je moguće identificirati u obliku rasnih predrasuda primjerice diskriminacije zbog boje kože (Noble, 2018), rasnih predrasuda u prediktivnom radu policije (Lum i Isaac, 2016, Ferguson, 2017, Angwin i sur., 2016), ili pak u kliničkim ispitivanjima (Kurt et al., 2016) itd. Rodne predrasude, s druge strane, prisutne su u reklamama koje targetiraju muškarce više nego žene za bolje plaćene poslove (Datta i sur., 2015, Campolo i sur., 2017), ili za karijere u STEM-u (Lambrecht i Tucker, 2016). Također, ugrađivanje riječi koje se često koristi u algoritmima strojnog učenja za rangiranje pretraživanja Interneta (Nalisnick i sur., 2016) ili analiza životopisa (Hansen i sur., 2015) mogu ukazivati na predrasude (Bolukbasi i sur., 2016) kao što je primjerice kod riječi muškarac koja se češće pojavljuje uz riječ računalni programer, a riječ žena pored riječi domaćica. Na temelju analize algoritama identificirani pokazatelji koji utječu na promjenu u povjerenju javnosti uključuju među ostalim predrasude, diskriminaciju te deficit po pitanju pravednosti, raznolikosti i uključenosti. Analiza drugog izazova odgovornosti u distribuiranim sustavima ukazuje na izazove upravljanja, regulacije, odgovornosti, transparentnosti i angažmana javnosti kao pokazatelje koji utječu na promjene u povjerenju javnosti. Štoviše, koncept individualne odgovornosti gubi relevantnost u kontekstu kompleksnih sustava ljudskih i umjetnih aktera gdje je koncept distribuiranih agenata (Floridi 2013; Floridi i Taddeo, 2016) prikladniji za određivanje odgovornosti. Na temelju analize identificiranih indikatora namjesto povjerenja u algoritme, vjerodostojnost treba razmatrati u kontekstu kompleksnog suodnosa između ljudskih i artificijelnih aktera u okviru socio-tehnoloških sustava. Algoritme nije moguće smatrati vjerodostojnima budući da ne posjeduju intencionalnost koja je svojstvena samo ljudima kao moralnim agentima. Posljedično, model vjerodostojnog dizajna odnosi se prvenstveno na sociotehnološke algoritamske sustave u kojima su pitanja odgovornosti i dijaloga prisutna od ranog procesa dizajna. U posljednja dva poglavlja model vjerodostojnosti primjenjujemo u kontekstu znanstvenih institucija u okviru šire rasprave o vrijednostima u znanosti u međuodnosu znanosti, društva i politika. Analiziramo trenutnu raspravu o idealu znanosti bez vrijednosti. S jedne strane zagovornici ideala bez vrijednosti u znanosti (McMullin, 1982; Lacey, 1999; Mitchell, 2004) zagovaraju isključivanje vrijednosti iz znanstvenog procesa. S druge strane, kritičari tvrde da postoji nekoliko mjesta za pozitivnu ulogu neepistemističkih vrijednosti u znanosti. Prvi pristup temelji se na argumentu neodređenosti teorije (Harding, 1991; Longino, 1990, 2002) da je znanost nedovoljno određena dokazima što omogućuje prisutnost vrijednosti. Drugi je argument induktivnog rizika (Rudner, 1953; Churchman, 1948; Douglas, 2000, 2009), gdje znanstvenici suočeni s induktivnim rizikom moraju donositi vrijednosne sudove o tome koliko je dokaza dovoljno, ovisno o mogućim posljedicama lažno pozitivnih rezultata ili lažnih negativa. Treće mjesto za vrijednosti u znanosti je artikulirano (Kourany, 2010) unutar ideala društveno odgovorne znanosti koji uvodi društvene kao i epistemičke standarde. Kontraverze povezane sa istraživanjima ukazuju da su uz koristi prisutni i potencijalni rizici uslijed epistemičke ovisnosti u znanosti. Zbog nedostatka sposobnost provjere svake znanstvene tvrdnje (kao što je Zemlja okrugla) često se moramo osloniti na znanje znanstvenih stručnjaka i drugih (Hardwig, 1991). Stručnjaci mogu biti u neslaganju i znanstvene tvrdnje osporavane. Potencijalne pristranosti, te posljedice politizacije i komercijalizacije znanosti mogu dovesti u pitanje povjerenje u znanost. Analizom dvaju pristupa rješavanju navedenog izazova: (1) povjerenje u individualne stručnjake na temelju individualne stručne odgovornosti (Douglas, 2008, 2015) te (2) pristup institucionalnog nepovjerenja - utemeljen na institucionalno organiziranom skepticizmu (Merton, 1938; Bouchard, 2016) i transformativnoj kritici (Longino, 1990, 2002). Niti jedan od navedenih dvaju pristupa ne adresira širi kontekst društvenih uvjeta u kojima se provodi znanost. U svrhu implementiranja konstitutivnih elemenata odgovornosti argumente nedovoljnog određivanja i induktivnog rizika stavljamo u kontekst u kojem znanstvene institucije djeluju u međuodnosu između znanosti, društva i politike, gdje dijalog i odgovornost prema javnosti igraju ključnu ulogu. Putem izvan-znanstvenih kritičkih doprinosa (Wylie, 2014) nadograđujmo koncept transformativnog kriticizma (Longino 1990, 2002) temeljenog na argumentu nedovoljnog određivanja. Drugo, na temelju argumenta induktivnog rizika (Douglas, 2000, 2009), tvrdimo da se demokratska odgovornost može postići u institucionalnom okruženju osiguravanjem otvorenosti o vrijednosnim sudovima te sudjelovanjem javnosti. Primjenom modela vjerodostojnog dizajna u institucijama i sustavima tvrdimo da vjerodostojne znanstvene institucije zahtijevaju preoblikovanje pojma objektivnosti u znanosti kako bi se osigurali dijalog i odgovornost.