Eliezer Shlomo Yudkovsky är en amerikansk specialist inom konstgjord intelligens, som studerar problemen med teknisk singularitet och förespråkar skapandet av Friendly AI. Han är författare till flera science fiction-berättelser där han illustrerar vissa ämnen relaterade till kognitiv vetenskap och rationalitet.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografi
Eliezer Shlomo Yudkovsky är en av de mest aktiva rationalisterna i det moderna Amerika, en datorforskare och populariserare av idén om "vänlig konstgjord intelligens."
Född 11 september 1979. Medgrundare och forskare vid den icke-statliga forskningsorganisationen Institute for Research on Machine Intelligence, som publicerar sina böcker. Eliezer Yudkovsky är författare till den filosofiska romanen Harry Potter and the Methods of Rationalism, publicerad i delar på Internet mellan 2010 och 2015. I den växer Harry upp i familjen till en Oxford-forskare och, innan han reser till Hogwarts, lär han sig honom metoderna för rationellt tänkande.
Såvitt känt har det ingen koppling till cirkeln av "spekulativa realister". Hans namn nämns ofta i samband med Robin Hanson, under flera år (från 2006 till 2009) var de de två huvudförfattarna till bloggen "Overcoming the Prejudice", som fanns på pengarna från Institute for Future Humanity i Oxford.
Ibland kan Yudkovskys namn höras i samband med Raymond Kurzweil. Han är en filosofiserande representant för gemenskapen av teknikgeeks, otillgänglig och obegriplig, alltså för de flesta av den humanitära allmänheten, till vilken nästan alla läsare av spekulativa realister tillhör. Det är inte förvånande, eftersom han ofta vänder sig till det logiska och matematiska språket, probabilistiska och statistiska slutsatser, exponerade med hjälp av formler och tabeller.
Vetenskapliga intressen
Yudkovsky är medgrundare och forskare vid Singularity Institute for Artificial Intelligence Institute (SIAI). Han gjorde ett stort bidrag till institutets utveckling. Han är författare till boken "Creating Friendly AI" (2001), artiklarna "Levels of Organization in General Intelligence" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", 2004) och The Timeless Decision Theory (2010). Hans senaste vetenskapliga publikationer är två artiklar i samlingen ”Risks of a global catastrophe” (2008) redigerad av Nick Bostrom, nämligen ”Artificiell intelligens som en positiv och negativ global riskfaktor” och ”Kognitiv distorsion vid bedömning av globala risker”. Yudkovsky studerade inte vid universitet och är en autodidakt utan formell utbildning inom AI-området.
Yudkovsky utforskar AI-konstruktioner som kan självförståelse, självmodifiering och rekursiv självförbättring (Seed AI), samt AI-arkitekturer som kommer att ha en stabil och positiv motivationsstruktur (Friendly Artificial Intelligence). Förutom sitt forskningsarbete är Yudkovsky känd för sina förklaringar av komplexa modeller på ett icke-akademiskt språk, tillgängligt för en bred läsarkrets, se till exempel hans artikel "En intuitiv förklaring av Bayes teorem".
Yudkovsky, tillsammans med Robin Hanson, var en av huvudförfattarna till bloggen Overcoming Bias (att övervinna fördomar). I början av 2009 deltog han i organisationen av bloggen Less Wrong, som syftade till att "utveckla mänsklig rationalitet och övervinna kognitiva snedvridningar." Efter det blev Overcoming Bias Hansons personliga blogg. Materialet som presenterades på dessa bloggar var organiserat som kedjor av inlägg som lockade tusentals läsare - se till exempel kedjan för underhållningsteori.
Yudkovsky är författare till flera science fiction-berättelser där han illustrerar vissa ämnen relaterade till kognitiv vetenskap och rationalitet.
karriär
- 2000. Yudkovsky grundade Singularity Institute (senare bytt namn till MIRI).
- 2006. Yudkovsky ansluter sig till kollektivbloggen Overcoming Bias och börjar skriva texter som senare blev kedjor.
- 2009. Baserat på Yudkovskys bidrag om Overcoming Bias skapas den berömda kollektivbloggen LessWrong.com.
- 2010-2015. Yudkovsky skriver GPiMRM.
- 2013. Yudkovsky publicerar de senaste inläggen på LessWrong.com och slutar skriva på webbplatsen. Från och med 2017 publicerar Yudkovsky de flesta av de tillgängliga texterna på Facebook och Arbital
Tänkte experiment
Föreställ dig en oerhört smart konstgjord superintelligens låst i en virtuell värld - säg bara i en snusbox. Du vet inte om han kommer att vara ond, vänlig eller neutral. Allt du vet är att han vill komma ur rutan och att du kan interagera med honom via ett textgränssnitt. Om AI verkligen är superintelligent, kan du prata med honom i fem timmar och inte ge efter för hans övertalning och manipulation - inte att öppna snusboxen?
Detta tankeexperiment föreslogs av Eliezer Yudkowsky, en forskare vid Engineering Research Institute of Engineering (MIRI). MIRI har många forskare som undersöker riskerna för att utveckla konstgjord superintelligens; även om det inte ens har dykt upp ännu, lockar det redan uppmärksamhet och ger en debatt.
Yudkovsky hävdar att konstgjord superintelligens kan säga allt den kan för att övertyga dig: noggrann resonemang, hot, bedrägeri, byggande rapport, undermedvetna förslag och så vidare. Med ljusets hastighet bygger AI en tomt, undersöker svagheter och bestämmer hur det är lättast att övertyga dig. Som det existentiella hotteoretiker Nick Bostrom uttryckte det, "måste vi tro att superintelligens kan uppnå allt det sätter som sitt mål."
Snusbox AI-experimentet tvivlar på vår förmåga att kontrollera vad vi kunde skapa. Det får oss också att förstå de ganska bisarre möjligheterna med vad vi inte vet om vår egen verklighet.