Eliezer Yudkowsky

Eliezer Yudkowsky
Date personale
Nume la naștereEliezer Shlomo Yudkowsky Modificați la Wikidata
Născut11 septembrie 1979 (44 de ani) Modificați la Wikidata
Chicago, Illinois, SUA Modificați la Wikidata
Cetățenie Statele Unite ale Americii Modificați la Wikidata
Religieateism Modificați la Wikidata
Ocupațiecercetător al inteligenței artificiale
blogger
scriitor
informatician Modificați la Wikidata
Limbi vorbitelimba engleză Modificați la Wikidata
Activitate
Domeniuinteligență artificială
inteligență artificială prietenoasă
teoria deciziei
Transumanism
știința informației  Modificați la Wikidata
InstituțieMachine Intelligence Research InstituteModificați la Wikidata
Cunoscut pentruLess Wrong]
Harry Potter and the Methods of RationalityModificați la Wikidata
Prezență online
site web oficial
pagină Facebook
cont Twitter

Eliezer Shlomo Yudkowsky (n. 11 septembrie 1979, Chicago, Illinois, SUA) este un cercetător și scriitor american în domeniul inteligenței artificiale (IA) cunoscut mai ales pentru popularizarea ideii de inteligență artificială prietenoasă. Este cofondator și cercetător al Machine Intelligence Research Institute (MIRI), un organism de cercetare privat nonprofit cu sediul în Berkeley, California. Munca sa asupra perspectivei unei explozii de inteligență a fost o influență de cartea lui Nick Bostrom, Superinteligența. Căi, pericole, strategii. Un autodidact, Yudkowsky nu a studiat la liceu sau facultate.

Inteligență artificială

În scenariul exploziei de inteligență propus de I. J. Good, sistemele de inteligență artificială auto-îmbunătățite recursiv trec rapid de la inteligența generală subumană la superinteligentă. Cartea lui Nick Bostrom din 2014 Superinteligența. Căi, pericole, strategii prezintă argumentul lui Good în detaliu, citând în același timp scrierile lui Yudkowsky cu privire la riscul ca antropomorfizarea sistemelor avansate de IA să determine oamenii să înțeleagă greșit natura unei explozii de informații. „IA ar putea face un salt aparent puternic în inteligență doar ca rezultat al antropomorfismului, al tendinței umane de a gândi în termeni ca „idiotul satului” și „Einstein” la capetele extreme ale scalei inteligenței, în loc de puncte aproape imperceptibile pe scara minților -în general."

Scrieri

Între 2006 și 2009, Yudkowsky și Robin Hanson au fost principalii contribuabili ai Overcoming Bias, un blog de științe cognitive și sociale sponsorizat de Institutul Future of Humanity al Universității Oxford. În februarie 2009, Yudkowsky a fondat LessWrong, un „blog dedicat rafinării artei raționalității umane”. Overcoming Bias a rămas de atunci blogul personal al lui Hanson.

Peste 300 de postări pe blog ale lui Yudkowsky despre filozofie și știință (scrise inițial pe LessWrong și Overcoming Bias) au fost lansate ca o carte electronică intitulată Rationality: From AI to Zombies de către Machine Intelligence Research Institute (MIRI) în 2015. MIRI a publicat, de asemenea, Inadequate Equilibria, cartea electronică a lui Yudkowsky din 2017 despre subiectul ineficiențelor societale.

Yudkowsky a scris, de asemenea, mai multe opere de ficțiune. Romanul său de fan fiction, Harry Potter and the Methods of Rationality (Harry Potter și metodele raționalității), folosește elemente ale intrigii din seria Harry Potter a lui J. K. Rowling pentru a ilustra subiecte din știință. The New Yorker a descris Harry Potter și metodele raționalității ca pe o reluare a originalului lui Rowling „în încercarea de a explica vrăjitoria lui Harry prin metoda științifică”.

Publicații academice

Referințe

  1. ^ a b People by Last Names: Y (în engleză), Notable Names Database, accesat în 29 iunie 2023 
  2. ^ http://lesswrong.com/lw/uk/beyond_the_reach_of_god/  Lipsește sau este vid: |title= (ajutor)
  3. ^ a b Czech National Authority Database, accesat în 7 noiembrie 2022 
  4. ^ Czech National Authority Database, accesat în 1 martie 2022 
  5. ^ a b Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4
  6. ^ Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7
  7. ^ a b Dowd, Maureen. „Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse”. Vanity Fair (în engleză). Accesat în 28 iulie 2018. 
  8. ^ Kurzweil, Ray (2005). The Singularity Is Near. New York City: Viking Penguin. ISBN 978-0-670-03384-3
  9. ^ Ford, Paul (11 februarie 2015). „Our Fear of Artificial Intelligence”. MIT Technology Review (în engleză). Accesat în 9 aprilie 2019. 
  10. ^ Matthews, Dylan; Pinkerton, Byrd (19 iunie 2019). „He co-founded Skype. Now he's spending his fortune on stopping dangerous AI”. Vox
  11. ^ Saperstein, Gregory (9 august 2012). „5 Minutes With a Visionary: Eliezer Yudkowsky”
  12. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. ISBN 978-0199678112
  13. ^ a b Miller, James (2012). Singularity Rising. BenBella Books, Inc. ISBN 978-1936661657
  14. ^ Miller, James (28 iulie 2011). „You Can Learn How To Become More Rational”. Business Insider. Accesat în 25 martie 2014. 
  15. ^ Miller, James D. „Rifts in Rationality - New Rambler Review”. newramblerreview.com (în engleză). Accesat în 28 iulie 2018. 
  16. ^ Machine Intelligence Research Institute. „Inadequate Equilibria: Where and How Civilizations Get Stuck”
  17. ^ "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
  18. ^ Packer, George (2011). „No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire”. The New Yorker: 54. Accesat în 12 octombrie 2015. 

Vezi și

Legături externe