Юдковский, Элиезер: различия между версиями

[отпатрулированная версия][отпатрулированная версия]
Содержимое удалено Содержимое добавлено
http -> https
Исправлены ссылки
Строка 11:
 
== Научные интересы ==
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта [[Singularity Institute for Artificial Intelligence]] (SIAI)<ref name = "SiNnote">{{cite book|author=Kurzweil, Ray|title=The Singularity Is Near|publisher=Viking Penguin|location=New York, US|year=2005|isbn=0-670-03384-7|page=599|authorlink=Ray_Kurzweil}}</ref>. Он — автор книги «Создание дружественного ИИ»<ref>[https://intelligence.org/files/CFAI.pdf Creating Friendly AI], 2001</ref>, статей «Уровни организации универсального интеллекта»<ref>[https://intelligence.org/files/LOGI.pdf Levels of Organization in General Intelligence], 2002</ref>, «Когерентная экстраполированная воля»<ref>[https://intelligence.org/files/CEV.pdf Coherent Extrapolated Volition], 2004</ref> и «Вневременная теория принятия решений»<ref>[https://intelligence.org/files/TDT.pdf Timeless Decision Theory], 2010</ref><ref name = "afuture">{{cite web|url=http://www.acceleratingfuture.com/people/Eliezer-Yudkowsky/|title=Eliezer Yudkowsky Profile|publisher=Accelerating Future|archiveurl=https://www.webcitation.org/68u5GDn1X|archivedate=2012-07-04}}</ref>. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией [[Бостром, Ник|Ника Бострома]], а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»<ref name="airisk">{{cite web|url=httphttps://www.singinstintelligence.org/uploadfiles/artificial-intelligence-riskAIPosNegFactor.pdf|title=Artificial Intelligence as a Positive and Negative Factor in Global Risk|publisher=Singularity Institute for Artificial Intelligence|accessdate=2009-07-28|archiveurl=https://www.webcitation.org/68u5GedCn|archivedate=2012-07-04}}</ref><ref name="biasrisk">{{cite web|url=httphttps://www.singinstintelligence.org/uploadfiles/cognitive-biasesCognitiveBiases.pdf|title=Cognitive Biases Potentially Affecting Judgement of Global Risks|publisher=Singularity Institute for Artificial Intelligence|archiveurl=https://www.webcitation.org/68u5H5A9G|archivedate=2012-07-04}}</ref><ref name = "bostrom">{{cite book|editor=Bostrom, Nick|editorlink=Nick_Bostrom|title=Global Catastrophic Risks|publisher=Oxford University Press|location=Oxford, UK|year=2008|isbn=978-0-19-857050-9|pages=91–119, 308–345}}</ref>. Юдковский не обучался в ВУЗах и является [[автодидакт]]ом без формального образования в области ИИ<ref name="GDay">{{cite web|url=http://gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|title=GDay World #238: Eliezer Yudkowsky|publisher=The Podcast Network|accessdate=2009-07-26|deadlink=404|archiveurl=https://web.archive.org/20070717003906/gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|archivedate=2007-07-17}}</ref>.
 
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению ([[Seed AI]]), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации ([[Дружественный искусственный интеллект]]). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»<ref>[http://yudkowsky.net/rational/bayes «An Intuitive Explanation of Bayes' Theorem»]</ref><ref>[http://translatedby.com/you/an-intuitive-explanation-of-bayes-theorem/into-ru/trans/ перевод]</ref>.