Культ карго для ИИ: миф о сверхчеловеческом искусственном интеллекте +23

- такой же как Forbes, только лучше.

image

Я слышал, что в будущем компьютерные ИИ станут настолько умнее нас, что отнимут у нас все рабочие места и ресурсы, а люди вымрут. Так ли это?

Это самый частый вопрос, который мне задают на моих выступлениях по поводу ИИ. Задающие его люди искренне волнуются, и их беспокойство происходит от других людей – экспертов, задающихся тем же самым вопросом. Среди них можно встретить умнейших из живущих сегодня людей – это, к примеру, Стивен Хокинг, Илон Маск, Макс Тегмарк, Сэм Харрис и Билл Гейтс, – и все они верят в возможность такого сценария. На недавней конференции, посвящённой проблемам ИИ, комитет из девяти наиболее сведущих в области ИИ людей согласился, что скорого появления сверхчеловеческого ИИ нам не избежать.



Но этот сценарий завоевания мира ИИ включает в себя пять предположений, которые, как выясняется при их внимательном изучении, не основаны на доказательствах. Эти заявления в будущем могут оправдаться, но сейчас ни у одного из них нет доказательств. Вот эти предположения:

1. ИИ уже становится умнее нас, и его мощь растёт экспоненциально.
2. Мы создадим ИИ общего назначения, похожий на наш собственный.
3. Мы способны создать человеческий интеллект на базе кремния.
4. Интеллект способен расти без ограничений.
5. После взрыва сверхинтеллекта он поможет нам решить все наши проблемы.

В качестве возражения этому ортодоксальному канону я приведу пять еретических заявлений, которые, как мне кажется, имеют под собой больше оснований.

1. Интеллект не одномерен, поэтому концепция «умнее людей» не имеет смысла.
2. Ни у людей, ни у ИИ нет сознания общего назначения.
3. Эмуляция человеческого мышления на других носителях будет ограничена стоимостью его создания.
4. Размерности интеллекта не бесконечны.
5. Интеллект – всего лишь один из факторов прогресса.

Если ожидание появления сверхчеловеческого ИИ (СИИ) основано на пяти ключевых предположениях, не имеющих доказательств, тогда эта идея больше похожа на религиозную веру или на миф. Далее я развёрнуто объясню каждое из своих пяти контр-предположений, и докажу, что СИИ – на самом деле миф.

1.


Самое распространённое заблуждение по поводу ИИ начинается с заблуждения по поводу естественного интеллекта. Оно состоит в том, что интеллект одномерен. Большинство технарей склонны к изображению интеллекта так, как Ник Бостром делает это в книге «Сверхинтеллект» [Superintelligence] – как одномерный линейный график с увеличивающейся амплитудой.

image

С одного края находится низкий интеллект, допустим, небольшого животного; с другого – высокий, допустим, гения – будто бы интеллект можно представить как уровень звука в децибелах. Конечно, в таком случае легко представить, что громкость интеллекта продолжает расти и в итоге превышает наш высокоинтеллектуальный уровень и становится сверхгромким интеллектом – рёвом! – недоступным нам и выходящим за пределы графика.

Эта модель топологически эквивалентна лестнице, на которой каждая последующая ступенька интеллекта находится на шаг выше, чем предыдущая. Младшие животные находятся на нижних ступеньках, а ИИ высокого уровня обгонит нас и окажется на ступеньках выше. Временная шкала этого события не имеет значения, имеет значение только ранжирование – метрика увеличивающегося интеллекта.
image

Проблема этой модели в том, что она так же мифична, как лестница эволюции. До Дарвина природный мир рассматривали в качестве лестницы, на которой младшие животные располагались ниже человека. Даже после Дарвина было принято думать об эволюции, как о «лестнице», согласно которой рыбы превратились в рептилий, затем в млекопитающих, затем в приматов, в человека, и каждый этап находится на чуть более высокой «ступени эволюции», и, следовательно, считается умнее предыдущих. Так что лестница интеллекта согласуется с лестницей существования. Но у этих моделей совершенно ненаучный подход.

image

Более точное изображение естественной эволюции видов – расширяющийся диск, как на картинке выше, впервые предложенный Дэвидом Хиллисом из Техасского университета, и созданный на базе ДНК. Эта генеалогическая мандала начинается в центре с наиболее примитивных форм жизни, а затем разветвляется наружу во времени. Время движется наружу, поэтому самые новые виды жизни, населяющие планету сегодня, находятся по периметру окружности. Это изображение подчёркивает факт эволюции, который трудно принять: каждый из живущих сегодня видов одинаково эволюционно развит. Люди существуют на этом кольце совместно с тараканами, моллюсками, папоротниками, лисами и бактериями. Каждый из видов прошёл непрерывную цепь в три миллиарда лет успешного воспроизводства, что значит, что сегодняшние бактерии и тараканы настолько же эволюционно развиты, как и люди. Нет никакой лестницы.

Точно так же нет никакой лестницы и у интеллекта. Интеллект не одномерен. Это комплекс из многих типов и режимов распознавания, каждый из которых представляет собой континуум. Возьмём простейшую задачу измерения интеллекта животных. Если бы интеллект был одномерным, нам было бы просто выстроить в правильном восходящем порядке интеллекты попугая, дельфина, лошади, белки, осьминога, голубого кита, кошки и гориллы. Но сегодня у нас нет никаких научных подтверждений существования такой линии. Одной из причин этого могло бы быть отсутствие разницы между интеллектами у животных, но и этого мы также не видим. В зоологии полно удивительных примеров различия мышления животных. Но может быть, у них у всех есть один относительный «интеллект общего назначения»? Возможно, но для него у нас нет способа измерений и метрик. У нас есть множество разных метрик для множества типов познания.

image

Вместо одной линии с децибелами более точной моделью интеллекта будет график его вероятностного пространства, как, например, рисунок выше, представляющий возможные формы. Интеллект – это комбинаторный континуум. Множество узлов, каждый из которых – континуум, создают сложные и разнообразные конструкции в высших измерениях. Некоторые интеллекты могут быть очень сложными и обладать множеством подузлов мышления. Другие могут быть проще, но протягиваться дальше, занимая угол в пространстве. Эти комплексы, которые мы называем интеллектами, можно рассматривать как симфонии с участием множества типов инструментов. Они различаются не только по громкости, но и по тону, мелодии, цвету, темпу и т.д. Их можно представить в виде экосистемы. И в этом смысле различные узлы-компоненты мышления зависят друг от друга и создаются совместно.

Как говорил Марвин Минский, человеческие умы – это сообщества разумов. Мы работаем на экосистемах мышления. У нас внутри есть множество видов мышления, занимающихся многими типами размышлений: дедукцией, индукцией, символической логикой, эмоциональным интеллектом, пространственной логикой, краткосрочной памятью и долгосрочной памятью. Нервная система нашего кишечника тоже представляет собой мозг некоего типа со своим режимом мышления. Мы думаем не просто одним мозгом, мы думаем всем телом целиком.

Эти комплекты мышления разнятся от индивида к индивиду и от вида к виду. Белка может помнить точное расположение нескольких тысяч желудей годами, что совершенно поражает человеческий разум. Так что в этом виде мышления белки превосходят людей. Эта сверхспособность связана с другими режимами, меркнущими по сравнению с нашими, и эта связь составляет разум белки. В животном мире множество других примеров возможностей, превосходящих человеческие, и они также включены в разные системы.

image

То же верно и для ИИ. Искусственные умы уже превосходят людей в определённых измерениях. Ваш калькулятор – гений математики, память Google уже превосходит нашу в определённом измерении. Мы создаём ИИ, выделяющиеся в определённых режимах. Некоторые из этих вещей мы способны делать и сами, но они делают это лучше – к примеру, в областях вероятности или математики. Другие режимы мышления нам недоступны – запомнить каждое слово на шести миллиардах веб-страниц может только поисковая система. В будущем мы придумаем совершенно новые типы мышления, которых нет у нас, да и вообще в живой природе. Изобретая искусственный полёт, мы вдохновлялись биологическими режимами полётов, в основном хлопаньем крыльев. Но мы изобрели такие полёты – с пропеллерами и фиксированными крыльями – которые биологическому миру были неизвестны. Это чужой полёт. Точно так же мы придумаем новые режимы мышления, несуществующие в природе. Во многих случаях они будут новыми, специфическими, небольшими режимами, предназначенными для определённой работы – возможно, тип рассуждений, пригодный только для статистики и теории вероятностей.

В других случаях новый разум будет сложным комплексом из таких типов мышления, которые мы сможем использовать для решения проблем, не поддающихся нашему интеллекту. Многие из сложнейших проблем бизнеса и науки могут потребовать двухэтапного решения. Первый этап: изобрести новый режим мышления, способный работать с нашим разумом. Второй: скомбинировать их для решения проблемы. Поскольку мы решаем проблемы, недоступные нам ранее, мы хотим назвать этот новый тип мышления «более умным», чем мы, но на самом деле он просто отличается от нас. Главное преимущество ИИ – отличное от нашего мышление. Думаю, что полезно думать об ИИ как об инопланетном мышлении (или об искусственных пришельцах). Его необычность будет его главным достоинством.

В то же время мы будем интегрировать эти различные режимы мышления в более сложные сообщества разума. Некоторые из этих комплексов будут сложнее нашего, поскольку они смогут решать проблемы, недоступные нам, и тогда кто-то захочет назвать их сверхчеловеческими. Но мы не называем Google СИИ, хотя его память превосходит нашу, поскольку есть много вещей, которые мы можем делать лучше него. Эти комплексы ИИ смогут превзойти нас по многим измерениям, но ни один не сможет делать всё, что мы делаем, лучше нас. Это можно сравнить с физическими возможностями людей. Индустриальной революции уже 200 лет, и хотя в целом машины превосходят физические возможности человека (скорость передвижения, поднятие тяжестей, точная резка и т.п.), не существует машины, способной превзойти среднего человека во всём, что он делает.

И хотя сообщество разумов в ИИ становится всё более сложным, эту сложность пока что сложно измерить научно. У нас нет хороших метрик для сложности, способных определить, сложнее ли огурец самолёта Boeing 747, или описать то, как различаются их сложности. Это одна из причин, по которой у нас нет хороших метрик для ума. Будет очень сложно определить, сложнее ли разум А разума Б, и поэтому, сложно понять, кто из них умнее. Вскоре мы придём к пониманию того, что ум не одномерен, и нам на самом деле интересно всё то множество способов, по которым способен функционировать интеллект – все те узлы познания, которые мы ещё не обнаружили.

2.


Второе заблуждения, связанное с человеческим интеллектом – наша вера в то, что наш разум универсален, это разум общего назначения. Эта вера привела к появлению часто заявляемой цели исследователей ИИ по созданию обобщённого ИИ, ОИИ. Однако, если рассматривать интеллект, как больше пространство возможностей, у него не существует обобщённого состояния. Человеческий интеллект находится не в некоей центральной позиции, вокруг которой вращаются другие специализированные интеллекты. Человеческий интеллект – очень, очень особый тип интеллекта, появившийся в результате миллионов лет эволюции для того, чтоб наш вид выжил на этой планете. Если поместить его в пространство всех возможных интеллектов, он будет находиться где-нибудь в углу, как и наш мир находится на краю огромной галактики.

Мы определённо можем представить и даже изобрести мышление, напоминающее универсальный швейцарский нож. Он неплохо справляется с кучей задач, но ни с одной из них не справляется очень хорошо. ИИ будет следовать той же самой инженерной максиме, которой следуют все созданные или рождённые вещи: нельзя оптимизировать каждое измерение. Возможны только компромиссы. Не получится создать обобщённый многофункциональный агрегат, превосходящий специализированные. Большой разум, «способный на всё», не сможет делать всё это так же хорошо, как специализированные. Поскольку мы верим в обобщённость нашего разума, мы считаем, что мышление не обязано следовать инженерным компромиссам, что возможно будет создать интеллект, максимизирующий все режимы мышления. Но этому нет доказательств. Мы ещё не изобрели достаточно вариантов разума, чтобы увидеть всё пространство (и пока что мы отметаем разумы животных, оценивая их одномерной амплитудой).

3.


Часть этой веры происходит из концепции универсальных вычислений. Это предположение, формально описанное в 1950 году, как "тезис Чёрча — Тьюринга", утверждает, что все вычисления, достигающие определённого порога, эквивалентны. Поэтому для всех вычислений есть универсальное ядро, и происходят ли они в одной машине со множеством быстрых частей, или медленных частей, или в биологическом мозгу – всё это один и тот же логический процесс. А это значит, что возможно эмулировать любой вычислительный процесс (мышление) в любой машине, способной на «универсальные» вычисления. Приверженцы сингулярности основываются на этом принципе, ожидая, что мы сможем создать кремниевые мозги, способные вместить человеческий разум, и что мы можем создать искусственный разум, думающий, как люди, только гораздо умнее. К этой надежде стоит относиться скептически, поскольку она зиждется на неправильном понимании гипотезы Чёрча-Тьюринга.

Отправная точка этой гипотезы следующая: «При наличии бесконечной плёнки (памяти) и времени, все вычисления эквивалентны». Проблема в том, что в реальности у компьютера нет бесконечной памяти и времени. В реальном мире реальное время имеет решающее значение, часто даже это вопрос жизни и смерти. Да, всё мышление может быть эквивалентным, если игнорировать время. Да, можно эмулировать человеческое мышление на любой матрице, если только вы игнорируете время или реальные ограничения хранения данных и памяти. Однако, включив время, можно будет существенно переопределить этот принцип: «Две вычислительные системы, работающие на сильно различающихся платформах, не будут эквивалентными во времени». Или: «Единственный способ получить схожие модели мышления – запускать их на эквивалентных платформах». Физическая материя, на которой работают вычисления – особенно когда они становятся более сложными – кардинально влияет на тип мышления, способный успешно функционировать в реальном времени.

Я продолжу эти рассуждения и скажу, что единственный способ получить близкий к человеческому процесс мышления – запустить вычисления на мягкой и влажной ткани, похожей на человеческую. А это значит, что очень большие и сложные ИИ, работающие на сухом кремнии, дадут нам большие, сложные и нечеловеческие типы мышления. Если станет возможным создать искусственный влажный мозг с использованием выращенных нейронов, похожих на человеческие, то я бы сказал, что его мысли будут очень похожими на наши. Преимущества такого влажного мозга пропорциональны тому, насколько похожей мы сможем сделать основу. Стоимость создания такого «человеческого компьютера» огромна, и чем ближе ткань к ткани мозга, тем эффективнее по стоимости будет просто создать человека. В конце концов, это мы можем сделать за девять месяцев.

Более того, как указано выше, мы думаем при помощи всего тела, а не только лишь одним мозгом. У нас есть множество данных, показывающих, что нервная система кишечника направляет наш «рациональный» процесс принятия решений, что она способна обучаться и предсказывать события. Чем больше мы моделируем систему тела человека, тем ближе мы подходим к её воспроизведению. Интеллект, работающий, на сильно отличающемся теле (на сухом кремнии вместо влажного углерода) будет думать по-другому.

Мне кажется, что это не баг, а фича. Как я упоминал в п.2, отличие мышления от человеческого – главное достоинство ИИ. Это ещё одна из причин, по которой ошибочно говорить, что он «умнее людей».

4.


В центре понятия о сверхчеловеческом интеллекте – в особенности, представления о том, что такой интеллект будет постоянно улучшаться – лежит вера в то, что шкала интеллекта бесконечна. Я не вижу этому доказательств. Верить в это помогает ошибочное представление об одномерности интеллекта – но это всего лишь вера. Во Вселенной нет достоверно известных науке бесконечных физических измерений. Температура не бесконечна – есть конечный холод и конечная жара. Время и пространство конечны. Конечна скорость. Возможно, числовая прямая в математике и бесконечна, но физические атрибуты имеют ограничения. Разумно будет утверждать, что и сам разум конечен. Так что вопрос состоит в том, где находится предел интеллекта? Мы склонны верить в то, что он находится далеко за пределами нашей досягаемости, он гораздо «выше» нас, настолько, насколько мы «выше» муравья. Если оставить постоянно возникающую проблему одномерности, какие у нас есть доказательства того, что мы уже не достигли этого предела? Почему мы не может быть на максимуме? Или, возможно, этот предел находится совсем недалеко от нас? Почему мы верим в то, что интеллект – это нечто, что может расширяться вечно?

Гораздо лучше подходить к этому вопросу, рассматривая наш интеллект как один из множества возможных типов интеллекта. И даже если у каждого измерения мышления и вычислений есть ограничение, при существовании сотен измерений может существовать бессчётное количество разумов – ни один из которых не будет бесконечным в любом из измерений. Когда мы будем встречать или создавать эти варианты разумов, мы можем решить, что какие-то из них превосходят наш. В моей последней книге «Неизбежное» [The Inevitable] я обрисовал некоторые типы таких разумов, которые могут в чём-то превосходить наш. Вот их неполный список:

• Разум, похожий на человеческий, но работающий быстрее (ИИ такого рода представить проще всего).
• Очень медленный разум, отличающийся огромными объёмами хранилищ информации.
• Глобальный супермозг, составленный из миллионов слаженно работающих примитивных разумов.
• Сверхразум улья, состоящий из множества умных разумов, не осознающих свою принадлежность к улью.
• Кибернетический разум, состоящий из умных разумов, осознающих свою принадлежность к коллективному разуму.
• Разум, специально предназначенный для улучшения работы лично вашего разума, и бесполезный для кого-то ещё.
• Разум, способный представить себе более совершенный разум, но неспособный его изготовить.
• Разум, способный изготовить совершенный разум, но не осознающий себя в достаточной мере для того, чтобы его представить.
• Разум, способный единожды успешно создать более совершенный разум.
• Разум, способный успешно создать более совершенный разум, который в свою очередь способен создать ещё более совершенный разум, и т.п.
• Разум, обладающий доступом к своему исходному коду, и способный влиять на свою работу.
• Суперлогичный разум без эмоций.
• Разум, способный решать общие проблемы, но не осознающий себя.
• Осознающий себя разум, неспособный решать общие проблемы.
• Разум, для развития которого требуется много времени и защищающий его разум.
• Чрезвычайно медленный разум, распределённый по большому физическому объёму, в связи с чем он незаметен для более быстрых умов.
• Разум, способный к быстрому и точному самоклонированию.
• Разум, способный к самоклонированию, после чего он может оставаться объединённым со своими клонами.
• Бессмертный разум, способный мигрировать между платформами.
• Быстрый и динамичный разум, способный менять процесс и характеристики своей работы.
• Наноразум, самый мелкий из возможных с энергетической и физической точек зрения.
• Разум, специализирующийся на предсказаниях развития событий.
• Разум, никогда ничего не стирающий и не забывающий.
• Симбиотический разум в полумашине-полуживотном.
• Кибернетический разум в полумашине-получеловеке.
• Разум, использующий квантовые вычисления, с недоступной для нас логикой.

Некоторые готовы называть любой разум из этого списка СИИ, но само разнообразие и чужеродность таких разумов заставить нас разрабатывать новые термины и понятия по поводу интеллекта и ума.

Потом, верующие в СИИ предполагают экспоненциальный рост интеллекта (по какой-то неопределённой метрике), возможно, потому, что они считают, что он уже развивается экспоненциально. Однако пока нет никаких доказательств что интеллект развивается экспоненциально, как его ни измеряй. Под экспоненциальным ростом я понимаю рост, при котором ИИ удваивает свою мощность через некие регулярные интервалы. Где доказательства? Я их не могу найти. Если их нет сегодня, почему принято считать, что они появятся? По экспоненте пока что растёт только количество входных данных для ИИ, а также ресурсов, посвящённых производству наиумнейших интеллектов. Но результаты их работы не растут по закону Мура. ИИ не становятся в два раза умнее каждые три года или даже каждые 10 лет.

Я просил многих экспертов по ИИ предоставить доказательства экспоненциального роста возможностей ИИ, но все они согласились, что у нас нет метрики для ИИ, и вообще он так не работает. Когда я спросил Рэя Курцвейла, самого волшебника экспоненты, где можно взять доказательства экспоненциального роста ИИ, он ответил мне, что ИИ не растёт по экспоненте, он растёт по уровням. Он написал: «Требуется экспоненциальное улучшение в вычислениях и алгоритмической сложности, чтобы добавить дополнительный уровень в иерархии… Так что мы можем ожидать линейного добавления уровней, поскольку на добавление каждого уровня требуется экспоненциально больше сложности, и прогресс наших возможностей в этой области в самом деле растёт экспоненциально. Нам осталось не так много уровней до возможностей коры головного мозга, так что мой прогноз на 2029 год пока мне нравится».

Судя по всему, Рэй хочет сказать, что экспоненциально растут не возможности ИИ, а наши затраты на его создание, при этом его выход просто каждый раз поднимается на один уровень. Это предположение почти противоположно экспоненциальному росту интеллекта. В будущем это может и поменяться, но сегодня ИИ явно не растёт экспоненциально.

Поэтому, представляя себе «взрыв интеллекта», мы должны представлять его не как цепную реакцию, а как рассеивающееся размножение новых вариантов. Кембрийский взрыв, а не ядерный взрыв. Результаты ускоряющейся технологии, скорее всего, будут не сверхчеловеческими, а экстрачеловеческими. Вне нашего опыта, но не обязательно «над» ним.

image

5.


Другая, не опровергаемая никем вера в пришествие СИИ, не поддерживаемая доказательствами, состоит в том, что сверхинтеллект почти бесконечной мощности быстро решит все наши основные нерешённые задачи.

Многие сторонники взрыва интеллекта считают, что он приведёт к взрыву прогресса. Я называют эту мифическую веру «размышлизмом» [thinkism]. Это ошибочное представление о том, что будущие ступени прогресса недостижимы только из-за недостатка мыслительных мощностей, или интеллекта. Отмечу, что вера в то, что размышления – это волшебная панацея для всего, распространена среди многих людей, которым нравится думать.

Возьмём излечение от рака или продление жизни. Такие проблемы не решишь одним размышлением. Никакого размышлизма не хватит, чтобы понять, как стареют клетки или как отпадают теломеры. Никакой супер-пупер-интеллект не сможет понять, как работает тело человека, просто прочтя всю известную научную литературу в мире и обдумав её. Никакой СИИ не может, просто подумав обо всех экспериментах с ядерным синтезом, выдать работающую схему ядерного синтеза. Для преодоления пути от незнания того, как что-то работает, к пониманию того, как что-то работает, требуется гораздо больше, чем просто размышления. В реальном мире производят кучи экспериментов, каждый из которых приводит к появлению гор противоречивых данных, требующих дальнейших экспериментов для создания рабочей гипотезы. Размышления о потенциальных данных не дадут вам правильных данных.

Размышление – лишь часть науки, возможно, даже, малая её часть. К примеру, у нас не хватает нужных данных, чтобы приблизиться к решению проблемы смерти. При работе с живыми организмами почти все эксперименты требуют времени. Медленный метаболизм клетки нельзя разогнать. Получение результатов занимает годы, месяцы, по меньшей мере, дни. Если мы хотим узнать, что происходит с субатомными частицами, мы не можем просто думать о них. Нам нужно построить огромные, сложные, хитрые физические структуры, чтобы узнать это. Даже если бы умнейшие физики были бы в 1000 раз умнее, чем сейчас, без коллайдера они бы ничего нового не узнали.

Нет сомнений в том, что СИИ может ускорить прогресс науки. Мы можем делать компьютерные симуляции атомов или клеток и ускорять их во много раз, но две проблемы ограничивают полезность симуляций. Первая – симуляции и модели могут идти быстрее изучаемых процессов только потому, что мы что-то не учитываем. Это суть модели или симуляции. Кроме того, тестирование, проверки и доказательства этих моделей тоже отнимает время и ему необходимо идти со скоростью моделируемых процессов. Проверку истины ускорить нельзя.

Эти упрощённые версии полезны для того, чтобы отфильтровывать наиболее многообещающие пути, и ускорить прогресс. Но в реальности нет чрезмерности; всё, что реально, в какой-то степени оказывает своё влияние; это одно из определений реальности. Если начинать накачивать модели и симуляции всё большим количеством данных, вскоре становится ясно, что реальность работает быстрее, чем её 100% симуляция. Это ещё одно определение реальности: быстрейшая возможная версия всех присутствующих подробностей и степеней свободы. Если вы сможете смоделировать все молекулы в клетки и все клетки в теле человека, то симуляция будет работать не так быстро, как человеческое тело. Неважно, сколько вы будете думать об этом, вам понадобится время для экспериментов, будь то реальная система или симуляция.

Чтобы быть полезным, ИИ необходимо внедриться в реальный мир, и мир будет задавать скорость его инноваций. Без проведения экспериментов, постройки прототипов, ошибок и экспериментов с реальностью, интеллект может думать, но не давать результаты. Никаких мгновенных открытий в минуту, час, день или год появления т.н. «сверхчеловеческого ИИ» не предвидится. Конечно, успехи в разработке ИИ значительно увеличат количество открытий в единицу времени, в частности, поскольку непохожий на людей ИИ будет задавать такие вопросы, которые не задал бы человек, но даже чрезвычайно мощный, по сравнению с нами, интеллект, не гарантирует мгновенного прогресса. Для решения задач необходимо гораздо больше, чем просто интеллект.

Интеллект в одиночку не сможет решить не только проблемы рака и долгожительства, но и проблемы самого интеллекта. Типичная мантра сторонников сингулярности – как только вы сделаете ИИ, который будет «умнее человека», он внезапно как следует подумает и изобретёт ИИ, «умнее чем он сам», который, в свою очередь, подумает ещё более как следует, и изобретёт ещё более умный ИИ, и в результате всё завершится взрывом интеллектуальной мощности на почти божественном уровне. У нас нет доказательств того, что простого размышления по поводу интеллекта достаточно для создания новых уровней интеллекта. Такой размышлизм – это вера. У нас есть множество доказательств того, что кроме большого количества знаний нам нужны эксперименты, данные, пробы и ошибки, необычно поставленные вопросы и всякое другое за пределами простой хитроумности, чтобы изобрести новые виды успешно действующих разумов.

В заключение скажу, что я могу ошибаться со своими заявлениями. Мы находимся на ранних этапах. Мы можем открыть универсальную метрику для интеллекта; открыть его бесконечность во всех направлениях. Поскольку мы очень мало знаем по поводу того, что такое интеллект (не говоря уже о сознании), вероятность какой-то ИИ-сингулярности превышает нулевую. Мне кажется, что все доказательства говорят в пользу малой вероятности такого сценария, но эта вероятность ненулевая.

Так что, хотя я не согласен с его вероятностью, я согласен с более широкими целями OpenAI и умными людьми, беспокоящимися по поводу СИИ – с тем, что мы должны создавать дружественные ИИ и думать над тем, как внушить им ценности, совпадающие с нашими. И хотя я думаю, что СИИ – это очень далёкая экзистенциальная угроза (которую стоит рассмотреть), я думаю, что её небольшая вероятность (на основе имеющихся доказательств) не должна управлять нашей наукой, политикой и развитием. Столкновение астероида с Землёй было бы катастрофой. Его вероятность больше нуля (так что мы должны поддержать фонд B612), но мы не должны давать возможности астероидного удара управлять нашими решениями, допустим, в сфере изменения климата, или космических путешествий или даже в городском планировании.

Точно так же доказательства пока говорят о том, что ИИ скорее всего окажутся не сверхчеловеческими, а экстречеловеческими, это будут сотни новых видов размышления, отличающихся от человеческого, ни один из которых не окажется ИИ общего назначения, и ни один из них не станет богом, мгновенно решающим все наши проблемы. Вместо этого у нас будет галактика ограниченных интеллектов, работающих в незнакомых измерениях, выходящих за пределы наших возможностей по многим из них, работающих вместе с нами, чтобы со временем решить существующие проблемы и создать новые.

Я понимаю очарование и притягательность СИИ-бога. Это что-то вроде Супермэна. Но, как и Супермэн, это мифическая фигура. Где-то во Вселенной может существовать Супермэн, но вероятность его существования крайне мала. Но мифы могут быть полезными, и не исчезать после их изобретения. Идея о Супермэне не умрёт. Идея о сверхчеловеческой ИИ-сингулярности, раз уж её породили, тоже не умрёт. Но мы должны понимать, что сейчас это религиозная, а не научная идея. Если мы изучим имеющиеся у нас на сегодня данные по поводу интеллекта, искусственного и естественного, мы сможем заключить лишь, что наши рассуждения по поводу мифического СИИ-бога – это всего лишь мифы.

Многие изолированные острова Микронезии впервые соприкоснулись с остальным миром во время Второй Мировой войны. Боги-пришельцы летали в их небе в шумных птицах, сбрасывали еду и товары на их острова, и не возвращались. На островах появились религиозные культы, молящиеся за то, чтобы боги вернулись и сбросили ещё грузов. Даже сейчас, пятьдесят лет спустя, многие всё ещё ждут возвращения грузов. Возможно, что СИИ может оказаться ещё одним культом карго. Через сто лет люди смогут оглянуться назад, на наше время, на тот момент, когда верующие начали ждать появления СИИ, который принесёт им невообразимые блага. Десятилетие за десятилетием они ждут прихода СИИ, уверенные в том, что он со своими благами должен появиться уже очень скоро.

Но несверхчеловеческий ИИ уже реально здесь. Мы постоянно переопределяем этот термин, увеличиваем его сложность, и в результате удерживаем его в будущем, но в широком смысле определения чужих интеллектов – в непрерывном спектре различных умов, интеллектов, мышлений, логик, обучений и сознаний – ИИ уже существует на планете, и продолжает распространяться, углубляться, диверсифицироваться и усиливаться. Никакое предыдущее изобретение не сравниться с его властью над миром, и к концу столетия ИИ соприкоснётся и изменит все аспекты нашей жизни. Но миф о сверхчеловеческом искусственном интеллекте, готовый одарить нас сверхизобилием или загнать нас в сверхрабство (или и то, и другое одновременно), по-видимому, будет продолжать жить – эта возможность слишком мифична, чтобы её отвергнуть.

Теги:



Комментарии (165):

  1. blue_limon
    /#10076487 / -1

    Правильно. ИИ — это современный философский камень {дает золото-выигрыш_на_бирже и бессмертие-рассчет_эликсира_молодости}. Человеческий мозг невычислимый и работает с настоящей случайностью {И Случай, бог изобретатель}. Тем не менее отдельные алгоритмы и их ансамбли себя еще покажут.

    • Sadler
      /#10076967 / +2

      Человеческий мозг невычислимый и работает с настоящей случайностью
      Что такое Настоящая™ случайность, которую нельзя получить в ИИ? Кто мешает симулировать мозг на атомарном уровне, если бы мы имели машину с подобными вычислительными мощностями?

      • ELEKTRO_YAR
        /#10077183

        Есть разница между настоящим электроном и его можделью

        • vassabi
          /#10077197

          смотря чем моделировать.
          можно же моделировать позитроном (в окружении антиматерии). там у них НЯП только одно различие нашли — в бетараспаде %)

          • ELEKTRO_YAR
            /#10077245

            Нет, это уже проблема понимания вещей. Модель состоит из абстрактых образов, это значит что мы берем одни объекты и делаем из них структуру, которая напоминает нам поведение реального объекта. А потом уже в рамках абстракций нам кажется что это одной и то же. ЧТо например станканчик из под чая с надписью «Вася» и реальный Вася это одно и то же (например мы на столе располагаем стаканчики для моделирования положения людей в пространстве), или что надпись на бумаге в паспорте Васи и Вася это одно и то же, или что надпись на экране монитора, пиксели из жидких кристаллов, электрический сигнал в кабеле, магнитные доменты в жестком диске и Вася это одно и то же. Если бы модель электорона и сам электрон было бы одним и тем же, компьютер думал бы самой «материей», прям мечта фантастов о материаллизации объектов. А вы отрицаете эту разницу.

            Где в мире харнятся формулы законов физики? Например формулы по которым вращается планеты? Все это увы, к реальности отношения не имеет. Потому модель объекта всегда не то же самое, что сам объект. Например, понимание принципов работы сознания, и опыт переживания этих процессов, не одно и то же. Поэтому наука не может дать полноценное понимание «всего», а обычное восприятие человека может получить больше информации, чем если ограничиватья только абстракцией.

            • Sadler
              /#10077299

              Вопрос всего лишь уровня абстракции. Если некое критичное для работы устройства поведение не учтено в модели, его всегда можно учесть, в противном случае рассуждение выходит за рамки науки, попадая в область веры и философии. С этим, пожалуйста, в РПЦ и к философам.

            • red75prim
              /#10077479

              А с чего вы взяли, что интеллект подобен электрону, а не, скажем, калькулятору? Физический калькулятор и его модель в виртуальной среде будут выполнять одни и те же функции.

          • ELEKTRO_YAR
            /#10077251

            Это лишь та информация, которам нам доступна (я про то что отличается только бетараспад). Два черных ящика по содержимому могут сильно отличаться, а внешне — одно и то же.

        • ChALkeRx
          /#10078019 / +1

          Можете, к примеру, попробовать доказать, что вы сами — не компьютерная модель, которая находится в симуляции.


          Ну, то есть рассмотрите две теории (я — модель) и (я — не модель) и попытайтесь придумать хотя бы какой-нибудь эксперимент, который эти ситуации отличит.


          Уже на этом моменте начинаются некоторые сложности.

          • fireSparrow
            /#10078101

            Сразу вспоминается рассказ «Патриоты» Юрия Нестеренко, в котором поднималась подобная тема.

          • dfgwer
            /#10078553

            Допустим эта игра и разрабы этой игры заинтересованы в том чтобы, игрок еще играл. Тогда увечья ведущие к значительному снижению качества жизни и игры не должны быть. Появления увечья докажет что это не компьютерная игра. Или что разрабы не для развлечений это делают.

    • lpwaterhouse
      /#10077263 / -4

      В мире нет ничего случайного. Если мы что-то ошибочно принимаем за таковое, значит у нас либо недостаточно знаний о сути явления, либо мы не с той стороны подходим к проблеме.

      • begemot_sun
        /#10077275 / +5

        Скажите это физику с квантовой специализацией, он над вами посмеётся.

        • k155la3
          /#10077523

          Чисто ради занудства: не все. Большинство интерпретаций в этом сходятся, но есть всякие экзотические интерпретации.

          Как раз у специалиста-то и могут быть свои, очень глубокие заморочки и очень своё философское понимание мира. :)

      • iChaos
        /#10077435 / +3

        В мире нет ничего случайного. Если мы что-то ошибочно принимаем за таковое, значит у нас либо недостаточно знаний о сути явления, либо мы не с той стороны подходим к проблеме.
        Эйнштейн считал так же. Однако, как показала практика, он ошибался… Более понятным языком, здесь.

  2. frees2
    /#10076501 / +2

    Если ожидание появления сверхчеловеческого ИИ (СИИ) основано на пяти ключевых предположениях, не имеющих доказательств, тогда эта идея больше похожа на религиозную веру или на миф.


    Религия, равно и вера в Деда Мороза есть нефальсифицируемая ненаучная теория. Доказательства невозможны равно и опровержения. Невозможно доказательство её ложности. Это продукт фантазии.

    С ИИ такое не катит.

    Поппер это конечно попса, но автор пишет доступно.

    • fireSparrow
      /#10077419

      Кажется, вы путаете религию с чем-то другим.
      Предположим, что некий культ основан на пророчестве, что в день летнего солнцестояния 2017 года Великий Бха обрушит Луну на Землю и погибнет половина человечества, и чтобы оказаться среди выживших нужно два раза в день петь мантры.
      Религия? Да. Фальсифицируемая теория? Да.

      • frees2
        /#10077695

        Культ Деда Мороза тоже основан на пророчестве. Как положено: Новый год, Дед Мороз, подарки и самоосуществляющееся пророчество.

        Логическая ошибка понятна?

        • fireSparrow
          /#10077843

          В моём комментарии логической ошибки нет.
          1. Фальсифицируемость определяется не через то, в чём теория соответствует реальности, а через то, в чём она ей не соответствует. Соответственно, то, что подарки появляются под ёлкой, никак не влияет на фальсифицируемость или нефальсифицируемость теории о существовании Деда Мороза.

          2. Даже если бы вера в Деда Мороза действительно была бы совершенно нефальсифицируемой, ваш комментарий вообще никаким образом не является контраргументом к моему.
          Смотрите сами:
          Изначально вы заявили, что религия — это нефальсифицируемая теория. Я привёл контрпример. Поскольку ваше утверждение сводится к утверждению вида «любое А является Б», то существование хотя бы одного А, которое не является Б, — уже достаточное опровержение вашего утверждения, вне зависимости от того, сколько вы можете привести примеров таких А, которые действительно являются Б.

          Суть в том, хотя в рамках религиозных систем обычно действительно содержится огромное количество нефальсифицируемых утверждений, нефальсифицируемость не является обязательным признаком религии.

          • BigBeaver
            /#10077951

            Есть. У вас погибнет половина. Что будет, если мантры читали все? Что будет, если никто не читал? Каким образом ошибка в пророчестве опровергает существование Бха?

            • fireSparrow
              /#10077993

              Что будет, если мантры читали все? Что будет, если никто не читал?

              И что вы этим хотели сказать? Мы сейчас говорим о фальсифицируемости. Вам знакома эта концепция?
              Теория может быть неполна и не предусматривать какие-то варианты развития событий. Но с фальсифицируемостью это вообще никак не связано.
              Для фальсифицируемости достаточно, чтобы теория делала некоторые проверяемые предсказания. Совершенно не обязательно, чтобы у неё было по предсказанию на каждый возможный вариант развития событий.

              Каким образом ошибка в пророчестве опровергает существование Бха?

              А речь и не идёт об опровержении существовании Бха. Речь идёт об опровержении того, что в определённый день Бха обрушит Луну на Землю.

              • BigBeaver
                /#10078003

                Вам знакома эта концепция?
                Разумеется.
                И что вы этим хотели сказать?
                То, что вы смешали все в кучу и привели плохой пример. А теперь еще и, что вы вы «путаете религию с чем-то другим».

                • fireSparrow
                  /#10078177

                  Вообще-то, это вы смешали всё в кучу.
                  Речь шла о том, является ли нефальсифицируемость непременным атрибутом любой религии. О полноте и непротиворечивости речи вообще не шло.

                  • BigBeaver
                    /#10078185

                    Является. Но это не означает, что ни в одной религии нет ни одного фальсифицируемого утверждения. Религия, в целом, нефальсифицируема by design (== основана на вере == имеет хотя бы одно нефальсифицируемое утверждение в своей основе). А у вас какое-то свое определение.

                    Впрочем, я согласен, что исходная придирка была несколько не по существу.

                  • alsii
                    /#10079745

                    Тут все дело в том, что еще входит в это учение, кроме самого пророчества.


                    1. Если там "написано", что "если после летнего солнцестояния Луна не рухнет на Землю, значит это все вздор и мы больше в это не верим", тогда это не религия.


                    2. Если это учение не допускает вообще такой возможности ("написано же, что разрушит, значи разушит, по другому и быть не может"), а после отрицательного исхода эксперимента выдумываются новые объяснения ("мы обсчитались, на самом деле разрушение произойдет через 10 лет", "Луна упала на Землю, и половина населения погибла, но не в физическом, а в духовном смысле"), тогда это религия.

            • Kardy
              /#10078021

              Пример конечно не супер, но нефальсифицируемость судя по всему не является обязательным условием для любой религии.
              Допустим тот же народ верит что великий Бта вечно сидит в Стеклянном Храме на Большом Дереве, и кидается от туда шишками. (греки и Олимп, если вам нужен менее отвлеченный от жизни пример)
              Когда какой-нибудь умник залезет на Большое Дерево, и обнаружит что ни Стеклянного Храма, ни самого Бта там нет — фактически «гипотеза о Бта и Стеклянном Храме» будет опровергнута.
              Однако вместо того что-бы отказаться от этой идеи, жрецы Бта тут же примутся бегать кругами и рассказывать что храм невидимый, а сам Бта — отошел пописать.

              По факту, как-то так и происходит, в ходе своеобразного эволюционного процесса религиозных течений — архаичные религии (и архаичные версии современных религий)- более фальсифицируемые, и содержат в себе больше проверяемых пунктов. По мере того как эти пункты входят в противоречие с наблюдаемой реальностью, они или уходят в «апокрифы», или им подыскиваются не проверяемые интерпретации.

      • garisson
        /#10078765

        >Религия? Да. Фальсифицируемая теория? Да.

        да нифига. Вот это вот строгое пророчество — ошибочно в рамках этой «теории» (ну просто потому что строгих пророчеств в рамках религиозных представлений сделать нельзя в принципе — там действуют многомогущие субъекты, которые в любой момент могут передумать :) ).

        >Фальсифицируемость определяется не через то, в чём теория соответствует реальности, а через то, в чём она ей не соответствует.

        соответствие реальности вообще ни при чём. Фальсифицируемость — это принципиальная опровергаемость. Стандартная Модель соответствует реальности на 100% (почти), но при этом является фальсифицируемой.

  3. mx2
    /#10076509 / +4

    комитет из девяти наиболее сведущих в области ИИ

    Я конечно понимаю, что Маска обожествили при жизни, но каким образом он «наиболее сведущ» в ИИ? А Хокинг вообще причем? Это наиболее попсовые фигуры.

    • ZiingRR
      /#10076685 / +1

      Если нужны профильные специалисты, процитирую абзац отсюда:


      … Stuart Russell’s Cambridge talk is an excellent introduction to long-term AI risk. Other leading AI researchers who have expressed these kinds of concerns about general AI include Francesca Rossi (IBM), Shane Legg (Google DeepMind), Eric Horvitz (Microsoft), Bart Selman (Cornell), Ilya Sutskever (OpenAI), Andrew Davison (Imperial College London), David McAllester (TTIC), and Jurgen Schmidhuber (IDSIA).

      Вообще, статья получилась адовая, но лень разбирать подробно. Надеюсь, другие это сделают за меня.

    • oxygen4ik
      /#10077265

      всё начтолько абсурдно, что сначала нам говоря о наиболее умных в некоторой сфере людях, а потом объясняют, что интелект нелинеен, и сравнивать его нельзя.
      но всё-же должен возразить: Маск мало того, что конференции по теме ИИ проводит, так ещё и, если не ошибаюсь, принимает участие в его разработке и контроле.

  4. rombell
    /#10076609 / +4

    Это ровно такие же умствования в области, в которой нет экспериментальных данных, как и рассуждения о количестве ангелов на острие иглы. Игла есть (естественный интеллект есть), а ангелов никто не щупал (ИИ нет), поэтому мы можем делать прикидки, выкладки, оценки — но это всё умствования.
    И сразу возникла ассоциация с предсказаниями предела роста городов, обусловленного многометровым слоем навоза.

    По факту,
    1) самомодифицирующийся супер-ИИ не противоречит известным нам законам физики;
    2) супер-ИИ не обязан быть супер во всём — и сразу. Вполне достаточно возможности развиваться в желаемую (ему самому сторону). Нет физических ограничений на такое развитие, вплоть до использования 100% материи и энергии достижимой Вселенной;
    3) нет нужды проводить все эксперименты и сразу. Первые этапы — улучшение алгоритмов, увеличение вычислительной мощности как напрямую, масштабированием, так и опосредованно, улучшением элементной базы — не требуют каких-то радикально новых экспериментов. Дело за малым — первая версия достаточно мощного самомодифицирующегося ИИ с заданной целью, предполагающей саморазвитие.
    На имеющемся у нас заделе (вот тут нужно добавить — я так считаю) можно будет существенно усилить эту самую первую версию. А там уж лиха беда начало. Да, вопрос будет не минут, может быть, единиц лет, но процесс набора мощности будет идти экспоненциально. Я так считаю.

    • darthmaul
      /#10077235 / +4

      Да, вопрос будет не минут, может быть, единиц лет, но процесс набора мощности будет идти экспоненциально
      с этим тезисом можно и нужно спорить. Экстенсивный рост некоей вычислительной сети упрётся в скорость света (например, размер кристаллов миикрочипов ограничен как раз этим параметром), а интенсивный — другими фундаментальными законами физики. Невозможно бесконечно уменьшать техпроцесс. И весь вопрос в том, где находится этот предел интеллекта ИИ по сравнению с человеком, но то что предел существует — факт.

      • rombell
        /#10077345 / +1

        Ну разумеется это будет не чистая экспонента, а классическая S-образная кривая насыщения, по очень пологой стартовой части которой мы сейчас движемся. А вот её часть быстрого роста близка к экспоненте.
        И по большому счёту не важно, насыщение начнётся при превосходстве СИИ над человеком на три или четыре порядка.

        • darthmaul
          /#10077369 / +1

          насыщение начнётся при превосходстве СИИ над человеком на три или четыре порядка
          откуда такие данные? Именно эта точка насыщения, где кривая переходит в горизонтальную прямую и есть одна из самых интересных задач футурологии. Размер атома кремния — 1\4 нанометра, т.е запас развития микрочипов скоро будет исчерпан.

          • rombell
            /#10077385 / -1

            Сильно.
            1) Мною сказано было, что «НЕ ВАЖНО, насыщение начнётся при превосходстве СИИ над человеком на три или четыре порядка.» Поставьте по своему усмотрению «два» или «шесть» порядков. НЕ ВАЖНО.
            2) Кривая насыщения никогда не переходит в горизонтальную прямую.
            Есть разные шевеления, куда двигаться дальше — от нанооптики до троичной логики, речь не о том.

            • darthmaul
              /#10077397 / +2

              «НЕ ВАЖНО, насыщение начнётся при
              а может, на уровне шимпанзе или туповатого человека? Ещё раз, откуда информация о том, что эта точка выше мозга человека?
              Есть разные шевеления, куда двигаться дальше — от нанооптики до троичной логики, речь не о том.

              Это всё хорошо, но как сохранить бит информации, использовав меньше одного атома? Всё равно есть физический предел и он довольно близок. Или что делать с пределом Ландауэра, который всё ближе?

              • darthmaul
                /#10077413

                UPD.
                Вот на что способны современные компьютеры И я уже не говрю о том что нейронная сеть != мозг, это довольно упрощенная абстракция. Сейчас процессоры делают на 14-нм техпроцессе, осталось меньше двух порядков. В теории идеальный чип можно сделать на металлическом водороде, с радиусом атома 53 пм. Ещё в три раза можно уплотнить. И это всё, предел реально существующих технологий.

                • Varim
                  /#10077541

                  Уже научились делать логические элементы или их части состоящие из одного атома?
                  Металлический водород, при комнатных температуре и давлении, это «реально существующая технология»?
                  53 пм, как я понимаю это не расстояние между двумя атомами в кристалле.
                  На токопроводящем кристалле расстояние между «проводами» будет больше 53 мп. Я не специалист, но в раза два будет длиннее.

                  • darthmaul
                    /#10077545

                    Естественно, таких технологий нет и размеры, которые я привёл — диаметры атомов, без учёта параметров кристаллической решётки. Металлический водород вообще в макромасштабе не получали. Я лишь привёл максимально примитивные и оптимистичные представления, реальные — значительно скромнее. Из этого видно, что микроэлектроника не может развиваться бесконечно, и никакого «сверхинтеллекта» нет на горизонте. Но ИМХО он не нужен — такая гипотетическая машина была бы бесполезной и опасной, нечто более развитое не станет служить более примитивному, а наоборот — постарается преобразовать примитивных во что-то полезное. А вот идея расширить способности человека тем, что машины могут лучше всего — память и поиск информации — идея здравая.

                • rombell
                  /#10077665 / +1

                  Ну так симулировать работу калькулятора (со всеми переходами состояний и всеми подмигиваниями светодиодов, с процессами, протекающими в аккумуляторах и в транзисторах микросхем) — дело на современном уровне тоже невозможное, но зачем это делать?! Можно использовать простейший программный калькулятор

                  • darthmaul
                    /#10077869

                    Если Вы о нейросети — она не симулирует процессы, происходящие в мозге человека, это абстракция. Я даже согласен на время принять упрощённую гипотезу о том, что «нейросеть с количеством нейронов как в мозге человека эквивалентна самому мозгу», но даже так нужно увеличивать производительность на многие порядки.

              • rombell
                /#10077661

                Нет информации, что эта точка — ниже. Мы видим, что современные системы уже где-то рядом. Мы знаем, что наши алгоритмы пока ещё не вылизаны, пока ещё далеко от оптимума, и мы просто физически можем масштабировать нынечшие системы на пару порядков. Это даёт мне основания считать, что точка насыщения — выше, и намного выше. Но доказательств, разумеется, нет ни у меня, ни у вас. Умствования.

                Про бит — зачем?! Вы утверждаете, что принцип («закон») Мура будет нарушен рано или поздно? Будет, разумеется, и что с того? Пока задел для роста есть, и достаточно большой.

                • darthmaul
                  /#10077853

                  Пока задел для роста есть, и достаточно большой.
                  два порядка — это достаточно большой? Лично я владел компьютерами, которые по производительности отличаются на два порядка, а разговоры о ИИ за это время не изменились. Ну нельзя сделать логический элемент (не важно, электронный или фотонный) меньше, чем атом.

          • darthmaul
            /#10077387

            UPD. Т.е процессоры «в тысячи раз превосходящие мозг» останутся там же, где силовые поля с варп двигателями, а именно — в научной фантастике. И то, для последних хоть теория существует, а для таких «супер — чипов» — нет. Вполне вероятно, что наиболее совершенный ИИ будет походить на человеческий мозг по своей структуре, благо примитивные синтетические аналоги биологических тканей уже существуют и эта сфера активно развивается. Вообще, мне импонирует идея Маска о «синтезе» человеческого и искусственного разума. Нет смысла повторять мозг искусственно, а лучше взять лучшее с обоих видов: способность творить от человека, а точные расчёты, хранение и обработка данных — от машины. Впрочем, из всех мечтателей — футуристов Маск всегда был наиболее прагматичным.

            • dfgwer
              /#10077395

              Процессоры в тысячи раз превосходящие мозг, для этого надо научиться делать полноценно трехмерные чипы, теперешние плоские чипы имеют всего несколько слоев.

              • darthmaul
                /#10077407 / +1

                Из фундаментальных проблем — принцип Ландауэра. Из более приземленных — отсутствие сверхпроводящих полупроводников. Охлаждать такой чип невозможно.

                • rombell
                  /#10077667 / -1

                  Принцип Ландауэра утверждает, что глубокое охлаждение чипа резко снижает выделяемое тепло. Что до полупроводников, так возможно, верный ответ — фотоника, или ещё чего такое же. Работа идёт.

  5. APLe
    /#10076625 / +5

    Прочитал, если честно, по диагонали. Аргументация кажется слабой. Для создания СИИ достаточно:
    1). Создать интеллект, не уступающий человеческому, но обладающий типичными особенностями машин — низкой и прогнозируемой утомляемостью, абсолютной целеустремлённостью и способностью чрезвычайно эффективно и точно передавать друг другу данные.
    2). Или просто создать ИИ, по когнитивным способностям близкий к человеческому, но по стоимости соответствующий ATiny, которые сейчас запихивают в любые приборы, включая фонарики, :-).

    По пунктам:

    > 1. Интеллект не одномерен, поэтому концепция «умнее людей» не имеет смысла.
    Естественно, не одномерен. Однако, «умнее людей» имеет смысл — достаточно создать ИИ, обладающий всеми свойствами интеллекта человека, и какими-нибудь ещё.

    > 2. Ни у людей, ни у ИИ нет сознания общего назначения.
    Тем не менее, всё, чего мы добились, мы добились с помощью нашего интеллекта. Логично предположить, что более умный ИИ окажется эффективнее.

    > 3. Эмуляция человеческого мышления на других носителях будет ограничена стоимостью его создания.
    > 4. Размерности интеллекта не бесконечны.
    Естественно. Но странно предполагать, что интеллект, полученный в ходе эволюции (обычно дающей неплохие, но не самые эффективные результаты) и для совершенно других целей (для оптимального существования в малых группах людей в дикой природе) был бы оптимален для современного мира.

    > 5. Интеллект – всего лишь один из факторов прогресса.
    Да. Но один из ключевых. Сейчас мы имеем существенно больше данных, чем способны обработать, отсюда и проблема сверхузких специалистов, не способных использовать данные из чужих областей.

    • OlegZH
      /#10076693 / +2

      Вы наступили на все грабли, от которых Вас попытались предостеречь. Что можно было бы Вам посоветовать? Ну, наверное, ещё раз прочитать статью и подумать над нею. Чтобы, например, не написать, вдруг:

      Создать интеллект, не уступающий человеческому...
      В том-то и дело, что у Вас нет ни линейки, ни метрики.

      А ещё Вы пишете:
      Сейчас мы имеем существенно больше данных, чем способны обработать...
      По моему, здесь существует проблема перепроизводства ненужных данных. А, уж, специально создавать нечто, предназначенное для обработки ненужных данных, и вовсе дело безнадёжное. Следовало бы организовать дело так, чтобы ненужные данные не производились. Давайте научимся делать, по крайней мере, это. И без какого-либо ИИ. Собственными силами.

      • rombell
        /#10076723

        Проблема больших данных в том, что они не помещаются в отдельный человеческий мозг и тем самым являются бесполезными в плане выявления закономерностей. И даже современные алгоритмы биг дата вытаскивают некоторые из таких закономерностей. СуперИИ же, при необходимости для него, вполне будет способен вытащить что-то ещё.

        • gerahmurov
          /#10077617

          Это если реально создать такую штуку, которая ищет закономерности, и при этом может принимать сложные решения на уровне, ожидаемом от супер ИИ, и при этом может запоминать и вести расчёт точнее человеческого мозга, и не занимать на этот расчёт тысячу лет, чтоб до последней цифры после запятой всё высчитать.

          • rombell
            /#10077649

            Не видно проблем с этим. Природе удалось вырастить такую штуку. Достаточно легко предтавить, что увеличение физического объёма вдвое увелии мощность мозга тоже примерно вдвое — это можно предоложить, хотя бы базируюсь на исследованиях савельева по корреляции размеров мозговых структур со способностями. Ну так дажу тупо увеличив вдвое все структуры, получим лучший мозг (решив проблемы с питанием и отводом отходов).
            А «до последней цифры» не нужно — зачем это? Достаточно — лучше, чем человек. Как в шахматах — ни один алгоритм не обсчитывает всю партию, это невозможно и не за чем. Но людей уже обыгрывают.

      • APLe
        /#10076755 / +1

        В том-то и дело, что у Вас нет ни линейки, ни метрики.
        Ну вот человеческий интеллект не уступает человеческому, например. И, вроде бы, большинство людей согласно с тем, что у большинства людей уровень интеллекта примерно одинаковый. Можно это в качестве метрики для ИИ, близкого к человеческому, считать?

        Давайте научимся делать, по крайней мере, это. И без какого-либо ИИ. Собственными силами.
        Давайте! Я только за! Жаль, у нас, без ИИ, это плохо получается, ;-).

        • Valerij56
          /#10077177 / -1

          Жаль, у нас, без ИИ, это плохо получается, ;-).
          Расскажите нам о тех, у кого получилось лучше.

        • Varim
          /#10077563

          большинство людей согласно с тем, что у большинства людей уровень интеллекта примерно одинаковый
          это может быть одинаково низкий уровень. И то что кто то что то считает, ничего не доказывает, так как нет линейки нет и уверенности.

      • Deerenaros
        /#10077209 / +2

        Линейки нет. Зато есть лидары. Ненужные данные вообще безнадёжное высказывание — это для вас они не нужны, а маркетологам — подавайте всё и ещё немного. Для них ещё немного могут стоить миллиарды, спросите у гугла.

        Короче. Проблема в словах. Мы представляем из себя нечто странное, нечто, так неестественно пытающееся понять окружающий мир и себя. А зачем? А почему? А для чего? Тот факт, что такие вопросы можно задать не подразумевает, что на них существуют ответы отличные от сорока двух. И, возвращаясь к словам, мы люди, не просто смертны, мы внезапно смертны. Нам требуется общение словами, но это не математика, где любое логически верное высказывание полезно. Мы не можем согласиться с некоторыми абстрактными вещами, такие как ИИ. Приходится как-то уточнять про ОИИ, СИИ, ещё СИИ, и ещё СИИ. Сильный, слабый, специализированный. Чёрт, в этом кто-нибудь действительно разбираются или статьи действительно пишутся ради классов?

        Из этих простых вещей складывается весьма странное. Многомерность интеллекта вообще для меня непонятная штука, идея МНУ в том, что он пластичен. В этом и есть идея общего. Понятное дело, что если сотню лет тренироваться за фортепиано, то даже village idiot будет играть как Моцарт. Другое дело, что иногда Моцарт просто не имеет ста лет, чтобы тренироваться. Во многой степени это не относится к ИИ, именно этот момент так и пугает.

        Однако есть ровно две причины, по которой вся эта полемика кажется лично мне банально глупой. Первое заключается в заблуждении, что есть смысл делать интеллект по образу и подобию. Нет. Никакого. Мне очень нравятся рассуждения Стивена Вольфрама на эту тему, всё таки на его детище работает безусловно потрясающая Siri (блджад, я тут недавно попросил гугл переключить следующий трек, а он сказал что не смог ничего найти по данному запросу — потрясающе!). То, что можно рассматривать интеллект как совокупность функций лишь следствие того, что он тренируем. И мыши не умеют играть на фортепиано не потому, что они беспросветно тупы, а потому что банально железа не хватает (пальцев, необходимого восприятия).

        Я где-то уже писал про то, что даже сегодня мы можем родить ребёнка из кристалла. И, в принципе, он уже будет сильно отличатся от нас. Но мы работаем, потому что чувствуем боль! Чёрт, именно это нас заставляет думать, стараться её избегать. А из-за большого количества «лишнего» железа существует поэзия (эстрада). Но если мы научим машину чувствовать боль, то априори не сможем заложить в неё правила Азимова. Ну, то есть мы, конечно, сможем сделать туеву хучу мазохистов-слуг, но даже непомерно неприличная вероятность сбоя для такой технологии в какие-то 10^-6% уже даст нам пару мятежей через тысячу другую лет. Так что тут либо делать их действительно такими же (но смысл, если можно заняться сексом?), или же смотреть в совсем другую сторону.

        И да, немного про свободу воли. По некоторым причинам, мы считаем, что она есть у нас. Хотя в этом есть ещё (уже) сомнения, но допустим это так. Допустим мы способны выбирать сознательно. Тогда лишаем машину свободы выбора. Вырезаем скальпелем. Возможно и сознание. То есть вырезаем всё, что не критично. И вот. У нас нет никаких восстаний потому что машина не способна принять сознательное решение. Остаётся вероятность, что некий сумрачный гений решит освободить всех рабов, но в общем и целом при достаточно аккуратном подходе ничего страшного не случится. Равно как и тот факт, что неаккуратное обращение может сотворить немного нам немного боли. Это факт. И именно этого так опасаются Илоны.

        • gerahmurov
          /#10077623

          Но если мы научим машину чувствовать боль, то априори не сможем заложить в неё правила Азимова.

          Если представлять боль исключительно как сигнал ущерба для организма, то нам либо придётся делать роботов совершенно без каких-либо обработок ситуаций, опасных для робота, либо одно из двух. В самих законах Азимова, по-своему, заключена необходимость боли: Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


          Как ещё ему определить границы своей безопасности, кроме датчика внутреннего ущерба?

          • Deerenaros
            /#10077911

            Боль не сигнал, боль — интерпретация сигнала. Разница в том, что боль порождает ощущение, которое по идеи необходимо прекратить для собственной безопасности. Законы Азимова хороши до тех пор, пока они законы. Но если дать ИИ свободу выбора и способность к ощущению боли, вряд ли из этого что-то хорошее получится, по той простой причине, что никогда робот не сможет полностью прекратить боль. И если 999 свыкнутся, единственный может таки прекратить, потому что какой-то добрый человек ему когда-то улыбнулся. И да, без боли можно заботиться о безопасности. Вместо оной можно сканировать повреждения, например. Или можно измерять ущерб и датчиками, но проецировать его напрямую в сознание, без трансформации в боль.

            • gerahmurov
              /#10078131

              Но если у вас есть датчик поврежджений, инструкция, что их надо избегать в некоторых случаях, а в некоторых (первые два закона) не обращать внимания на свои повреждения ради высшей цели, но в любом случае повреждения включают малеьнкий аларм в электронном мозгу, то чем эта интерпретация отличается от концепции боли?

              • BigBeaver
                /#10078137

                Тем же, чем логически обоснованная необходимость от навязчивой идеи.

              • Deerenaros
                /#10078145

                Итак. Мы не алгоритмы. Почти наверняка мы вычислимы, но в том смысле, как множество Мандельброта, а не как экспертная система. Отличия на самом деле огромны. У нас нет инструкции на то, как реагировать на повреждения. У нас есть сама реакция на повреждения. Концептуальное отличие. Когда мы чувствуем боль, электрохимические сигналы резво утекают от очага повреждения в ЦНС, при этом по пути включая различные механизмы, безусловные рефлексы. Мы физическая машина, а не вычислитель, в общем-то поэтому с математикой у нас так плохо.

                Концепция боли предполагает концепции страданий. Легко переносимые или же немыслимые, но страдание само по себе не запускает некоторый алгоритм. В некоторых случаях это приводит к реакции в ответ на раздражитель, то есть безусловный рефлекс, но в общем случае требуется осмыслить боль, осмыслить её причину, осознать необходимость от неё избавится или же превозмочь. И с этой точки зрения это не маленьки аларм, это целый букет химии, который приводит к некоторой реакции основанной на предыдущем опыте и немного зависимый от генотипа.

                Так что нет, это не так работает. Экспертная система немного другая штука, очень далёкая от того, кто мы есть. Хотя с её помощью и можно сделать невероятно похожее на нас ИИ, не думаю что в этом есть какой-то смысл. Разве что сакральный.

                • gerahmurov
                  /#10078235

                  Я сомневаюсь, что ИИ тоже будет обладать инструкциями для каждой ситуации сложнее, чем одёрнуть руку от источника тепла. Например, что он будет делать, если его начнут обстреливать из ружей? Или если ему зажмёт клешню, будет ли он её отгрызать? Тут разве не нужно будет осмыслить причину аларма, осмыслить его важность (прятаться или терпеть, потому что броня). Какие-то вещи мы укажем в инструкции, но до многого он додумает сам. У нас букет химии, у него букет электромагнитного взаимодействия (а возможно, тоже химии, тут уж как сделаем). Даже если мы сделаем как-то по другому обработку тех событий, которые надо обрабатывать и нам, то очень вероятно, что получим в итоге конвергенцию.


                  Ну и при достаточной сложности, можно перестать понимать, как работает любая система, что будет приводить к непредсказуемым результатам.

                  • Deerenaros
                    /#10078257

                    Тогда это не то, о чём вы писали ранее. Если ИИ способно обрабатывать прежний опыт, то оно будет способно нарушить ранее установленные правила. Люди давно научились обманывать полиграф, контролировать биение сердца, подавлять безусловные рефлексы. Это факты. Также и ИИ, способное к самоанализу будет способно подавлять нами установленные правила. Как вы и написали, при достаточной сложности можно перестать понимать, как работает система. Вот и результаты будут непредсказуемыми, чего Илоны пытаются избежать. И да, для этого можно идти сверху, от экспертных систем. А можно снизу. От нейросетей. А можно и с двух сторон. И кто знает, возможно завтра какой-нибудь сумрачный математик придумает что-то ещё. Будем посмотреть, будем посмотреть.

      • red75prim
        /#10077495

        В том-то и дело, что у Вас нет ни линейки, ни метрики.

        А она нужна? Если коробка с железками двадцать четыре часа в сутки делает то же самое, что и вы, то работодатель не будет особо интересоваться другими замечательными сторонами вашего интеллекта.

      • Hellsy22
        /#10078705

        В том-то и дело, что у Вас нет ни линейки, ни метрики.
        Конечно же есть. Да, любая линейка и метрика — суть упрощенная модель, ну и что? В реальности каждое яблоко абсолютно уникально и неповторимо, что не мешает использовать в расчетах понятие калорийности килограмма яблок.

        По моему, здесь существует проблема перепроизводства ненужных данных
        Знания не нужны, ага.
        Это вообще о другом — человеческий мозг сильно ограничен скоростью обучения и временем своего существования, тогда как количество научных знаний продолжает стремительно расти, что приводит к более узкой специализации и дроблению направлений, что в свою очередь резко увеличивает количество сочетаний этих самых направлений. И вероятность найти решение, для которого требуются познания в нескольких направлениях — падает с каждым годом.

    • Varim
      /#10077561 / -2

      1). Создать интеллект, не уступающий человеческому, но обладающий способностью чрезвычайно эффективно и точно передавать друг другу данные.

      Мозг организован принципиально не так как процессоры:
      Процессоры 1) электрические, 2) с жестко заданной, выжженной, раскладкой проводов и логических элементов.
      А мозг лишь 1) на треть электрический, 2) на треть механически-"пластичный", 3) на треть химический.
      Пластичный в смысле что — каждый дендритный отросток, не образовавший долговременную память, разрывается и создается каждые два или три дня, уничтожая или создавая синапс. То есть отсоединяется от одного нейрона и присоединяется к другому нейрону, на расстоянии, например, в сто нейронов от предыдущего нейрона.
      На один нейрон приходится 100 тысяч дендритов.
      Химический, в смысле что информационный сигнал передается нейромедиаторами, которых 20 с чем то, а значит «шина данных» одного синапса по меньшей мере 20 битная.
      И я не уверен что на данный момент нам известно как именно нейромедиаторы обрабатываются нейронами.
      Поскольку информация и способности мозга «зашиты» в физическую-динамическую структуру, в организацию нейронной сети с помощью проводов-дендритов и контактов-синапсов, так вот, поскольку информация в мозге физически пространственно задана, то мозг и не в состоянии эффективно и точно передавать друг другу данные. Поскольку одна и та же теорема Пифагора в вашем и моем мозгу заданна разным количеством и разной локацией нейронов, дендритов и синапсов.
      Если создать интеллект на базе статичных кристаллов, то интеллект не будет человеческим, а будет другим, потому и сравнивать их нужно в привязке к конкретной задаче.
      Зачем делать человеко подобный интеллект если нас 10 миллиардов?
      Хорошо, сделаем физически не дендритно-пластичный мозг который будет в 10 000 раз быстрее и не будет ленится. Но зачем? Будет ли он подобен человеческому?
      Наверняка можно сделать просто другой интеллект, который будет в 10 000 000 раз лучше в каких то прикладных задачах.
      Может сделаем на основе пластичности или может на основе процессоров/ПЛИС.
      Но он будет решать те задачи которые не решает человекоподобный мозг, в независимости от скорости, мне кается это то что нам и нужно.

      • dipsy
        /#10078307

        с жестко заданной, выжженной, раскладкой проводов
        Есть весьма гибкое ОЗУ, где собственно структура «мозга» может прекрасно храниться и развиваться. Процессор это аналог, как бы сказать, ДНК или биохимии, которая весьма конкретная и неизменная в своей сути, нижний уровень работы мозга.

        • Varim
          /#10078339

          ОЗУ ни разу не гибкое, ОЗУ обеспечивает одновременный доступ к маленькому количеству информации, к маленькому количеству вычислительных устройств (процессорам).
          Сколько там независимых каналов к ОЗУ?
          Если мы говорим о различии процессора+озу и мозга, то мозг отдаленно похож на то если бы каждая ячейка памяти ОЗУ содержала бы рядом вычислительную ячейку, а ячейка памяти и вычислительная ячейки не мешали бы другим подобным парам ячеек работать одновременно. В общем матрица. с множеством независимых шин данных, такие матрицы делают, тот же IBM. И когда нибудь их сделают эффективными.
          Если биохимия нижний уровень, то он скорее (хотя нет) соответствует транзистору, а не процессору.
          Как именно нейрон или дендрид «принимает решение» когда и куда передать ту или иную группу медиаторов мне не известно. То что накапливается потенциал на мембране мне не объясняет то как все же происходят «вычисления» принятия локального решения нейроном.

          • dipsy
            /#10078375

            к маленькому количеству информации
            Ну эт сколько запихаете…
            Сколько там независимых каналов к ОЗУ
            А сколько надо? Обсуждаемо.
            если бы каждая ячейка памяти ОЗУ содержала бы рядом вычислительную ячейку
            Процессор за счет быстродействия позволяет получить некую иллюзию параллельности, но конечно чем больше ядер, тем лучше (привет, нвидия), а специализированные архитектуры ещё лучше.
            А вы себе не противоречите, предлагая многоядерные архитектуры? Там ведь тоже «жестко заданные» провода, только много. А мозг, если разобраться, вообще из атомов состоит, а они довольно простые, ядро, электроны, орбитали, как из этого можно разум создать, бред же, да?

            • Varim
              /#10078415

              Сколько там независимых каналов к ОЗУ
              А сколько надо? Обсуждаемо.
              Инженерами обсуждаемо? Или программистами воздушных замков?

              150 миллиардов нейронов умножаем на 100 тысяч дендритов, 150 * 10^9 * 100 * 10^3 = 15 * 10^3*10^9*10^3 = 15 * 10^15 — это столько каналов для параллельной работы.

              Затем это умножить на разрядность, аналогичной разрядности, химического канала синапса.
              Насколько я знаю, как считать разрядность синапса, нам не известно.
              Пусть нейромедиаторов будет 20 (их больше 20), пусть две молекулы нейромедиатора будет тоже что и одна молекула нейромедиатора, то есть система счисления пусть будет непозиционная, тогда для диапазона в 20 значений нам нужно 5 двоичных разрядов.
              15 * 10^15 * 5 = 75 * 10^15 — по крайней мере вот столько нам надо двоичных ячеек памяти что бы создать какую то абстрактную нейронную аналогию сравнимую с «человеческим» мозгом.
              Каких то 75 пета-бит, всего лишь 75 000 тера-бит.
              Если саму по себе обычную ОЗУ такого объема можно легко представить, то представить в реальности ОЗУ с 15 квадриллионов параллельно работающих каналов, я не могу. Это какой толщины должна быть железяка?
              И это все еще не какой то супер сверх интеллект, а обычный человеческий, хотя может быть работающий в железе в миллион раз быстрее, но не умнее, а просто быстрее.

              Что бы железяка могла хотя бы столько же сколько 10 миллиардов людей, умножаем на 10 миллиардов = 75*10^24 ячеек памяти и 15*10^24 каналов доступа к памяти.

              Если каналы будут не параллельными, а последовательными, то тогда мы получаем такую же тормозную систему какими сейчас являются компьютеры которые эмулируют нейроны.

              А вы себе не противоречите, предлагая многоядерные архитектуры?
              Я говорю о такой параллельности которой нет в CPU+RAM и пока что нет в GPU.
              Я не предлагаю, я просто предполагаю что нужно делать параллельную архитектуру потому что мозг параллелен, да и нейронные сети предполагают параллельность. И в общем то такие чипы уже делают, просто порядок того что делают и того что нужно очень сильно не совпадает, пока что.

              Там ведь тоже «жестко заданные» провода, только много.
              организация коммутации между нейронами привнесет еще много порядков сложности к 10^24.

              • BigBeaver
                /#10078431

                Настоящий мозг не так уж и параллелен. Можно сделаеть его перекоммутируемым на основе тех же принципов, что сейчас в ПЛИС используются. — тогда общее количество связей будет минимум на несколько порядков ниже вашей оценки, а их длина радикально ниже.

                Другой вариант — использовать по 1 процессору на «несколько» (ну скажем, 10^3 или 10^6) нейронов, оставив остальную модель прежней. Поскольку мы заменили медленные химические связи быстрыми электрическими, общая производительность все еще может оказаться неплохой.

                Но да, в любом случае это все еще оченьсложно и дорого. Особенно, если учесть, что «мозг» сопоставимый по быстродействию с человеческим потребует и сопоставимого с человеком времени на обучение.

                • Varim
                  /#10078449

                  Настоящий мозг не так уж и параллелен
                  Тем не менее каждый нейрон работает параллельно с остальными. Это достаточно большая параллельность.
                  Про дендриты одного нейрона не знаю, наверно работают синхронно с аксоном.
                  Да Мозг иерархически разделен на «кластеры» — поля и подполя. И не каждый нейрон соединен со всеми остальными.
                  Да порядок может быть значительно ниже.
                  Но смотря что мы хотим получить, вдруг увеличив связанность увеличим какую то полезную функцию. Меняя конфигурацию связей получим различные ценные функции.

                  перекоммутируемым на основе тех же принципов, что сейчас в ПЛИС используются
                  Можно в двух предложениях что именно за принципы, что бы я точно понял о чем речь?

                  а их длина радикально ниже
                  Длина связей? То насколько два нейрона могут быть далеки друг от друга?
                  Короткая длина это хорошо, а большая длина это разве плохо?
                  Вроде бы я не упоминал длину связей.
                  Но в мозге есть как локальные связи, так и длинной аж до нейронов на противоположном караю мозга.

                  • BigBeaver
                    /#10078461

                    вдруг увеличив связанность увеличим какую то полезную функцию.
                    Тут где-то не так давно были посты с визуализацией связи в нейронных сетях — отличная иллюстрация. Конфигурация связей влияет на функции — это верно, но связь «каждый с каждым» контрпродуктивна.

                    Можно в двух предложениях что именно за принципы
                    Я имел ввиду FPGA Программируемая коммутация блоков, насколько я могу судить. Только нам вместо логических вентелей понадобятся аналоги нейронов.

                    Длина связей? То насколько два нейрона могут быть далеки друг от друга?
                    Да. Большая длина это нормально, но в исходном варианте, на который я отвечал у вас получалась длина всех проводов одинаково огромной, что как раз и дает пучок проводов с бревно. В более оптимальном варианте «мозг» разделен на функциональные блоки с короткими внутренними связями и соединенные между собой небольшим количеством длинных. Реальный мозг так и устроен, как вы верно заметили. Так вот, если удастся разграничить функциональные блоки достаточно малого размера, каждый из них можно сделать на одном кристалле, соединив между собой небольшим числом проводников или оптикой, что в итоге упростит кучу вопросов вплоть до охлаждения.

                    • Varim
                      /#10078477

                      связь «каждый с каждым» контрпродуктивна
                      я не писал каждый нейрон с каждым нейроном, это было бы
                      150 миллиардов нейронов умножаем на 150 миллиардов нейронов, а у меня
                      150 миллиардов нейронов умножаем на 100 тысяч дендритов. Как в мозге.
                      То есть в миллион раз меньше чем вы подумали.
                      у вас получалась длина всех проводов одинаково огромной
                      150 миллиардов нейронов умножаем на 100 тысяч дендритов, умножаем на среднюю длину по больнице. Не больше не меньше.
                      Вы наверно подразумеваете длину связей всех нейронов со всеми. Но нет я такого не писал.

                      Эту архитектуру можно в каких то пределах ужать.
                      Однако есть еще коммутация, которая добавит какую то сложность.

                      В общем я думаю мы с вами в целом думаем об одном и том же.

                      компактно без глубокой 3D «печати» микросхем такую постройку сделать нельзя, а на монтажных платах эта конструкция будет занимать целый дом.

                      • saboteur_kiev
                        /#10078569

                        Если бы нужно всего лишь построить конструкцию размером с дом, чтобы получить полноценный «могущественный» ИИ — это бы уже сделали. Для крупных компаний это не проблема.

                        • Varim
                          /#10078585

                          так вроде бы пока что нет и чипов с более чем 256 нейронами, лень считать но с такой плотностью наверно город нужно выстроить.
                          если бы была плотность миллион нейронов на чип может и построили бы

                      • BigBeaver
                        /#10078699

                        Вы наверно подразумеваете длину связей всех нейронов со всеми
                        Нет. Я говорю о длинне проводов. Вы обсуждали концепт, где каждый нейрон представлен процессором, а информация о связях хранится в общем массиве памяти с параллельным доступом. И вот в этом случае сечение пучка проводов сопоставимо с площадью массива памяти, не?
                        В общем я думаю мы с вами в целом думаем об одном и том же.
                        Ну вообще, да.

                  • saboteur_kiev
                    /#10078565

                    > Тем не менее каждый нейрон работает параллельно с остальными.

                    Чтобы они ВСЕ работали парралельно, кажды должен быть подключен к каждому?

                    Ну и вдобавок, высокая активность мозга, это например эпилепсия, что нифига не эффективно.

                    • Varim
                      /#10078591

                      Чтобы они ВСЕ работали парралельно, кажды должен быть подключен к каждому?
                      нет. почему вы так подумали?

                      Ну и вдобавок, высокая активность мозга, это например эпилепсия, что нифига не эффективно.
                      Хорошее замечание. Что тут можно ответить?
                      Нужно исследователь, искать инженерное решение, я не в курсе.
                      Может ужать «шины данных» раз не сразу по всем каналам передаются данные.
                      Можем ли мы всегда знать какие группы нейронов будут передавать данные одновременно?

              • Varim
                /#10078493

                Ах да, я еще забыл добавить генератор случайных чисел для каждого дендрита.
                Когда дендрит растет в мозге, он случайно лезет в какую то сторону.
                Хотя может не совсем случайно, а еще по возрастанию какого то градиента.

              • k155la3
                /#10078495

                Так а что мешает сделать нейроструктуру на кремнии? Со сверхмассивными вычислениями внутри «умной» памяти?

                Да, нейроны плотно упакованы и довольно эффективны по энергии.
                Но — ниже рабочие частоты на 6-7 порядков, меньше скорость распространения сигнала… и наконец, главное: у нас же не стоИт задача, чтобы оно росло само! Нам не западло построить огромную фабрику, куда вынести всю сложность, связанную с построением системы.

                И мы ещё просто не принимались за задачу железной оптимизации нейросетей толком… пока мы балуемся с последовательными процессорами, но мы же не приклеены к этой концепции. Нейросети приемлимо относятся к погрешностям вычисления при работе, мы можем реализовать MMAC в аналоговой цепи: 1000 мемристоров, ОУ, который суммирует, схема функции активации. Всё можно уложить в несколько сотен транзисторов, прямо поверх мемристорной структуры.
                Около миллиона нейронов (по нынешней технологии — с быстродействием порядка десятков гигагерц внутри нейрона) на чип, получаем (в чистых эквивалентных вычислениях) структуру соразмерную человеческому мозгу.

                10Г нейронов — 10000 чипов. Получаем структуру соизмеримой сложности но в миллионы раз быстрее.

                Впрочем, я не думаю, что это нужно для практических применений вообще. Прямо сейчас гораздо нужнее и полезнее примитивные нейросетки, которые БЫСТРО делают какие-то относительно примитивные вещи — сортируют мусор, например. Весь мусор Москвы. В репу. В онлайне.


                У нас перед природой фора: мы можем использовать более скоростные (в сотни миллионов раз быстрее) процессы, в наших схемах выигрыш в скорости распространения сигнала в сотни тысяч раз, мы можем выкинуть навороченные функции самовосстановления из схем, нам не нужно тащить совместимость наших нейронов с какими-нить мускулами только потому, что мы не можем иначе схему выстроить.

                Если мы грамотно используем то, что у нас есть, мы можем превзойти её.

                «Смотрите, я учу вас о сверхчеловеке! Молния-из-черной-тучи-человек!»(с)Ницше
                Так вот Ницше вообще понятия не имел о перспективах. :)

                • Varim
                  /#10078541

                  Подскажите что такое MMAC?
                  ОУ — это что операционный усилитель?
                  1000 мемристоров занимают какой объем/площадь на кристалле?

                  Всё можно уложить в несколько сотен транзисторов, прямо поверх мемристорной структуры.
                  непонятно что вы тут написали, Всё это что именно? Это сколько нейронов и дендритов и синапсов?
                  100 транзисторов и 1000 мемристоров заменят 150 миллиардов нейронов?
                  Как вы так подсчитали?

                  Около миллиона нейронов на чип, получаем структуру соразмерную человеческому мозгу.
                  на чип какой площади? не могли бы вы привести цифры?
                  А сколько там транзисторов и мемристоров, вы точно правильно подсчитали?
                  1М нейронов это всего лишь 1/ 150 000 от мозга.

                  10Г нейронов — 10000 чипов.
                  мозг 150 миллиардов нейронов = 150 000 ваших чипов.
                  Вопрос сколько ножек у чипов, сколько они излучают джоулей теплоты?
                  Сколько километров проводов между чипами?

                  Получаем структуру соизмеримой сложности но в миллионы раз быстрее.
                  Быстрота всего лишь позволит распознать не 1 картинку в секунду, а миллион таких картинок в секунду.
                  Это не плохо, но на мой взгляд нам нужно еще кое что гораздо получше.
                  То чего наш мозг не сделает и за сто лет. Что то что в наш мозг «не влезет», то есть не быстроту, а «мощь» не знаю в чем измеряется, может в «разрядности» может как раз в скорости и способности долго помнить.

                  • k155la3
                    /#10078563

                    MMAC — умножение со сложением в аккумулятор, в DSP часто выделяют в отдельную операцию, для нейросетей тоже самое оно. А ОУ — да, операционный усилитель, на котором нужно собрать сумматор.
                    Нет, несколько сотен гейтов нужно на нейрон, а на 100Г нейронов — соотвественно, несколько десятков триллионов. На нынешних техпроцессах у нас уходит порядка сотни ватт на миллиард транзисторов (постоянно работающих), получается итоговое потребление около мегаватт. Может быть, десятков. Что, в общем-то, учитывая скорость, сравнимо по энергоэффективности с мозгом.

                    Ну и мы же только-только учимся. Кремний — это не вершина технологии. Наверняка, мы можем увеличить ещё раз в 100 плотность упаковки даже на плоскости и снизить потребление ещё как минимум в сотни-тысячи раз.



                    Не совсем.
                    Во-первых, сверхбыстрое решение «простых» задач само по себе даёт новое качество.
                    Во-вторых, скорость во многом разменивается на объём, как сейчас, когда у нас в нашем предельном случае CPU один вычислитель отдувается вообще за все нейроны. Просто по очереди.

                    Если бы у нас был человек со средним интеллектом, но сверхбыстрым мозгом, он был гением и смог бы решить (если б захотел :) многие задачи, которые неподсильны гениям реальным. Потому что опыт, который ДИКО сложно передать от человека к человеку, был бы внутри одной головы.
                    Вдумайтесь — терачисла весов аксонов, и мы их пытаемся передавать со скоростью в сотни бит/с через речь. Да, письменность, рисунки… но какие потери при передаче! И индормации, и, особенно, времени.
                    Уже только то, что «быстрый мозг» не нуждается в такой фигне и всё варится в одной голове — гигантское, чудовищное преимущество.

                    А это лишь малая часть возможностей.
                    Например, посмотрите на мозг слона — он огромен. И бОльшая его часть нужна для управления телом. Неважно, сколько там нейронов, они бесполезны для решения задач, для которых нам нужен ИИ. То же самое с человеком: мы «вычисляем» очень, очень много «лишнего», что не нужно ИИ в решении какой-нить математической задачи.

                    • Varim
                      /#10078595

                      Нет, несколько сотен гейтов нужно на нейрон
                      Важное замечание, что нейрон не надо рассматривать сам по себе.
                      Нужно рассматривать нейрон плюс 100 тысяч его синапсов.
                      Как несколько сот гейтов опишут 100 тысяч синапсов?
                      Возможно ответ зависит от того что вы подразумеваете под гейтами.
                      Если логические элементы — И ИЛИ НЕ, то вы явно ошиблись с расчетами.

                      увеличить ещё раз в 100 плотность упаковки даже на плоскости
                      14 нм = 56 атомов кремния, сможем ли бы ужат ьдо одного атома кремния? чо то у меня сомнения

                      • k155la3
                        /#10078603

                        Ну, 1Е5 синапсов на нейрон мне кажутся перебором… Чисто геометрически таких нейронов не может быть много, иначе бы у нас мозг был бы забит исключительно аксонами, что не так.
                        В целом, нам нужен 1 мемристор на синапс — он будет хранить вес. Нужен ли отдельный гейт на вход — зависит от схемотехники. В КМОП скорее всего нужен, но КМОП тоже все возможности не исчерпываются.


                        Не 56, а минимум 56х56хмного сотен. Да, для логики не нужно много, вообще, идея осуществлять вычисления в (псевдо)кристаллах с трёхмерной структурой — не то чтоб прям вершина. Есть баллистические транзисторы, им хватит одномерной структуры в сотни атомов на каждый.
                        И это мы ещё не трогали объём.

                        • Varim
                          /#10078615

                          1Е5 синапсов на нейрон мне кажутся перебором
                          Тем не менее такие нейроны есть, не все конечно, процент к остальным не знаю.
                          Но вполне возможно что они могут играть в какие то случаях важную роль.
                          Интересно какое типичное количество синапсов у нейрона.
                          Чисто геометрически таких нейронов не может быть много, иначе бы у нас мозг был бы забит исключительно аксонами, что не так.
                          Белое вещество — компонент центральной нервной системы человека, состоящий главным образом из пучков аксонов.

                          56х56хмного сотен
                          тут речь о 3D? но нам это пока недоступно и вроде даже нет идей как это делать.

                          Я не силен в изысканиях физической базы для вычислений, но почему это еще не применяют? (риторический) Наверняка не просто так.
                          Не 56, а минимум 56х56хмного сотен. Да, для логики не нужно много, вообще, идея осуществлять вычисления в (псевдо)кристаллах с трёхмерной структурой — не то чтоб прям вершина. Есть баллистические транзисторы, им хватит одномерной структуры в сотни атомов на каждый.
                          И это мы ещё не трогали объём.
                          с удовольствием послушаю идеи, действительно интересно. Можно ссылки.

                          • k155la3
                            /#10078815

                            НЯП, никто всерьёз ещё не занимался созданием специфичных нейросетевых чипов, на этапе отработки алгоритмов всех устраивают видеокарты.

                            Идеи, ссылки на что? На баллистические транзисторы? :)

                            • Sadler
                              /#10078827

                              НЯП, никто всерьёз ещё не занимался созданием специфичных нейросетевых чипов
                              Никто, кроме IBM, Nvidia, Google, Intel и ещё тучи компаний поменьше.

                              • k155la3
                                /#10078829

                                Даже у гугла близко не то. Потому что не под конкретную апхмтектуру.


                                IBM, Nvidia — универсальные процессоры, чуть более заточенные под некоторые операции нейросетей.

                        • Varim
                          /#10078647

                          Не 56, а минимум 56х56хмного сотен.
                          а что тут имеется в виду, вертикальные «иголки» или горизонтальные «бордюры»?

                        • BigBeaver
                          /#10078707

                          Ну, 1Е5 синапсов на нейрон мне кажутся перебором…
                          Гугл говорит, что 1-10к в среднем разброс.

                • Varim
                  /#10078601

                  Нейросети приемлимо относятся к погрешностям вычисления при работе, мы можем реализовать MMAC в аналоговой цепи: 1000 мемристоров, ОУ, который суммирует, схема функции активации.
                  Когда то были аналоговые вычислительные машины.
                  Сейчас вроде все искусственные нейронные сети цифровые, может стоит развивать оба направления и цифровые и аналоговые.
                  Вот только вопрос к аналоговым, как долго они будут способны надежно хранить информацию…
                  С другой стороны появляется как бы элемент случайности присущий живым НС (у живых НС случайность по крайней мере в части образования связей).

                  • BigBeaver
                    /#10078709

                    Можно делать аналогово-цифровые.

              • dipsy
                /#10078635

                хотя может быть работающий в железе в миллион раз быстрее
                Вооот, начинаем вникать в отличия процессора от мозга, но пока не стоит задачи сделать в миллион раз быстрее, хотя бы повторить. Т.е. параллельности понадобится в условный миллион раз меньше, за счет последовательности. Берем медленный с кучей проводников IDE и заменяем на SATA, казалось бы, проводов меньше, параллельность сильно хуже, а скорость выросла в разы, парадокс? Нет, другой тип вычислителя, как и с аналогом параллельного мозга, сделанном «в кремнии» (в алмазе, графеновой пленке) будет.

                • Varim
                  /#10078641

                  Это всё понятно.
                  Я не описывал работу процессора, только «мозга».
                  Вы бы привели цифры, герцы, количество транзисторов.
                  Допустим даже что будет доступная частота в 1 терагерц.
                  С какой частотой и разрядностью SIMD нужно эмулировать работу 15E10 нейронов (сумма) и хотя бы 15E14 (вес) синапсов, что бы сравнится со скоростью работы мозга?
                  Даже если допустить SIMD не в 512 бит, а в пусть будет 65 536 бит?
                  Конечно зависит от алгоритма, но будет оооочень долго.

                  65 536 бит / 32 = 2048 параллельных сложений (32 — это 20 нейромедиаторов)
                  1E12/2E3=5E8 — терагерц/simd = синапсов подсчитано, не хватает 6 порядков до 15E14, что бы был реал тайм.
                  Что увеличиваем, терагерцы или базу SIMD?
                  Да в живом мозге возможно не все синапсы/нейроны одновременно считаются, но железяке откуда знать что считать что нет?

                  • dipsy
                    /#10078643

                    А даже лень считать, давайте пока нейросети поработают, озадачим их этим вопросом, как лучше сделать, ну как гугль сейчас делает с AutoML. Может и оптимизировать получится как-то.

                  • Varim
                    /#10078645

                    ой умножать надо было 1E12*2E3 = 2E15 что же, сумму 32 битных синапсов посчитать успеем с лихвой, осталось понять успеем ли считать пороговую функцию и что нибудь еще из алгоритма.
                    ну и надо построить быструю шину передачи данных и получить терагерцовую логику

  6. OlegZH
    /#10076639 / +3

    Когда-то давно, когда я ещё увлекался идеями ИИ, я вывел для себя, что ИИ — это метафора, необходимая для самопознания человека. Не более. Искусственного интеллекта нет и не предвидится. ИИ в шахматах, в Го, при распознавании лиц — это всё автоматы. Не более. Здесь нет интеллекта. Да, это очень хорошо, что удалось довольно хорошо оценивать шахматные позиции. Но это полезно не само по себе, а только для того, чтобы иметь инструмент познания. Вот как инструмент познания ИИ — самое то. Отсюда и представление об ИИ, как о метафоре, потому как не сам интеллект делается (его сделать невозможно, для этого надо… гм… воспроизвести целиком всего человека), а глубоко решаются отдельные задачи. Ведь, нам во многих областях нужен некий инструмент для анализа. Но инструмент — это не цель, а средство для достижения цели.

    Вообще говоря, довольно приятно читать хорошо изложенные и довольно здравые и внятные мысли, а не «размышлизмы» на тему. Очень порадовало замечание про то, что человек мыслит всем телом. Здесь было бы крайне уместно вспомнить о статье Уильема Матураны, где он говорил о нервной системе, как о механизме взаимодействия организма со своими собственными внутренними состояниями, и о том, что про взаимодействии двух живых систем смысл вовсе не передаётся, а, на самом деле, привносится самим получателем сообщения, и что речь можно говорить о выравнивании когнитивных областей, а это значит, что классическая схема передачи сообщения для живых систем неприменима.

    Меня, однако, ужасно удручает заявление о том, что «к концу столетия ИИ соприкоснётся и изменит все аспекты нашей жизни». Увы, но, даже, простое наличие компьютеров и всемирной паутины не особенно меняет наш мир. Вместо распределённой сетевой семантической базы знаний у нас есть крайне запутанный клубок весьма уязвимых технологий и протоколов. Социальные сети вместо объединения людей, разъединяют их. Куда нем до мифического ИИ, если мы всюду в Сети воспроизводим всё тот же реальный ми со своими проблемами, вместо того, чтобы менять сам мир, выбирая, при помощи технологий, оптимальные способы взаимодействия и решения задач!?!

    • Fen1kz
      /#10076935 / +3

      Так-то ты тоже тот ещё автомат. Разве ты можешь создать симфонию, написать шедевр?) С чего ты решил что у тебя есть интеллект, а у машин его быть впринципе не может?

    • k155la3
      /#10078515 / +1

      … когда я был маленьким, мой младший брат как-то съел мою шоколадку. На поднятый вопрос родителей о справедливости, он честно ответил: «мне вкуснее!»
      И нечего было возразить ему.

      Откуда Вы знаете, что существуете? Откуда (помимо принципа подобия) Вы знаете, что существуют другие люди? и почему отказываете в существовании сложному «конечному автомату»?
      Да, пока наши нейросетки примитивны (миллион нейронов — это примерно уровень пчелы), странно ожидать от них чего-то кроме поведения сложного автомата. Но разговор-то — о будущем.

  7. Siper
    /#10076689 / +1

    Обезьянка, прыгающая по деревьям, наверное тоже считает что без доступа к бананам человек вообще обречен.
    А на деле ближайние 100 лет ИИ сможет легко эмулировать мозг человека (и это будет не укладчик кафельной плитки).

  8. dfgwer
    /#10076857 / +1

    А я надеюсь, что ИИ придет и разрулит наши управленческие проблемы. Ибо сами мы, этого не можем по определению.

    • ustaspolansky
      /#10077061 / +2

      Возможно ИИ посчитает сушествующее положение дел — Естественным процессом для нашнго вида. В ответе на запрос решения будет одна фраза «Не имеет смысла».

    • darthmaul
      /#10077557 / -1

      ИИ — довольно фантастический концепт, я уже писал выше почему. Создать что-то, сравнимое с человеческим мозгом на основе микрочипов вряд-ли возможно, я уже не говорю о чём-то его превосходящем. Плюс ИИ на основе нейронных сетей автоматически потеряет способность обрабатывать гигабайты данных в секунду, как это делают более простые алгоритмы. А вот создать машину, способную заменить бюрократию и вырабатывать эффективные управленческие решения вместе с человеком (а не вместо его) вполне возможно.

  9. vassabi
    /#10077191

    Посмотрел видео, почитал статью — и больше всего мне нравится инженерная позиция Илона.
    Потому что во всей толпе философов и футурологов он занимается "простым" (сарказм, да) и ясным делом — ускорение и расширение человекомашинного интерфейса :)
    И, кстати, я уверен что это вполне будет и решением проблемы общего ИИ (который быстро вырастет в СверхИИ), и распространения искусственнрго интелекта для всех.


    • Сверх ИИ — потому что мы уже сейчас видим, что можем сделать "ограниченные ИИ", которые умеют решать проблемы быстрее человека (и тем самым помогать). Имея развитой человекомашинный интерфейс, каждый такой оИИ может быть интегрирован "в человека" ( снова сарказм ), как рычаг\полиспаст\экскаватор и увеличивать его мощь — удлинять руки, ускорять ноги и прояснять ум. К тому времени, когда (и если) появится ИИ действительно общего назначения, он будет конечно умнее человека, но это ему не даст никаких преимуществ — все, что он придумает, сможет быть использовано и людьми ;)
    • Распространение — опять-таки, т.к. каждое отдельное изменение быдет появляться не сразу, они успеют распространиться апдейтами, т.е. сначала помогающийИИ первой модели, потом второй, и т.д. и конечно разница между "нет оИИ" и "есть" — велика, однако между "у меня модель М", а "у тебя — М+1" — уже не настолько, чтобы это давало эксклюзивного преимущества какому-нибудь диктатору.

    и я уверен, что такая формула распространения решит и задачу контроля — по типу биткойна. Т.е. не анархия, но власть тех, кто тратит на это свою (электро-)энергию %)

  10. fivehouse
    /#10077195 / -1

    Статья — случайный набор полупроизвольных безосновательных противоречивых и неточных высказываний. В 8 классе за такое сочинение поставили бы 2 балла. И этот человек что-то вздумал критиковать?

    • OlegZH
      /#10077367 / +2

      Статья — случайный набор полупроизвольных безосновательных противоречивых и неточных высказываний.
      Гениальное определение понятия статьи (как таковой)!

      • alex4321
        /#10077587

        Стоп, а если высказывания непротиворечивы — то уже не статья? :-)

  11. saboteur_kiev
    /#10077217

    1. Интеллект не одномерен, поэтому концепция «умнее людей» не имеет смысла.

    Умнее людей — вполне заслуживающая внимания концепция, когда интеллект не подвластен ненужным эмоциям, усталости, недостатке памяти и наконец биологического старения со смертью (и потерей опыта). Искусственный интеллект на базе кремния — предполагается либо вечным (с заменой запчастей, либо с возможностью копирования на новый носитель без потери опыта)

    2. Ни у людей, ни у ИИ нет сознания общего назначения.

    Людей крайне сложно мотивировать делать то, что им не нравится. Общее назначение — опять таки интеллект, у которого нет личных потребностей, может заниматься чем угодно.

    3. Эмуляция человеческого мышления на других носителях будет ограничена стоимостью его создания.

    Это преимущество. Поскольку человеческое мышление ограничено человеком, и совершенствовать его внутри человека — сложнее, дороже и медленнее, чем совершенствовать носители.

    4. Размерности интеллекта не бесконечны.

    Потенциальный рост интеллекта даже только «вширь», гораздо больше, чем рост интеллекта человека, в чем и суть. Никто не планирует создать совершенство, но создать что-то более интеллектуальное, чем мы сами — возможно.

    5. Интеллект – всего лишь один из факторов прогресса.

    ИИ — всего лишь инструмент. Прогресс — вообще просто слово. Нужно ставить контекст.

    • darthmaul
      /#10077243

      не подвластен ненужным эмоциям
      Метод Монте Карло часто эффективнее моделирования «в лоб». Почему эмоции не могут быть тем самым случайным фактором, повышающим эффективность работы интеллекта? Можно рассмотреть живой интеллект как аппроксимирующий рандомизированный алгоритм оптимизации, а «кремниевый» ИИ как детерминированный. Вполне может выйти так, что ИИ без эмоций будет слишком медлительным.
      Общее назначение — опять таки интеллект, у которого нет личных потребностей
      опять же, может ли полноценный ИИ работать без мотивации? Почему нечто, более развитое, чем человек будет выполнять команды человека? Является ли система, не способная к целеполаганию искусственным интеллектом?
      что-то более интеллектуальное
      а что значит «более интеллектуальное»? Мой ноутбук «запоминает» куда больше информации, чем я и намного лучше считает. Сначала нужно выработать критерий «интеллектуальности» (IQ не подходит) и уже потом спекулировать на эту тему.

      • saboteur_kiev
        /#10077827

        «Почему эмоции не могут быть тем самым случайным фактором, повышающим эффективность работы интеллекта?»

        Потому что эмоции влияют на поведение и мотивацию в разные стороны. Если же можно запрограммировать исключительно полезные эмоции, которые повышают эффективность работы, это нельзя называть эмоциями в силу как бы сути.

        «опять же, может ли полноценный ИИ работать без мотивации?»

        Более высокий интеллект может существовать без понятия «личность». Более высокий интеллект, существующий грубо говоря на аппаратуре, контролирующейся человеком не только в плане «у меня в руках вилка от розетки», но и в плане «я могу посмотреть всю твою оперативку и подковырять лишние ненужные мысли». То есть не следует путать ИИ и «полноценный интеллект» под которым многие ошибочно подразумевают понятие личности.

        «а что значит «более интеллектуальное»?»

        А вот тут вы противоречите сами себе. Сперва вы спорите о том, что такое эффективность интеллекта, потом что спорите про полноценный интеллект, а потом вы говорите что не знаете что слово интеллект обозначает.

        Грубое определение интеллекта доступно в википедии — умение познавать окружающее и приспосабливаться к нему используя опыт и оперируя абстракциями (абстракци нужны для того, чтобы уметь спроецировать опыт в чем-то одном на что-то другое, даже если оно очень непохоже — ВСЕГДА можно найти схожесть на определенном уровне абстракции).

        • darthmaul
          /#10078467

          Потому что эмоции влияют на поведение и мотивацию в разные стороны.
          я об этом и говорю, совершенно случайное воздействие на систему, без оценки эффекта. Пример — ввод случайного вектора Х для избежания «застревания» алгоритма на локальном оптимуме.
          Более высокий интеллект может существовать без понятия «личность».
          далеко не факт. Без личности ИИ неспособен к целеполаганию. Т.е да, такой ИИ был бы хорошим и безопасным помощником, но как можно его сравнивать с человеком и называть «более высоким интеллектом»? Обычные ПК по многим пунктам (вычисления, память, скорость поиска информации) многократно опережают умнейшего из людей, но интеллектом вообще не являются. Способна ли такая система выполнять творческие задания? Есть такая философская мысль о том, что творчество — результат восприятия окружающего мира своим эго. Машина без личности тогда творить не сможет. Кстати, в какой-то фантастике было довольно интересное разделение: ИИ — это машина, имеющая личность и/или способная сама ставить себе задачи, а ВИ (виртуальный интеллект) — системы, не имеющие своего сознания или воли, но благодаря огромной производительности способны выполнять широкий спектр задач и воспринимать команды в свободной форме. Что-то мне подсказывает, что Вы говорите о втором концепте.
          Сперва вы спорите о том, что такое эффективность интеллекта
          лишь высказываю догадку о том, что эмоции могут и не быть «багом» нашего тела, а, наоборот, полезной оптимизацией.
          не знаете что слово интеллект обозначает
          Я не знаю, может ли что-то, не имеющее собственной воли быть интеллектом.
          определение интеллекта доступно в википедии — умение познавать окружающее и приспосабливаться к нему используя опыт и оперируя абстракциями
          тогда нужно признавать, что поисковой алгоритм Гугла является интеллектом: для него окружение — Интернет, он его успешно познаёт и классифицирует, оперирует абстракциями как извне (поисковые запросы) так и «внутри» (как минимум абстрактное понятие «плагиат» он понимает). А если отойти от детских примеров, то под Ваше (или википедийное) описание подпадает большинство систем machine learning.

  12. dipsy
    /#10077219 / +1

    Автор демагог и цепляется к неточным (но интуитивно всем (кроме автора, видимо) понятным) формулировкам относительно (искусственного) интеллекта. Если бы можно было сформулировать точнее, то проблема создания ИИ бы не стояла, т.к. это было бы эквивалентно пониманию интеллекта, чего сейчас нет.
    По 1 пункту только скажу, сверх-ИИ даже не нужен, нужен ИИ уровня человека (понимайте как хотите), только работающий быстрее, ну скажем в 10(0) раз и потребляющий сравнительно немного ресурсов, чтобы можно было организовать команду из множества таких ИИ для совместной работы. Такая система решит любые мыслимые человеческие проблемы за приемлемые для человека сроки.

    • frees2
      /#10077225

      Достали эти белковые чуваки. Может кто на смену умнее придёт. Мы слишком себя переоцениваем.

      • Kardy
        /#10077325

        по сравнению с кем?

        • frees2
          /#10077967

          Шкала может быть и внутри группы, тот же ай кью.
          И внешняя шкала, в птичьих мозгах идёт более производительная обработка информации, там не нужны извилины.

          • Varim
            /#10078203

            ай кью — вы когда нибудь интересовались что и как именно меряет ай кью? Мне вот непонятно, какие то попугаи.
            там не нужны извилины — предположу что вы думаете что человеческий интеллект завязан на извилины, но нет, измерения извилин показали что от развитости извилин ничего не зависит.

    • Delics
      /#10077511

      только работающий быстрее, ну скажем в 10(0) раз

      Отвечу вопросом в стиле статьи (которая мне очень понравилась, т.к. это глоток свежего воздуха в среде крикунов, насмотревшихся «Терминаторов»):

      — какие у вас доказательства, что мозг человека не работает на максимально возможной скорости для такого типа интеллекта?

      • red75prim
        /#10077549

        Общее количество спайков нейронов в мозгу в единицу времени, ограничено не фундаментальными пределами, а теплоотводом, количеством подводимых питательных веществ, скоростью обратного захвата медиаторов, шириной родового канала (что не позволило эволюции сделать 4-х килограммовый мозг).

        • gerahmurov
          /#10077625

          Т.е. вы предполагаете, что в конечном итоге мы сможем как-то решить проблемы мгновенного теплоотвода, бесконечного питания и ширины туннелей метро для транспортировки после производства на серийном автомате в цеху? Не слишком ли это далеко от реальности?

          • red75prim
            /#10077669 / -1

            Откуда взялась бесконечность? Я отвечал на конкретный вопрос: почему человеческий интеллект вряд ли лучший в своём классе, и можно ли его ускорить в 10 раз.

      • dipsy
        /#10077611

        Вопрос действительно в стиле статьи, только хуже. Для «такого» это какого? Но я не буду углубляться, как в статье, допустим я понял для какого именно, интуитивно. Но и интуитивно же мне кажется, что какая-то сверхплотная и более быстрая обработка информации должна сопровождаться как минимум значительным тепловыделением, что в мозге по интуитивным, опять же, соображениям, сильно ограничено «здравым смыслом» эволюции и использованным для построения этого вычислителя «железом».

        • Deerenaros
          /#10077949

          По поводу тепла, бежим читаем принцип Ландауэра. К слову, никто не говорит, что невозможны обратимые вычисления, тот же ДНК.

          Эволюция не бесконечно идеальна. Мы находимся на одном из локальном экстремуме эффективности, но это совершенно не значит, что нет эффективности выше. Есть. Ну и да, логично предположить, что раз уж наш мозг развивает мощность в какие-то там 100 Вт, то нет никаких проблем запустить сотню процессоров на 1 кВт.

  13. Afterk
    /#10077269

    Я продолжу эти рассуждения и скажу, что единственный способ получить близкий к человеческому процесс мышления – запустить вычисления на мягкой и влажной ткани, похожей на человеческую.
    Возможно что это так (хотя если речь про скорость, то есть же люди с мозгами на порядок быстрее обычных). Но почему-то ни слова об органах чувств, а они здесь важнее. И опыт, сын ошибок трудных…

  14. fastwit
    /#10077271

    Угроза от ИИ только в том, что люди могут его направлять против друг друга. Сейчас военные могут (и делают скорее всего) умное оружие, которое рано или поздно будет применено против живых людей. Этому виду ИИ даже не нужно себя осозновать, чтобы быть угрозой и это уже есть сегодня. Или например, в медицине начнется массовое полагание на ИИ. Не исключены ошибки и сбои в работе такой сложной системы, поэтому найдутся те, кто будет на каждом углу кричать, что ИИ — угроза человечеству.
    Мы и дальше будем развивать это направление. И оно очень сильно нас продвинет в будущем. Но ИИ который сможет осознать себя подобием человека мы никогда не построим. А тот супер ИИ, если все-таки построим, нам будет не дано понять и оценить относительно нашей шкалы разумности/осознанности.

  15. maxpax
    /#10077273

    IMHO когда ИИ достигнет близкого уровня к человеческому, произойдет экспоненциальный рост уровня интеллекта. Его развитие не будет сдерживать жесткая ограниченность ресурсов, как у человека. И человек для него быстро станет что-то вроде обезьяны для нас.

  16. arielf
    /#10077285

    Я продолжу эти рассуждения и скажу, что единственный способ получить близкий к человеческому процесс мышления – запустить вычисления на мягкой и влажной ткани, похожей на человеческую. А это значит, что очень большие и сложные ИИ, работающие на сухом кремнии, дадут нам большие, сложные и нечеловеческие типы мышления. Если станет возможным создать искусственный влажный мозг с использованием выращенных нейронов, похожих на человеческие, то я бы сказал, что его мысли будут очень похожими на наши. Преимущества такого влажного мозга пропорциональны тому, насколько похожей мы сможем сделать основу. Стоимость создания такого «человеческого компьютера» огромна, и чем ближе ткань к ткани мозга, тем эффективнее по стоимости будет просто создать человека. В конце концов, это мы можем сделать за девять месяцев.
    Но Дэвид Дойч прекрасно обосновал принципы вычислимости и универсальность разума, и я с ними во многом согласен. Возможно, мышление — не менее фундаментально, чем эволюция и законы физики. А автор не привёл никаких аргументов и объяснений, кроме того, что он несогласен.

  17. AntonSor
    /#10077297

    Искусственному интеллекту не нужно быть во всем умнее всех людей. ИИ нужно выполнять работу лучше того человека, которого собрались заменять. Остальное избыточно.
    И это условие уже начинает воплощаться.

  18. 1Tiger1
    /#10077399 / +1

    Ух ты, первая на гиктаймс качественная, умная, логичная статья по ИИ. Согласен с автором практически во всем. Прежде чем «верить» в ИИ стоит просто пройтись по этим пунктам и попытаться их научно опровергнуть. Тупо сухой логикой и примерами. Без всяких верований, надежд и экстраполяций в духе «ну прогресс же постоянно развивается», «ну раньше тоже думали что больше 10 компьтеров миру не нужно», «закон мура требует удваивать», «ну мы же знаем что еще не все знаем, завтра что-то такое придумают классное чего мы счас даже прикинуть не можем (но очень ждем)» и попытаться отойти от антропного принципа уровня «ну человек же умнее муравья», «ну мы же универсальны и можем делать любые задачи а ИИ сможет еще быстрее и еще лучше, калькулятор же быстрее человека». Задуматься что такое на самом деле интеллект, без религиозного фанатизма что это вершина всего и нечто священное, непознаваемое и может все — это инструмент, тупо один из инструментов выживания, и ограниченный довольно, и если люди считают что они «умнее» муравьев — пусть сначала просуществуют такой же срок как муравьи а потом уже делают такой вывод. Обидно, корона «вершины эволюции» сваливается, ну мы же тут умные, логичные, умеющие думать, почему же тогда в самых сложных вопросах тупо следуем эмоциям, вере и убеждениям, не пытаясь их проверить сомнением? Так проще наверное, спокойнее и веселее.

    Больше всего мне в статье нравиться как рассписана нелинейность развития разума, вот всегда были такие мысли но тут четко сформулировали и разжевали. И из этого тезиса столько интересных выводов получается. Ну не буду раздувать комментарий.

    Да, эта статья все равно не убедит ждунов сингулярности и тем более фанатиков «уступим место на земле более развитому разуму», ибо там где есть вера логике не место, но у нее есть один огромный плюс: мне теперь можно не писать большие и толстые комментарии в религиозных статьях по ИИ, пытаясь заставить людей думать а не тупо надеятся и ждать чуда и решения всех проблем, а можно просто бросать ссылку на эту статью.

    SLY_G персональное спасибо за наводку на нового, скорее всего хорошего, автора, а то у меня опять кризис «что бы почитать».

    • red75prim
      /#10077947

      ну мы же универсальны и можем делать любые задачи а ИИ сможет еще быстрее и еще лучше, калькулятор же быстрее человека

      Перед тем как радоваться как автор разоблачает верунов в ИИ, подумайте, откуда вы знаете (и знаете ли), что разум человека не универсален. Например, приведите задачу, которую человек принципиально не может решить, а разум какого-то другого типа сможет.

      • SLY_G
        /#10078063

        Часто вопрос не в том, может — не может, вопрос в эффективности. На примере белки из статьи.

        • red75prim
          /#10078229

          Белка из статьи как-то не впечатляет — специализированная адаптация для компенсации отсутствия разума общего назначения. Человек решит такую задачу и без спец-отдела мозга для запоминания мест хранения орешков (ставя условные пометки, например).


          Все такие специализированные адаптации не могут превосходить определенного порога сложности из-за ограниченного объема ДНК (или иного носителя наследственной информации), а значит могут быть кодифицированы, автоматизированы и превращены во вспомогательный внешний механизм носителем разума общего назначения.


          Примеров специализаций других типов я в статье не видел.

      • 1Tiger1
        /#10078305

        Ну во первых, правильный, научный, логичный подход это доказывать что-то а не опровергать (опровергать можно но уже доказанное). То есть я ставлю аксиому «мы не знаем на данный момент универсален ли наш разум или нет», далее нужно доказать что он универсален или доказать что нет. Далее можно опровергать и снова доказывать тот или иной тезис. Постепенно теория развивается, обрастает доказательствами и дает плоды.

        У вас же я вижу подход: вы ставите аксиому «разум человека универсален» и требуете теперь опровергнуть ее. Но опревергнуть толком не получиться, вы взяли на веру одну из полярностей (универсален) и теперь мне чтобы переубедить вас нужно не просто привести доказательства а изменить вашу веру, как минимум в сторону «мы не знаем на данный момент универсален ли наш разум или нет». Что будет очень непросто. Воздействовать на веру логикой практически невозможно. Согласитесь, не очень эффективный подход.
        Кроме неэффективности есть еще один огромный минус, для большинства людей уже эти опровержения и не нужны, у них уже есть тезис который они взяли на веру и менять свою картину мира они не хотят. Это свойство нашего разума, не сказать чтобы положительное но и без него было бы очень плохо.

        Поэтому я и называю такой подход религией, есть вера, есть убеждения, нет сомнений. И в целом вера нужна, и даже религия тоже нужна (не путайте религию и церковь), но это отдельный разговор. Проблема в том что очень часто это скатывается до состояния полной зашоренности. «Я так считаю» и все, и никакие аргументы не заставят людей задуматься, засомневаться, попытаться развить теорию вширь а не только в том направлении что им нравиться. И если исходный посыл оказывается ошибочным — все тупик.

        Ну и развлечения ради, а не в надежде переубедить (хотя однажды на этом ресурсе меня поблагодарили за комментарий с формулировкой «вы заставили задуматься и пересмотреть многие вещи», это все же доказывает что есть надежда), примеры:
        — банальные арифметические операции с большими числами (есть исключительные люди которые это могут, но это исключение)
        — однофакторный или многофакторный анализ с большим количеством связанных обьектов (да пусть хоть та же задача коммивояжера), мы это делаем, но с очень плохой точностью, и сложность значительно растет с добавлением каждого нового обьекта
        — максимально быстрая но точная оценка событий и реакция на них (наши лучшие реакции — рефлексы, разумом толком и не пахло)
        — возможность эффективно работать на протяжении долгого времени без перерывов
        — мое любимое: инертность, нежелание изменять картину мира и принимать новое (и не говорите мне что не встречали людей которые вместо того чтобы разобраться тупо запоминают порядок действий, это только один из примеров), в терминах задачи: мы не можем выполнять абсолютно обьективный анализ ситуации, наше отношение и восприятие ситуации всегда будет влиять.
        — получать и передавать информацию без искажений (карта не территория, язык не передает мысль полностью, читая книгу мы накладываем текст на свой опыт и воображение и прочее, невозможно передать достаточно сложную информацию между двумя людьми, так чтобы приемник ее понял абсолютно аналогично передатчику, то что я счас пишу вы поймете по другому, хотя мы оба пользуемся хорошо знакомым нам языком. и это проблема не только ограниченности языка, но и моих и ваших картин мира, способов мышления и эмоций).
        — возможность с одинаковой эффективностью выполнять любую задачу из доступных (у всех нас есть вещи которые мы любим делать и которые не любим, мотивация разная, эффективность разная). Хотя это скорее тезис в сторону неуниверсальности и не невыполнимая задача как вы просили.
        можно продолжать долго, я привел самые интересные.

        Вы может скажете что многие задачи мы можем выполнить (счас или в будущем) с помощью создаваемых нами инструментов. Спорить не буду, я про это и говорю. И автор этой статьи. ИИ нужны, но нужны как инструменты под нужную задачу. Если мы создадим ИИ повторяющий в мышлении человека и начнем ставить ему задачи, он почти наверняка начнет создавать инструменты для решения этой задачи (простые или сложные, вплоть до узкоспециализированных ИИ). И он не будет добавлять этот инструмент в себя, это просто не нужно, это так же глупо как встраивать шуруповерт в палец. Почему тогда не упростить и не повысить эффективность, зачем лишнее звено, пусть человек сразу создает специализированные ИИ, пусть даже он создаст специализированный ИИ который поможет в разработке и тестировании других ИИ.
        Можно конечно рассматривать инструменты как часть разума (хотя он тоже инструмент): компьютер как часть интеллекта пользователя, шуруповерт как часть руки, но тогда мы уже спорим по терминологии и сначала нам нужно с ней определиться. Если так, то спорить не буду, при удачном стечении обстоятельств мы в будущем (возможно отдаленном) сможем решить любую поставленную сейчас задачу. Но речь ведь про настоящее а не далекое будущее. В будущем при удачном стечении и колония муравьев и белка сможет решить любую поставленную задачу, вопрос времени и этих самых случайных обстоятельств.

        А теперь главное доказательство неуниверсальности разума человека: мы все мыслим по разному, нет такого формализованного понятия как «разум человека», у каждого человека он немного свой и причины в этом в его опыте и выработавшихся способах анализа информации. Наше мышление — продукт нашего опыта, и даже для одного человека оно не постоянно, в 10 лет и сейчас вы думали по разному, как и я, и через 40 лет я буду думать не так как счас. Не думаете что это уж очень слишком, вот такая изменчивость и зависимость от опыта для универсального инструмента способного в любой момент выполнить любую задачу (если у вас другое определение универсальности — дайте его)?

        черт, опять не удержался и написал комментарий размером со среднюю статью. И что со мной не так. О точно, прокрастинация, нелогичность и бессмысленность действий ( в попытках изменить чужую точку зрения, при полном осознании маловероятности этого результата) — вот еще пару факторов которые мешают быть разуму универсальным. Был бы он у меня универсальным, счас бы делом занимался а не длинные тексты писал.

        • BigBeaver
          /#10078333

          Зависит от определения универсальности. Которого нет в статье, как и определений разума/интеллекта.

          Если называть этим словом принципиальную возможность решать произвольные новые задачи, то «мозг универсален» будет хорошим фальсифицируемым утверждением, полученным из обобщения опыта. И тот факт, что большинство задач он решает плохо — плата за универсальность. В этом случае ваши примеры мимо.

          Если в определении будет «одинаково эффективно решает любые задачи», то хватило бы любого из ваших примеров. Но такой разум я бы назвал скорее «идеальным», чем «универсальным». И вот сама возможность его существования стоит под большим вопросом. Насколько я понимаю, именно его критикует обсуждаемая статья.

          • 1Tiger1
            /#10078391

            В этом то и дело, «плата за универсальность». Я добрался до второй главы The Inevitable этого автора (кстати есть и на русском, но по качеству перевода не скажу ничего) где как раз речь о «когнитизации» мира и там эта тема расскрывается полнее чем в статье. Ни я ни автор не борцы против AI, автор вообще смог нарисовать великолепную картину внедрения ИИ в общество. Но и я и автор утверждаем что универсальный ИИ не нужен и что интеллект человека тоже не универсален (поэтому строить ИИ идентичный человеку но только быстрее не нужно, разве что как способ изучения разума человека).

            Тысячи и миллионы узкоспециализированных ИИ гораздо эффективнее чем один (или миллионы) общих, универсальных ИИ. Как человек тоже идет по пути все более глубокой специализации, только тут ИИ сразу строиться под нужную задачу. Причем некоторые настолько сфокусированные под задачу что совершенно не похожи по способу мышления на все что мы встречали в природе, и даже если мы можем понять принципы их работы мы не можем повторить результат.

            Под универсальностью я имею ввиду именно «одинаково эффективно решает любые задачи» причем одинаково хорошо, даже великолепно. Идеальный — ну ок, вопросы терминологии.

            С терминологией вообще беда, я на гиктаймсе видел одно время статью о том что термин ИИ и AI скорее мешает чем помогает, запутывает, заставляет обьединять в одну группу кучу совершенно различных инструментов. И я полностью согласен. Автор использует в основном термин «когнитивный». Когнитивные алгоритмы, когнитивные механизмы, но и это не идеально, так как термин завязан на людей. А мы все же делаем и будем делать инструменты которые смогут эффективно выполнять узкую задачу совершенно другими способами чем человек.

            «Если называть этим словом принципиальную возможность решать произвольные новые задачи» — я уже написал раньше, это довольно бессмысленное утверждение, вопрос времени и случайностей (или умышленных действий) и можно рассматривать что угодно что способно решить любую задачу. Хоть белка, хоть муравей. К тому же «произвольные новые задачи» — бесконечное множество. То есть в такой трактовке можно говорить только если есть ограничения по времени и по набору задач, иначе бессмысленно.

            Ну и пару вещей из книги которые очень понравились (вольный краткий пересказ):
            С учетом того что все эти AI очень разные и очень специализированы, и следовательно они будут «мыслить» совсем не как человек и все примеры разума которые мы знаем в природе, они для нас абсолютно аналогичны инопланетному разуму и термин AI со временем стоит расшифровывать как alien intelligence a лучше преобразовать в AA (artifitial aliens) и в взаимодействии с ними мы получим те же профиты как в взаимодействии с инопланетным (чужим) разумом.

            С каждым новым AI мы будем терять (заменять) то что отличает человека от всех остальных видов. С одной стороны это очень опасно, мы будем не только терять работы но и желание и мотивацию заниматься определенной деятельностью, так как определенный AI делает это лучше. Но при этом мы (тут добавляю от себя — если успеем) благодаря этому сможем понять что есть человек на самом деле, каковы его задачи, уникальность и ниша. Этакое экстремальное самопознание в рамках всего человечества. Тезис очень интересный, но, имхо, человеческий интеллект к такому обрезанию всего «лишнего» совсем не готов, тут старшее поколение с трудом принимает новые технологии и многие не могут принять и адаптироваться, да и не только старшее, все мы этим страдаем, а тут в довольно короткие сроки (автор называет 30 лет, но даже 50 будет не много) мы практически полностью избавимся от «вот эту задачу может сделать только человек или по крайней мере сделает это лучше чем кто либо» и у тех кто не сможет постоянно развиваться и адаптироваться под меняющийся мир просто ничего не останется кроме потребления. И боюсь таких будет очень и очень много, превалирующее большинство.

            «как и определений разума/интеллекта» — нет и никогда не будет, проблема языка и понятийного аппарата, тут как с богом, абстакция высшего уровня в которую почему-то определили кучу разных механизмов, задач и инструментов для их решения, да еще добавили самосознание, привычки, мораль, эмоции и разбавили антропным шаблоном мышления. И все это мы теперь дружно натягиваем на машину, кто как хочет и ждем появления супперинтеллекта (который будет умнее, правда не знаем именно в чем, во всем наверное). И еще рейтинги строим, человек умнее собаки, угу, а апельсин вкуснее котлеты. Абсурд.

            Нужны новые определения и понимание — где инструменты помогающие в адаптации(выживании) вида, где тот странный бзик эволюции благодаря которому человек смог решать задачи с помощью создаваемых им инструментов, где Я и самосознание, каково влияние химии, электричества, может и квантового уровня, ну и как все это связано и работает. Разберемся — постепенно дадим термины. А пока «интеллект» и «разум» как раньше была «душа», никто не знает что это такое и для чего нужна, но все уверены что есть у каждого человека и спорят может есть у животных — тупо абстракция без особого конкретного смысла и деталей кроме других абстракций.

            • BigBeaver
              /#10078393

              Тысячи и миллионы узкоспециализированных ИИ гораздо эффективнее
              С этим я полностью согласен.
              Под универсальностью я имею ввиду именно «одинаково эффективно решает любые задачи» причем одинаково хорошо, даже великолепно.
              А при таком определении и с остальным тоже. Полагаю, вопрос состоял в кривой терминологии и теперь полностью исчерпан.

        • red75prim
          /#10078353

          Для того, чтобы точка зрения была верой, требуется отсутствие достаточных оснований. Для точки зрения "человеческий разум не универсален", я пока вижу аргументы вида "ну не может же он быть универсальным на самом-то деле". Основания для противоположной точки зрения — вся человеческая культура, наука и технологии. Выводы о том, что мне кажется ближе к вере, делайте сами.


          И он не будет добавлять этот инструмент в себя, это просто не нужно, это так же глупо как встраивать шуруповерт в палец.

          Встраивать шуруповёрт в палец глупо, потому-что это ухудшает другие характеристики, давая преимущества только в узком классе задач.


          Но люди постоянно занимаются чем-то похожим — научился водить машину, и уже не требуется сознательный контроль за каждым действием, в мозге образовался полуавтономный модуль вождения машины. Для интернализации такого "шуруповёрта" наш мозг неплохо подходит.


          Возможности ИИ по интернализации различных навыков, естественно, будут превосходить возможности человека, так как не будет ограничены особенностями нейробиологического субстрата мышления. Что сделает связку человек — специализированный ИИ, менее эффективной, чем ИИ общего назначения, способный решать, какие возможности стоит интернализировать, а какие оставить как внешние инструменты.


          А теперь главное доказательство неуниверсальности разума человека: мы все мыслим по разному, нет такого формализованного понятия как «разум человека», у каждого человека он немного свой и причины в этом в его опыте и выработавшихся способах анализа информации

          Как это уменьшает универсальность? Это просто значит, что решения возникших задач будут разными, один человек сам решит уравнение, другой воспользуется вольфрам-альфа, третий убедит, что решать уравнение не надо, а надо напирать плотнее, четвертый спросит знакомого математика и т.п.


          Не думаете что это уж очень слишком, вот такая изменчивость и зависимость от опыта для универсального инструмента способного в любой момент выполнить любую задачу (если у вас другое определение универсальности — дайте его)?

          У вас получился не универсальный, а всемогущий инструмент. Универсальность, в моём понимании, — потенциальная способность решить любую задачу (возможно используя внешние ресурсы) или понять, что сейчас эту задачу решить невозможно/слишком затратно, вернуться на уровень выше и переформулировать задачу так, чтобы её можно было решить (пусть даже с потерей оптимальности решения).

    • SLY_G
      /#10078055 / +1

      Пожалуйста. Я и сам так же отреагировал: ух ты, первый здравый текст из длинной серии статей по ИИ, которые я перевожу.

  19. Wesha
    /#10077451 / -1

    Пришелец посмотрел на Аркадия и печально спросил:

    – В чем тут фокус? Мы ведь тоже ограничивали свои наносистемы… как могли. Но все равно выпустили из-под контроля, и наноботы сожрали наши планеты, наши корабли и нас самих!

    – Фемтотехнологии, – пояснил Аркадий. – Кварковые процессоры и адроновые фемтоботы. Следующая саморазвивающаяся разумная система. С помощью наноботов мы создали фемтоботов – вот и все. Вы зря остановились на полпути.

    – Это понятно! – воскликнул Пришелец. – Но почему фемтоботы защищают вас от наноботов? Как вы этого добились?

    – Никак не добивались, – усмехнулся Аркадий. – Видите ли, уважаемый гость, с молекулами-наноботами мы все-таки живем в одном мире. Простом, материальном, вещественном, конечном… Зато с кварками людям делить нечего. Это понимаем и мы – и они!

    – А когда делить нечего – это залог крепкой, верной и бескорыстной дружбы! – радостно воскликнул Пришелец, протягивая Аркадию руку.
    Сергей Лукьяненко. Нечего делить.

  20. red75prim
    /#10077785

    По-моему, все рассуждения автора, касающиеся многомерности интеллекта, можно отвергнуть поскольку (в его терминологии) это — ничем не обоснованная вера в то, что искусственный интеллект будет подобен человеческому мозгу в плане его нерасширяемости, вера в то, что разум — это что-то единое, обладающее неизменным (как по составу, так и по величине) набором возможностей (измерений интеллекта). Хотя исследования структуры мозга показывают, что это не бесструктурный кусок вычислительного субстрата, а система, содержащая подсистемы, выполняющие разные задачи.


    Возьмём вот это высказывание


    ИИ будет следовать той же самой инженерной максиме, которой следуют все созданные или рождённые вещи: нельзя оптимизировать каждое измерение. Возможны только компромиссы.

    Хорошо видно, что автор даже не замечает неявное предположение, которое он сделал: "нельзя оптимизировать каждое измерение ОДНОВРЕМЕННО". Идея о разуме, который может реконфигурировать свою структуру для оптимизации измерений, необходимых в данный момент, не приходит ему в голову.

  21. Tertium
    /#10077847

    Очень круто, редко мне встречаются такие статьи по философии ИИ и отношения к нему. Заставляет в корне изменить угол зрения на некоторые вещи.

    • Bedal
      /#10080373

      Не давайте себя обмануть, философия — всего лишь жонглирование словами, ничегошеньки реального она не даст — кроме зарплаты для философа.

      • Valerij56
        /#10080627

        Ваше утверждение, кстати, вполне себе образец подобной философии. Хотя, вероятно, абсолютно бескорыстной.

        Философия — вполне себе наука. Просто слишком сложная и отвлечённая, поэтому для нкоторых недоступная. Как физика лементарных частиц, примерно.

        • Bedal
          /#10080725

          ай, бросьте. Сначала наука вышла из философии — навсегда. Напоследок философия подарила человечеству фашизм и коммунизм. И — всё, остались одни слова.

  22. garisson
    /#10077857

    >Второе заблуждения, связанное с человеческим интеллектом – наша вера в то, что наш разум универсален, это разум общего назначения.

    осталось только показать, почему это заблуждение. Однако автор предпочел постулировать, что человеческий ИИ — узкоспециализирован. В чём заключается специализация — осталось загадкой.

    >Однако, включив время, можно будет существенно переопределить этот принцип: «Две вычислительные системы, работающие на сильно различающихся платформах, не будут эквивалентными во времени». Или: «Единственный способ получить схожие модели мышления – запускать их на эквивалентных платформах».

    тут неявно постулируется, что неестественная платформа будет медленнее «мягкой и влажной ткани», что вовсе необязательно. Соответственно, выводы некорректны

    >Более того, как указано выше, мы думаем при помощи всего тела, а не только лишь одним мозгом

    Не думаем всем телом, а мозг получает сигналы о состоянии тела. Это разные вещи. Мотивации направленные на поддержкание гомеостаза тоже можно эмулировать, но вряд ли это нужно 1:1 — для контроля и мотивации достаточно простой схемы тревожность прямо пропорциональна кол-ву невыполненных заданий.

    • saboteur_kiev
      /#10077901

      «что человеческий ИИ — узкоспециализирован.»
      В выживании вида, вестимо )

      • fireSparrow
        /#10077925

        Более правильно утверждать, что человеческий интеллект — это система, построенная из большого числа узкоспециализированных интелектов, конфигурация которой заточена под распространение своего генетического кода

        • red75prim
          /#10077953

          И оказавшаяся способной решать широчайший круг задач, границ которого мы не знаем.

    • SLY_G
      /#10078067

      Наш разум специализирован в том смысле, что он появился для того, чтобы наш вид выжил в конкретных условиях конкретной планеты. А доказывать тут пока нечего — пока нет чёткого определения разума и границ его возможностей, любые доказательства будут умозрительными. Просто кто-то считает, что наш разум универсален, но доказать этого не может. Автор считает, что разум специализирован, и его аргументация вполне логична. Хоть какая-то аргументация. А считать, что разум универсален — это опять тот же самый эгоцентризм, как в случае с Землёй — центром Вселенной.

      • garisson
        /#10078155

        >Наш разум специализирован в том смысле, что он появился для того, чтобы наш вид выжил в конкретных условиях конкретной планеты

        опровержение этого тезиса: мы умеем выживать и в условиях, не встречающихся на нашей планете. Т.е. «естественный интеллект» получился универсальнее, чем требуется для выживания на планете Земля.

        >А доказывать тут пока нечего — пока нет чёткого определения разума и границ его возможностей

        ну… определение есть, теории нет (общей, по крайней мере). Что такое границы возможностей интеллекта — не очень понятно. Любая алгоритмически неразрешимая задача — вот граница, например.

        в общем-то даже в ситуации «определения нет и ничего непонятно» — доказывать утверждения надо

        >Просто кто-то считает, что наш разум универсален, но доказать этого не может.

        наш разум теоретически может решить любую задачу, а не только складывать в столбик, например. Чем не «универсальность»? Если бы мы умели решать только один класс задач — то да, можно было бы говорить о специализации. Но, извините, задача «выжить на планете Земля» — это не специализация, а как раз требование универсальности — задача-то слишком абстрактная.

  23. Sdima1357
    /#10078069

    Отсутствие на Земле инопланетных сверхразвитых роботов, скорее говорит в пользу автора статьи. Или о том, что он один из них....:)

    • alex4321
      /#10078715

      Или в пользу того, что FTL любого вида таки невозможен — потому дальний космос оказался не нужен :-)

  24. andrey_gavrilov
    /#10078071

    Но этот сценарий завоевания мира ИИ включает в себя пять предположений, которые, как выясняется при их внимательном изучении, не основаны на доказательствах. Эти заявления в будущем могут оправдаться, но сейчас ни у одного из них нет доказательств. Вот эти предположения:

    1. ИИ уже становится умнее нас, и его мощь растёт экспоненциально.


    — выделенное, вкупе со всем процитированным, неверно. Это очевидно не является обязательным требованием в убеждениях, с которыми борется автор исходной статьи.

  25. ledov
    /#10078073 / +1

    Так нельзя с любимыми объектами бреда нынешних интеллектуалов. О чем они будут теперь влажно мечтать?
    Автор невыносимо жесток.

  26. LorDCA
    /#10078535 / +1

    Согласен с автором, но есть некоторые уточнения.
    Если рассматривать мозг с чисто механической точки зрения, отбросив всю философскую муру, которая мешает правильно оценивать. То получим набор очень тесно пересекающихся паттернов. Даже наши слова есть суть звуковые паттерны описывающие что либо. Так вот с этой точки зрения интеллект будет определятся количеством одновременно активированных нейронов в отдельно взятый момент времени. Что подводит нас к мысли что машина в данном случае не ограничена химией и сможет «анализировать» больший кусок своей памяти.
    Все собираюсь написать статью о своем проекте, и все как то не до того. С таким подходом очень наглядно видно как решаются проблемы нечеткого соответствия и контекста.
    Пока прилеплю скрин тут, если наберется достаточно желающих, то сяду за написание своей теории.
    image

  27. Andrey_Epifantsev
    /#10079349

    Мне кажется взаимоотношения людей и ИИ могут быть похожи на взаимоотношения людей и собак или людей и лошадей. На начальном этапе сотрудничество взаимовыгодно. Благодаря сотрудничеству с людьми собаки и лошади распространились по всей Земле и их численность многократно превысила численность их диких предков. Но люди в этом партнёрстве оказались главней и в итоге люди решают, что будут делать лошади и собаки, как они будут жить и сколько их будет.
    Так же и искуственный разум может принести огромную пользу людям, но со временем он станет главней и он будет решать, как людям жить, что им делать и сколько их должно быть. И вообще быть им или они больше не нужны для цивилизации.

  28. ilansk
    /#10080251

    Google нашла эффективный способ, как обучать ИИ создавать еще более мощные ИИ
    https://hi-news.ru/technology/google-nashla-effektivnyj-sposob-kak-obuchat-ii-sozdavat-eshhe-bolee-moshhnye-ii.html

    • gerahmurov
      /#10080269

      Казалось бы, что может пойти не так.

  29. redpax
    /#10083881

    Чем тест Тьюринга не способ дать определение человекоподобного ИИ или даже сверх ИИ?


    К статье много претензий начинаю с ерунды про одинаковый уровень эволюции всех существ и заканчивая недостатком понимания, что человечество сейчас испытывает не проблемы с мышлением, а проблемы с обработкой гигантских массивов данных, что для ИИ не будет являться ограничением. Уже на тёкущий момент имея способность обработать гигантские массивы данных нейросети ставят диагнозы в медицине значительно лучше людей.


    Сделайте ИИ уровня макаки но с возможностями обработки огромных массивов данных и вы уже получите поразительный технологический прорыв для человечества и не потому, что ИИ уровня макака лучше мыслит, а потому, что в процессе мышлени использует значительно больше данных чем может освоить за свою жизнь человек.