Двач.hk не отвечает.
Вы видите копию треда, сохраненную 2 мая 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
742 Кб, 3236x2000
Хочу найти погромистов, которые в свободное время интересуются реализацией ИИ, пытаются что-то кодить в этом направлении, делают роботов, паяют схемы и все такое. Ящитаю, надо как-то кооперироваться тем, кто хоть что-то пытается практиковать, делиться опытом и идеями вместо всяких там срачей ниочем из треда в тред и подобной кукаретики. Запилите какую-нибудь конфочку, например, или позовите в уже действующие сообщества, если есть такие. Основной критерий членства это человек хоть что-то пытается реализовать, занимается практикой, а не только лишь читает новости по сабжу или там теоретизирует быть ИИ или не быть.
Аноним #2 #717575
>>717453 (OP)
Лучше б ты бабу нашел
>>717581
#3 #717580
>>717453 (OP)
r/MachineLearning
Ну я, например, такой. Могу поделиться опытом, если надо. Ты сам-то чьих будешь?
sage #4 #717581
>>717575
Двачую
#5 #717659
>>717580

>Ну я, например, такой.


Хорошо, посмотрим сколько тут еще отзовется.

> Ты сам-то чьих будешь?


Хуй простой, немного программирую, знаю про направления, слежу за новостями, но и пытаюсь в реализацию ии на роботах, есть идеи по сильному ии, но это лишь концепции без каких либо набросков реализации даже на псевдокоде. В общем, не думайте, что я какой-нибудь гуру-ML или хорошо в этом разбираюсь, скорее наоборот.

>Могу поделиться опытом, если надо.


Я бы не отказался от консультаций по некоторым вопросам, конечно, поэтому и хотелось бы примкнуть к какой-нибудь группе "энтузиастов".
>>717787>>717844
16 Кб, 324x324
#6 #717780
Я бы тоже не против пообщаться на эти темы - сильный ИИ, ML, вот это все. Тоже есть некоторые идеи по поводу ИИ и вопросы, по которым хотелось бы разъяснений от знающих людей.
>>717841
#7 #717787
>>717659
Я ниже хуя простого, изучаю ИИ и ML.
А вообще есть отдельный тред https://2ch.hk/pr/res/652472.html (М)
Можно будет потом его официально закрепить.
#8 #717803
>>717453 (OP)

>интересуются реализацией ИИ


>делают роботов


Ебнутые хехе. Обчитаются своих маняфантастов и ябут друг друга в жопу.
>>717918
#9 #717817
>>717787
У них конкретно по ML и они не хотят скатывать ML в AI, разве что определенные задачи под Al реализовывать через ML, то еще можно там что-нибудь спросить.
#10 #717841
>>717787
Ты это >>717580 ? Если да, то нас 3, я ты и >>717780
Если нет, то 4
>>717848>>717885
#11 #717844
>>717659

>Я бы не отказался от консультаций по некоторым вопросам, конечно, поэтому и хотелось бы примкнуть к какой-нибудь группе "энтузиастов".


Мне неизвестны такие прям группы энтузиастов. Знаю несколько человек, которые потихоньку пилят проекты. Они постят в своих бложиках и на реддите изредка. Самые крутые работы делаются в лабах, так что для энтузиастов остались только малопопулярные направления.

Не особо понятен профит от такого сообщества. Работать гуглом для залетных новичков, "изучающих ИИ", не сильно интересно. Все нужные материалы лежат в сети, жизни не хватит перечитать. На продвинутом уровне все равно никто не поможет. Конкретные юзкейсы можешь привести?
>>717914>>718014
#12 #717848
>>717841
Нет, >>717580 мой пост, а >>717787 не мой.
#13 #717885
>>717841
4
У чувака на Оп-пикче есть довольно интересная штука, анзывающаяся машина Гёделя.
http://people.idsia.ch/~juergen/selfreflection.pdf
А вообще обсуждать AGI бывает частенько тухло, т.к. народ скатывает всё в ебучие споры ни о чём.
>>717918>>718424
#14 #717914
>>717844

>юзкейсы


Я попробую через самый примитивный пример, где и постараюсь донести основную идею:
Задача: обучение езде с поворотами от препятствий в противоположную сторону
Сенсоры: дальномер, акселерометр
Средства взаимодействия со средой: поворачивающие колеса
А - агент
S - сенсор
Е - Средства взаимодействия со средой
I - интеллект
D - основное состояние, которое А стремится избежать всеми средствами
Изначально задается разработчиком
d - подсостояние, которые А стремится избежать
O - основная цель, к которой А стремится всеми средствами
Изначально задается разработчиком
о - подцели для выполнения основной цели
+ - состояния, способствующие выполнению цели
- - состояния, обратные +
f - функция, которую пишет агент
Я исхожу из 2 фундаментальных принципов:
Интеллекта I нету без
1. Задачи и процесса ее выполнения
(Способность самостоятельно ставить задачи типа о с целью выполнения запрограммированых задач это скорее всего из области сильного I)
2.Способность в зависимости от реакции на среду самостоятельно строить функции для решения задачи и выполнять их
У A со слабым I задача задается программно, здесь это обучение езде, начнем с прямой езды для примера, т.е. A вбиваются значения с S, которые будут соответствовать этому состоянию и в нашем случае это задача является О
Так же задается D с разбросом параметров d, которые привязываются к показанию S (дальномер, акселерометр). Обычно D это разряженная батарея или положение из которого A не способен выбраться. Но здесь примитивный пример, поэтому к D привязываются показания дальномера, когда А об что-либо врезается или критично меняет траекторию.
За приближение к O даются поощрительные + за приближение к D - (тут алгоритмы поощрения, подкрепления)
На ML-алгоритмах строится фильтр для сенсоров и построить фильтр к сенсору это самая простая задача из ML, наверное,
На основе показаний с S с поощрениями-подкреплениями A стремится к оптимальному выполнению O; все это можно наковырять где-то в районе reinforcement learning, конечно, но это будет строиться на подборе аргументов к функции прямой езды, тогда как с I я связываю A, который в процессе выполнения задачи способен писать f для ее выполнения, так что прямая езда реализуется с ML, но здесь нет места для того, что можно отнести к I. Все началось с того, что в A изначально программировалась функция прямой езды, которой лишь требовалось подставлять значения с S в виде аргументов на которые реагировали Е (моторы) с целью прямой езды. Но езда возможна по кругу, по периметру, зигзагом, задом наперед и т.д. Вот здесь рождается поле для реализации I. А должен иметь список О к которым должен стремиться, отталкиваясь от показаний S (разные виды езды типа прямая, круг, периметр и т.д.). А ML-алгоритм должен быть привязан еще к генерации функции а зависимости от взаимодействия со средой для того, чтобы они не генерировались просто рандомно, . Эксперимент состоит в том, чтобы А обучился прямой езде, круговой и другим заданным видам езды, генерируя функции. В фундаменте привязки генерации функций к ML должно лежать что-то вроде вышеупомянутой машины Геделя. Все, что я пока знаю про генерацию функций другими функциями и возможность их исполнения при этом, так это то, что надо учить Lisp. Такие дела.
#14 #717914
>>717844

>юзкейсы


Я попробую через самый примитивный пример, где и постараюсь донести основную идею:
Задача: обучение езде с поворотами от препятствий в противоположную сторону
Сенсоры: дальномер, акселерометр
Средства взаимодействия со средой: поворачивающие колеса
А - агент
S - сенсор
Е - Средства взаимодействия со средой
I - интеллект
D - основное состояние, которое А стремится избежать всеми средствами
Изначально задается разработчиком
d - подсостояние, которые А стремится избежать
O - основная цель, к которой А стремится всеми средствами
Изначально задается разработчиком
о - подцели для выполнения основной цели
+ - состояния, способствующие выполнению цели
- - состояния, обратные +
f - функция, которую пишет агент
Я исхожу из 2 фундаментальных принципов:
Интеллекта I нету без
1. Задачи и процесса ее выполнения
(Способность самостоятельно ставить задачи типа о с целью выполнения запрограммированых задач это скорее всего из области сильного I)
2.Способность в зависимости от реакции на среду самостоятельно строить функции для решения задачи и выполнять их
У A со слабым I задача задается программно, здесь это обучение езде, начнем с прямой езды для примера, т.е. A вбиваются значения с S, которые будут соответствовать этому состоянию и в нашем случае это задача является О
Так же задается D с разбросом параметров d, которые привязываются к показанию S (дальномер, акселерометр). Обычно D это разряженная батарея или положение из которого A не способен выбраться. Но здесь примитивный пример, поэтому к D привязываются показания дальномера, когда А об что-либо врезается или критично меняет траекторию.
За приближение к O даются поощрительные + за приближение к D - (тут алгоритмы поощрения, подкрепления)
На ML-алгоритмах строится фильтр для сенсоров и построить фильтр к сенсору это самая простая задача из ML, наверное,
На основе показаний с S с поощрениями-подкреплениями A стремится к оптимальному выполнению O; все это можно наковырять где-то в районе reinforcement learning, конечно, но это будет строиться на подборе аргументов к функции прямой езды, тогда как с I я связываю A, который в процессе выполнения задачи способен писать f для ее выполнения, так что прямая езда реализуется с ML, но здесь нет места для того, что можно отнести к I. Все началось с того, что в A изначально программировалась функция прямой езды, которой лишь требовалось подставлять значения с S в виде аргументов на которые реагировали Е (моторы) с целью прямой езды. Но езда возможна по кругу, по периметру, зигзагом, задом наперед и т.д. Вот здесь рождается поле для реализации I. А должен иметь список О к которым должен стремиться, отталкиваясь от показаний S (разные виды езды типа прямая, круг, периметр и т.д.). А ML-алгоритм должен быть привязан еще к генерации функции а зависимости от взаимодействия со средой для того, чтобы они не генерировались просто рандомно, . Эксперимент состоит в том, чтобы А обучился прямой езде, круговой и другим заданным видам езды, генерируя функции. В фундаменте привязки генерации функций к ML должно лежать что-то вроде вышеупомянутой машины Геделя. Все, что я пока знаю про генерацию функций другими функциями и возможность их исполнения при этом, так это то, что надо учить Lisp. Такие дела.
#15 #717918
>>717885

>народ скатывает всё в ебучие споры ни о чём


Просто надо пытаться что-то реализовать, а не заниматься лишь кукаретикой и еще игнорить всякое такое >>717803
#16 #717925
>>717914
Трудновато тебя читать. Машина Геделя это просто самооптимизирующийся решатель конкретной задачи, так что я не понимаю, какое он имеет отношение к ИИ. Даже будучи реализованным это будет просто как какой-нибудь Пролог.

В целом советую тебе поглубже покопать книги по reinforcement learning и по планированию. Тема планирования не очень модная в последние годы, но там много релевантного твоему рассказу, про подцели и т.д.

Ну и, конечно, реализация прежде всего. Без реализации все идеи просто фантазии. Покажи мне код, и все станет понятно.
>>718025>>718061
#17 #718014
>>717844
Профит может быть в том, например, что кто-то что-то уже налопатил и нагуглил и может это порекомендовать или наоборот. Или кто-нибудь договорится реализовывать одну часть проекта, а кто-то другую, тут все же hybrid intelligent system в той или иной степени имеет место быть и один любитель такое врядли потянет.
#18 #718025
>>717925

> самооптимизирующийся решатель конкретной задачи


Достаточно хорошое абстрактное описание ИИ. Задачу можно формализовать в виде максимации будущих наград в неизвестной среде (https://en.wikipedia.org/wiki/AIXI).
Правда, она не вычислима и достойных аппроксимаций пока нет.
>>718027>>718042
#19 #718027
#20 #718042
>>718025

>The Gödel machine is often compared with Marcus Hutter's AIXI, another formal specification for an Artificial General Intelligence. Schmidhuber points out that the Gödel machine could start out by implementing AIXI as its initial sub-program, and self-modify after it finds proof that another algorithm for its search code will be more optimal.

#21 #718061
>>717925
Я по частям пока отвечу, кое-что сейчас, кое-что позже дополню.

>Трудновато тебя читать.


Ну да, я поторопился с отправкой, потом допилю до более внятного состояния, может.

>планированию


https://en.wikipedia.org/wiki/Automated_planning_and_scheduling
?

>Без реализации все идеи просто фантазии.


Согласен, но такие наброски это 1й шаг к реализации

>Покажи мне код


Я собираюсь реализовывать на Lisp, который только начал учить. Лисп по 2м причинам:
1. параллельность
2. возможность писать алгоритмы, которые создают другие алгоритмы, которые затем и вычисляются.
Быть может, это глупая затея и я зря трачу время, а все это спокойно реализуется на том же python. Параллельность точно есть, про 2е пока не нашел. Про алгоритмы, создающие алгоритмы в Lisp как самое значимое достижение в области AI было в одном из интервью Минского.
>>718112>>719903
#22 #718112
>>718061
Вот из вики по части метапрограммирования и самомодифицирующегося кода. Преимущества над питонами всеже есть, вопрос в том - так ли они существенны.

>Not all metaprogramming involves generative programming. If programs are modifiable at runtime or if incremental compilation is available (such as in C#, Forth, Frink, Groovy, JavaScript, Lisp, Lua, Perl, PHP, Python, REBOL, Ruby, Smalltalk, and Tcl), then techniques can be used to perform metaprogramming without actually generating source code.


>Lisp is probably the quintessential language with metaprogramming facilities, both because of its historical precedence and because of the simplicity and power of its metaprogramming. In Lisp metaprogramming, the unquote operator (typically a comma) introduces code that is evaluated at program definition time rather than at run time; see Self-evaluating forms and quoting in Lisp. The metaprogramming language is thus identical to the host programming language, and existing Lisp routines can be directly reused for metaprogramming, if desired. This approach has been implemented in other languages by incorporating an interpreter in the program, which works directly with the program's data.



> Other languages, such as Perl and Python, allow programs to create new code at run-time and execute it using an eval function, but do not allow existing code to be mutated.


>Lisp macros also allow runtime code generation without parsing a string containing program code.

#23 #718129
Что-то я не пойму, как в телеграмме конфу создавать. А в скайпе с линукса конфу тоже не создать.
что будем делать? идти в слак?
>>718131>>718133
#24 #718131
>>718129

> собираешься создать AGI


> не осилил создание конфы в месенджере

>>721529
#25 #718133
>>718129
Давай лучше в джаббер, а еще лучше на фейкопочту в Гугол, там няшные сервисы всякие для разработок и чатики с опциями всеми.
>>721529
#26 #718135
Я придумал! Берём ардуинку, присоединяем камеру и колёса, OpenCV для обработки изображения и нейросеть для управления. Выпускаем получившееся существо, оно едет и обучается, а через год возвращается и мы проверяем результаты.
>>718138
#27 #718138
>>718135
Начнем с того, что у него быстро сядет батарея. Кончим тем, что у тебя нет никакой реализации нейросети.
>>718192
#28 #718192
>>718138

>Начнем с того, что у него быстро сядет батарея


Не проблема, прикрутим солнечные батареи.

>Кончим тем, что у тебя нет никакой реализации нейросети.


У меня есть кое-что получше. Голодный студент мехмата, который за 500 рубблей напишет тебе любую нейросеть.
>>718205
684 Кб, 2048x1536
#29 #718205
>>718192

>мехмата


>напишет нейросеть

#30 #718424
>>717885
>>717914
Почитал про эти ваши машины Геделя и AIXI, чем это лучше генетических алгоритмов?
#31 #718469
>>718424
Ящитаю, что лучше-хуже можно рассматривать только в контексте решаемой агентом конкретной задачи, а так как у AI задач много, причем он вынужден ежесекундно решать не одну задачу, а несколько задач, то и отталкиваться надо от того какой алгоритм лучше подходит для конкретной задачи.
https://en.wikipedia.org/wiki/Hybrid_intelligent_system
>>718475
#32 #718475
>>718424
Вот хороший пример по теме >>718469
Joan is part way across the street on the way to deliver her finished report. While thinking about what to say at the meeting, she hears a sound and turns her head —and sees a quickly oncoming car. Uncertain whether to cross or retreat, but uneasy about arriving late, she decides to sprint across the road. She later remembers her injured knee and reflects upon her impulsive decision. “If my knee had failed, I could have been killed. Then what would my friends have thought of me?”

It might seem natural to ask, "How conscious was Joan of what she did?" But rather than dwell on that ‘consciousness’ word, let’s look at a few of the things that Joan “did.”

Reaction: Joan reacted quickly to that sound.
Identification: She recognized it as being a sound.
Characterization: She classified it as the sound of a car.
Attention: She noticed certain things rather than others.
Imagining: She envisioned two or more possible futures.
Indecision: She wondered whether to cross or retreat.
Decision: She chose one of several alternative actions.
Recollection: She retrieved descriptions of prior events.
Reconsideration: Later she reconsidered this choice.
Selection: She selected a way to choose among options.
Apprehension: She was uneasy about arriving late.
Planning: She constructed a multi-step action-plan.
Embodiment: She tried to describe her body's condition.
Emotion: She changed major parts of her mental state.
Representation: She interconnected a set of descriptions.
Language: She constructed several verbal expressions.
Narration: She heard them as dialogs in her mind.
Anticipation: She expected certain future condition.
Intention: She changed some of her goals’ priorities.
Reasoning: She made various kinds of inferences.
Reflection: She thought about what she’s recently done.
Self-Reflection: She reflected on her recent thoughts.
Empathy: She imagined other persons’ thoughts.
Moral Reflection: She evaluated what she has done.
Self-Imaging: She made and used models of herself.
Self-Awareness: She characterized her mental condition.
Sense of Identity: She regarded herself as an entity.

That’s only the start of a much longer list of aspects of how we feel and think—and if we want to understand how our minds work, we’ll need explanations for all of them. To do this, we’ll have to take each one apart, to account for the details of how they each work. Then each reader can decide which ones should, or should not be regarded as aspects of ‘consciousness.’
#32 #718475
>>718424
Вот хороший пример по теме >>718469
Joan is part way across the street on the way to deliver her finished report. While thinking about what to say at the meeting, she hears a sound and turns her head —and sees a quickly oncoming car. Uncertain whether to cross or retreat, but uneasy about arriving late, she decides to sprint across the road. She later remembers her injured knee and reflects upon her impulsive decision. “If my knee had failed, I could have been killed. Then what would my friends have thought of me?”

It might seem natural to ask, "How conscious was Joan of what she did?" But rather than dwell on that ‘consciousness’ word, let’s look at a few of the things that Joan “did.”

Reaction: Joan reacted quickly to that sound.
Identification: She recognized it as being a sound.
Characterization: She classified it as the sound of a car.
Attention: She noticed certain things rather than others.
Imagining: She envisioned two or more possible futures.
Indecision: She wondered whether to cross or retreat.
Decision: She chose one of several alternative actions.
Recollection: She retrieved descriptions of prior events.
Reconsideration: Later she reconsidered this choice.
Selection: She selected a way to choose among options.
Apprehension: She was uneasy about arriving late.
Planning: She constructed a multi-step action-plan.
Embodiment: She tried to describe her body's condition.
Emotion: She changed major parts of her mental state.
Representation: She interconnected a set of descriptions.
Language: She constructed several verbal expressions.
Narration: She heard them as dialogs in her mind.
Anticipation: She expected certain future condition.
Intention: She changed some of her goals’ priorities.
Reasoning: She made various kinds of inferences.
Reflection: She thought about what she’s recently done.
Self-Reflection: She reflected on her recent thoughts.
Empathy: She imagined other persons’ thoughts.
Moral Reflection: She evaluated what she has done.
Self-Imaging: She made and used models of herself.
Self-Awareness: She characterized her mental condition.
Sense of Identity: She regarded herself as an entity.

That’s only the start of a much longer list of aspects of how we feel and think—and if we want to understand how our minds work, we’ll need explanations for all of them. To do this, we’ll have to take each one apart, to account for the details of how they each work. Then each reader can decide which ones should, or should not be regarded as aspects of ‘consciousness.’
#33 #718507
>>718424
Чем кувалда лучше ножика? Генетический алгоритм - это кувалда - ебнул по буханке и надеешься, что отрезался ломтик..
>>718545
#34 #718545
>>718507
В генетических алгоритмах главное - правильное пространство поиска и функция приспособленности. Вряд ли кто-то будет утверждать, что пространство поиска это обязательно н-р множества вещественных чисел, сами алгоритмы не накладывают никаких ограничений на это, как и на функцию приспособленности, которая так же может быть чем угодно. Тут очень много возможностей для дальнейшего развития алгоритмов. В конце-концов, именно эволюция создала человеческий интеллект.
>>718572
#35 #718572
>>718545

>Тут очень много возможностей для дальнейшего развития алгоритмов. В конце-концов, именно эволюция создала человеческий интеллект.



Попробуй реализовать хотябы один и уж тем более допилить туда что-нибудь инновационное, хорошо разберешься в теме, сделаешь выводы. Проблемы и недостатки га расписаны даже в вики https://en.wikipedia.org/wiki/Genetic_algorithm#Limitations , кто знает, может, у тебя получится что-то интересное в плане их устранения. Тут можно почувствовать себя исследователем безо всяких лабораторий и прочего. По мне так это одно из средств для реализации некоторых функций ии, но никак не святой грааль какой-нибудь.
#36 #718603
Дядя с оп-пика про эволюционные алгоритмы:
Evolutionary computation http://people.idsia.ch/~juergen/evolution.html is one of the most useful practical methods for direct search in policy space, especially when there is no teacher who knows which output actions the system should produce at which time. Especially in partially observable environments where memories of previous events are needed to disambiguate states, this often works much better than other reinforcement learning techniques based on dynamic programming.
Evolutionary techniques are not "necessary." Other black box optimizers such as policy gradients sometimes work fine. Evolutionary algorithms and policy gradients are related - see papers on Natural Evolution Strategies. I am also a big fan of asymptotically optimal program search, which in may ways goes beyond evolution etc. http://people.idsia.ch/~juergen/optimalsearch.html
In case of teacher-given desired output actions or labels, gradient descent such as backpropagation http://people.idsia.ch/~juergen/who-invented-backpropagation.html (also through time) usually works much better, especially for NNs with many weights. This is not always true though. For example, evolution-trained hidden LSTM http://people.idsia.ch/~juergen/rnn.html units combined with an optimal linear mapping (e.g., SVM) from hidden to output units outperformed a pure gradient-based LSTM even on certain supervised sequence learning tasks. See the EVOLINO papers since 2005.
Your last question is about search for shorter programs in program space. The recent Compressed Network Search http://people.idsia.ch/~juergen/compressednetworksearch.html combines evolution and compression to achieve something along the lines you may have in mind.
More on all of this in Sec. 6 of the survey. http://people.idsia.ch/~juergen/deep-learning-overview.html
Jochen Steil (2007) and others used unsupervised learning to improve nonlinear reservoir parts as well. One can also optimize reservoirs by evolution. For example, evolution-trained hidden units of LSTM RNNs combined with an optimal linear mapping (e.g., SVM) from hidden to output units outperformed traditional pure gradient-based LSTM on certain supervised sequence learning tasks. See the EVOLINO papers since 2005.
http://people.idsia.ch/~juergen/evolino.html
http://people.idsia.ch/~juergen/evolution.html

http://people.idsia.ch/~juergen/gecco2010koutnik.pdf
#36 #718603
Дядя с оп-пика про эволюционные алгоритмы:
Evolutionary computation http://people.idsia.ch/~juergen/evolution.html is one of the most useful practical methods for direct search in policy space, especially when there is no teacher who knows which output actions the system should produce at which time. Especially in partially observable environments where memories of previous events are needed to disambiguate states, this often works much better than other reinforcement learning techniques based on dynamic programming.
Evolutionary techniques are not "necessary." Other black box optimizers such as policy gradients sometimes work fine. Evolutionary algorithms and policy gradients are related - see papers on Natural Evolution Strategies. I am also a big fan of asymptotically optimal program search, which in may ways goes beyond evolution etc. http://people.idsia.ch/~juergen/optimalsearch.html
In case of teacher-given desired output actions or labels, gradient descent such as backpropagation http://people.idsia.ch/~juergen/who-invented-backpropagation.html (also through time) usually works much better, especially for NNs with many weights. This is not always true though. For example, evolution-trained hidden LSTM http://people.idsia.ch/~juergen/rnn.html units combined with an optimal linear mapping (e.g., SVM) from hidden to output units outperformed a pure gradient-based LSTM even on certain supervised sequence learning tasks. See the EVOLINO papers since 2005.
Your last question is about search for shorter programs in program space. The recent Compressed Network Search http://people.idsia.ch/~juergen/compressednetworksearch.html combines evolution and compression to achieve something along the lines you may have in mind.
More on all of this in Sec. 6 of the survey. http://people.idsia.ch/~juergen/deep-learning-overview.html
Jochen Steil (2007) and others used unsupervised learning to improve nonlinear reservoir parts as well. One can also optimize reservoirs by evolution. For example, evolution-trained hidden units of LSTM RNNs combined with an optimal linear mapping (e.g., SVM) from hidden to output units outperformed traditional pure gradient-based LSTM on certain supervised sequence learning tasks. See the EVOLINO papers since 2005.
http://people.idsia.ch/~juergen/evolino.html
http://people.idsia.ch/~juergen/evolution.html

http://people.idsia.ch/~juergen/gecco2010koutnik.pdf
#37 #718776
>>718424
Тем, что у AIXI, например, доказана Парето оптимальность. А для генетических алгоритмов ничего подобного не доказано, плюс у AIXI есть достаточно серьёзная математическая база, а ГА - просто скопление эвристик.
Аноним #38 #718850
ИИ это больше к философии
>>718889
#39 #718889
>>718850
Ну да, конечно, таже CSAIL в MIT это такое сборище хитроватых философ, которые для создания видимости что-то там кодют, попиливая миллиарды из бюджетов в тучные годы.
>>718956>>718987
#40 #718956
>>718889
Ну примерно так и есть, на самом деле
ИИ не существует и не появится в обозримом будущем. Есть имитирующие ИИ числодробилки, есть философия и все
>>718978
#41 #718978
>>718956
Вот и пиздуй куда-нибудь философам доказывать свое очень важное мнение и навязывать свои вангования, а тут реализаторы сидят.
>>718988
#42 #718986
>>717453 (OP)
В рунете таких полно, обитают на:
http://roboforum.ru/
http://servodroid.ru/
http://robocraft.ru/
какашечка #43 #718987
>>718889
Твой мит, ксаи это уровень балетной школы в ИТ и ИИ в часности, ебучие грантососы.
мимофилософ
>>718993
какашечка #44 #718988
>>718978
у что ты хочешь реализовать? Начни с простого, с покера и ахуей.
>>718998
#45 #718993
>>718987
Кудаж им до философов уровня тебя или хотябы IBM и Гугл.
>>718999
#46 #718998
>>718988
Совсем недавно ахуевали с го, но я не интересуюсь реализацией игр, мне хотябы что-то вроде уровня собаки пытаться собирать интереснее.
>>718999>>719148
какашечка #47 #718999
>>718993
Назови хоть один продукт созданный в гугл заслуживающий внимания ит господ?
>>718998
Кусаки? На распозновании объектов ты станешь настоящим философом.
>>719010>>727528
#48 #719010
>>718999

>заслуживающий внимания ит господ


Да мне поебать чем там обмазываются массово айтишники с философами и хипсторами, хули ты тред про реализации ии во всякое говно скатываешь?

>ты станешь настоящим философом


Упаси аллах.
>>719012
какашечка #49 #719012
>>719010
ясно, можешь закрывать тред
>>719016
#50 #719016
>>719012
А ты думал я создал очередной тред бесконечного пиздежа про то как скоро взлетит ии и взлетит ли вообще с новостями про всякие гугломобили? Нет, я про смысл еще в оп-посте писал.
>>719098
#51 #719098
>>719016
Еще один минус обсуждения ИИ здесь: на харкаче обитают 3-4 шизика (возможно, это все один человек), которые могут "говорить" (бредить) про ИИ бесконечно, порождая тысячи постов бессмысленного флуда. Выше ты поговорил с одним из них.
>>719106
#52 #719106
>>719098
Да пусть хоть запиздятся, но только не итт, лучше вообще в наукаче где-нибудь всю эту воду по ии лить с диванными прогнозами, философией и новостями, оторванными от своих проектов.
>>719234
#53 #719148
>>718998
А что значит "уровень собаки"? Какие именно аспекты собачьего поведения ты хочешь смоделировать, и как будешь тестировать?
>>719235>>719903
#54 #719234
>>719106
Там они и обитают, в тред про ML один такой даже залетал. Что-то говорил про NARMAX и теор.кат.
#55 #719235
>>719148
Жрать говно и бегать за хвостом.
не-оп
>>719276
какашечка #56 #719276
>>719235
а нюхать жопы? как раз проект уровня опа школотрона
>>719278
#57 #719278
>>719276
Ну, это тоже нетривиальная задача. У меня, например, нет особых идей реализации такого поведения без забивания его вручную. То есть в процессе функционирования интеллектуальный агент должен каким-то образом додуматься до того, что пожирание говна и сраконюханье приведёт к большому количеству наград от среды.
>>719281>>719296
какашечка #58 #719281
>>719278
на то это и ИИ
>>719283
#59 #719283
>>719281
При этом с точки зрения сильного ИИ мы ещё должны всё сделать так, чтобы результирующий агент не был философским зомби. То есть сраконюханье и пожирание говна должно давать какие-то субъективные переживания.
Хотя я сам ко всем этим квалиа, зомби и прочему дерьму отношусь очень скептически
>>719292
какашечка #60 #719292
>>719283
какие нахуй переживания, наркоман?
>>719293
#61 #719293
>>719292
Читай про философских зомби.
Я уже две недели не пил и без травы неделю, поэтому не наркоман.
>>719300
#62 #719296
>>719278
Очевидно, это генетически запрограммированное поведение. Ты вообще знаешь, почему животные жрут говно? Это потому что их пищеварительная система не может все обработать за один проход.
#63 #719298
>>719296

> Ты вообще знаешь, почему животные жрут говно?


Вот этого не знал, спасибо.
какашечка #64 #719300
>>719293
сделай зомби жопонюха
какашечка #65 #719301
>>719296
может просто говно вкусное
24 Кб, 297x300
#66 #719903
>>719148

Я не имел ввиду, что собираюсь делать 4ногую робо-собаку, речь шла про интеллектуальные способности в первую очередь, т.е. способность распознавать команды, объекты среды, дрессироваться и все такое; "собака" в которую может реализоваться колесный робот с arm-манипулятором (это что-то вроде идеала к которому стоит стремиться), я в первую хочу связать метапрограммирование и самомодификацию кода с алгоритмами обучения на подкрепление и щитаю, что без функций, пишущие функции в зависимости от данных с сенсоров, ии не реализовать, что расписывал вот тут в общих чертах и не совсем внятно >>718061 >>717914 а пока я учу лисп для всего этого, как только разберусь с метакодингом и параллельными вычислениями, то буду думать над кодом. У меня есть цель, проект, примерные наброски как все это будет сделано хотябы.

>смоделировать


-самозарядка по индикации батареи
-распознавание речи
-распознавание объектов
-перемещение объектов манипулятором
роль "собаки" на 1м этапе сводится к тасканию объектов с пола и их распознаванию, построению карты пространства в памяти, причем с максимализацией самообучения всего вышеперечисленного, а не программирования;

на 2м этапе можно будет экспериментировать на "дрессировке" через обучение с учителем посредством восприятия символьных абстракций в виде визуальных и звуковых команд от учителя, конечно было бы круто сделать робота, который будет способен дрессироваться как собака...
Но для моего проекта это наполеоновские планы.

Первым делом я запилю нейросеть как фильтр входных данных с сенсоров, далее посмотрю как пойду дела с обучением прямой езде и других видов движений, подбирая реализацию нейросети под такую задачу плюс уже будет видно получится ли у меня что-либо намудрить с матакодингом; это минимум что я собираюсь сделать для начала.
>>719953>>721583
#67 #719953
>>719903
Норм. Интересно, что у тебя получится.
#68 #721502
>>719296
А у людей?
#69 #721529
Я безработный и уже заебался искать работу. Так хоть потрачу время с пользой и собственно футуристика и возможность создать ИИ или максимально автономную робосистему всегда меня захватывала, как философа.
>>718131
эта ирония
>>718133
можешь телефон запостить, я попробую добавить в группу.
>>721552>>721554
#70 #721533
Ну вот местны школотроны опять хотят создать прибамбацанную игрушку на колесах прям как из 80х, когда они бедняги с уебищным советским железным лего игрались. Это и близко с АИ не стоит. Есть несколько основных параметров, которые отличают живое и от неживого. (ща пока про мыслительные функции рано говорить, брать на примитивах). И первая из них - это стремление к выживанию, а вторая - размножение. Вот я считаю от этих двух постулатов нужно отталкиваться при создании автономной механической системы. Т.е. постепенно она уже будет самообучаться с целью увеличения себе подобных юнитов и оптимизации окружающей среды под его нужды.
Другое дело, что человеку такое нахуй не нужно создавать, самому ресурсов не хватает, человек именно хочет себе игрушку на колесиках, чтобы развлекала. И пока роботехника будет существовать в рамках игрушки ни о какой новой форме жизни речи быть не может.
#71 #721552
>>721529

>можешь телефон запостить


Зачем телефон? Пили в гугл+ что-нибудь.
>>721533

>местны школотроны опять хотят создать прибамбацанную игрушку


Будто что-то плохое

>стремление к выживанию, а вторая - размножение


Охлол, думаешь один тут такой дохуя в ии понимающий, что аж дошел до 2х фундаментальных задач биоинтеллекта? Молодец, конечно, что что-то в этом направлении думаешь, только вот я пытаюсь хоть что-то собрать пусть даже и на уровне игрушки в твоем понимании, тогда как что ты сделал ты, помимо словоблудия?
#72 #721554
>>721529

>Я безработный и уже заебался искать работу. Так хоть потрачу время с пользой и собственно футуристика и возможность создать ИИ или максимально автономную робосистему всегда меня захватывала, как философа.



Молодец, могу посоветовать для старта:
1.По теме философии и проблем реализации почитай "Эмоциональную машину" Минского
2.Полистай книгу "ИИ современный подход"
3.Просмотри вот эти лекции MIT, например
http://www.youtube.com/watch?v=TjZBTDzGeGg&list=PLUl4u3cNGP63gFHB6xb-kVBiQHYe_4hSi&index=1

Это выпилит из твоей головы лишний философский мусор и даст некий каркас и ориентиры к реализации, избавит от >>721533 подобного кэп-словоблудия

Ну и конфочку какую-нибудь запили на гугле.
#73 #721570
>>721533
Интеллект это средство для решения задач в среде и людям нет особого смысла создавать себе очередного конкурента с функциями саморепликации и выживания, да еще и обладающего сильным ии. Твой тезис, что интеллект невозможен без задач саморепликации и выживания всего-лишь твоя версия, основанная просто на аналогии с биологическим интеллектом, тогда как интеллект способен решать любые другие задачи, которые перед ним поставлены и если живым организмам 2 главные задачи ставит "природа", то ии цели для решения могут и должны задавать люди.
>>722363
#74 #721571
>>721533
К тому же саморепликация это частный случай функции сохранения работоспособности системы (выживания), обусловленным особенностями белковой формы жизни и если функция поддержки работоспособности свойственна в той или иной степени любому и-агенту, то саморепликация в случае биологической жизни это подвид функции поддержки работоспособности системы во времени (выживания) пусть и с необходимостью строить копии из-за неспособности как-либо иначе осуществить работоспособность системы на протяжении длительного времени.
>>721573>>722403
#75 #721573
>>721571
У тебя пост из одного предложения размером с абзац, ты ебанулся?
36 Кб, 604x508
94 Кб, 1038x726
#76 #721583
>>719903
Эх, оп. Я тоже хочу сделать такую хуйню, но забил. 6 ног (18 серв) + raspberry pi 2 + драйвер сервоприводов + wifi + 12а/ч акк. Хз, когда пилить начну. Надеюсь, у тебя все получится.
>>721592>>727127
50 Кб, 1275x559
#77 #721591
В общем, кто хочет кооперации, то добавляйтесь на фейкомыльце aitestaitestag=$iANUS=THgmailPUNCTUMcT{0om
Почему Гугл+
1. Есть удобный чат Hangouts, который может в конференции.
2. Есть G-drive, где можно совместно организовывать проекты, интерактивно работать с документами, обмениваться файлами и т.д.
3. На гугле можно создать акк без телефона
>>727224
#78 #721592
>>721583
Почему не колеса? По мне так для серв можно найти и годнее применение, чем пускать их на ноги.
#79 #721725
>>721533

>Т.е. постепенно она уже будет самообучаться с целью увеличения себе подобных юнитов и оптимизации окружающей среды под его нужды.


Для этого система должна иметь возможность влиять на эту самую окружающую среду и при это иметь фидбэк. Иначе она будет НЕОБУЧАЕМАЯ.
>>722361
какашечка #80 #721795
паржал с кукаретиков
#81 #722361
>>721725
Ты теряешь из поля зрения мотивацию. ты не можешь просто взять и запрограммировать на изменение среды ради изменения, должна быть мотивация-цель, с которой машина меняет среду. Воля к жизни (власти), об этом еще Шопенгауэр писал.
#82 #722363
>>721570
Интеллект - это всего лишь функция, средство. Если "интеллект" не направлен на выживание носителя, то это всего лишь кусок кода и никакой эволюции (не детерминированной создателем) у него не будет. Интеллект без носителя - это уже не интеллект, а сложная программа, вот и все.

Вот ты не понимаешь опять, нахуя сложно программе решать "чьи-то задачи", интеллект решает задачи для своего выживания, программа будет решать только те задачи, на решение которых она будет ЗАПРОГРАММИРОВАНА. Программе безразлично активна она или нет, стерта или написана, решила она задачу или нет.
>>722403
#83 #722403
>>722363

>Интеллект без носителя - это уже не интеллект, а сложная программа, вот и все.


https://en.wikipedia.org/wiki/AI_effect

> интеллект решает задачи для своего выживания


А чайлдфри и суицидники это уже не носители интеллекта?

>Программе безразлично активна она или нет, стерта или написана, решила она задачу или нет


Есть алгоритмы поощрения, например

> всего лишь кусок кода и никакой эволюции


>задачи, на решение которых она будет ЗАПРОГРАММИРОВАНА


Ну я и не отрицаю, что пока программы не будут писать другие программы (самопрограммирование) и создавать себе функции хотябы даже и рандомно с последующим сортингом полезных, то никакой реализации ии вам не видать

> нахуя сложно программе решать "чьи-то задачи"


Даже люди решают не только свои задачи и причин тому может быть множество от слова "спасибо" и денег до страхов и принуждений.

> не направлен на выживание носителя


как я уже писал здесь >>721571 "функция поддержки работоспособности свойственна в той или иной степени любому и-агенту", другое дело, что эта функция в зависимости от задачи может даже игнорироваться

>эволюции


В ии это всего-лишь оптимизация системы под решение задач, а задачи у ии могут быть самыми разными
>>723021
#84 #723021
>>722403

>А чайлдфри и суицидники это уже не носители интеллекта?


У них есть инстинкт выживания, который рационально подавляется. Не вдавайтся в демагогию.
>>722403

>Даже люди


Роботы могут решать людские задачи, если им с этого будет профит в виде выживания, но пока у них воли к жизни нет, то ни о каком решении чужих задачи речи быть не может. Ты какой-то тупой, тебе лет 15 по ходу.
Компьютеры не поддерживают свою работоспособность.
>>722403

>В ии это всего-лишь оптимизация системы под решение задач


нет
>>723127>>723150
#85 #723127
>>723021

> пока у них воли к жизни нет, то ни о каком решении чужих задачи речи быть не может.


Очевидно, что гибель агента приведёт к невозможности выполнения задачи и получения вознаграждения от среды. Поэтому обычно эта самая "воля" прививается агенту в процессе обучения.

> Не вдавайтся в демагогию.


Кто начал цитировать Шопенгауэра с неведомой волей к жизни?

> Компьютеры не поддерживают свою работоспособность.


Зависит от компьютера. Некоторые машины ползут к розетке, чтобы не вырубиться. Другое дело, что обычно это слабый/узкий ии, и обычно они достаточно тупы, чтобы распознавать многие другие возможные угрозы.

> нет


С такими ответами ты всего-лишь зелёный кукаретик.

> Ты какой-то тупой, тебе лет 15 по ходу.


No u.
>>723186
#86 #723150
>>723021

>нет


да

>Роботы могут решать людские задачи, если им с этого будет профит в виде выживания,



роботы уже давно решают людские задачи без какого-либо профита выживания, даже получают очки поощрения, аналогичные тому же выделению поощрительных нейромедиаторов у биологических аналогов, а выделяются они у них в зависимости от решения любых поставленных задач, а не только лишь выживания. Что говорит о том, что и алгоритмы роботов способны решать любые людские задачи и безо всякого там профита выживания и воли к жизни.

>но пока у них воли к жизни нет, то ни о каком решении чужих задачи речи быть не может.



Тупое догматизирование своей идеи просто построенной на аналогии с биологическим интеллектом; однозначный тезис без какой-либо аргументации и на тебе здесь лежит бремя доказывания в которое ты, по всей видимости не можешь и тебе ничего не остается кроме как строчить кукареки вроде

>ты тупой


>тебе 15


вместо чего-то содержательного и по существу.

>Компьютеры не поддерживают свою работоспособность.



Системы в компьютерах выполняют подобные функции в рамках доступных возможностей: датчики температуры, индикаторы батареи, автосохранение, восстановление системы, отчеты об ошибках, защиты от несанкционированного доступа и многое другое.

>инстинкт выживания, который рационально подавляется.



Наглядный пример того, что выживание не является той самой задачей ради которой интеллект решает все остальные задачи. И это глупая ошибка из жанра культа карго - считать, что если носители биологического интеллекта решают преимущественно задачу выживания, то значит, что выживание это основополагающая задача для интеллекта в принципе.

А вообще ты же хуй когда попытаешься реализовать ии пусть даже на фундаменте задачи выживания, все что ты можешь это толдычить как мантры свои философские домыслы про волю к жизни и Шопенгауэра. И ты наглядный пример того, почему философов-кукаретиков из ии надо гнать ссаными тряпками, т.к. сгенерированный ошибочно философский постулат про интеллект может послужить палкой в колесе на пути его реализации.
#86 #723150
>>723021

>нет


да

>Роботы могут решать людские задачи, если им с этого будет профит в виде выживания,



роботы уже давно решают людские задачи без какого-либо профита выживания, даже получают очки поощрения, аналогичные тому же выделению поощрительных нейромедиаторов у биологических аналогов, а выделяются они у них в зависимости от решения любых поставленных задач, а не только лишь выживания. Что говорит о том, что и алгоритмы роботов способны решать любые людские задачи и безо всякого там профита выживания и воли к жизни.

>но пока у них воли к жизни нет, то ни о каком решении чужих задачи речи быть не может.



Тупое догматизирование своей идеи просто построенной на аналогии с биологическим интеллектом; однозначный тезис без какой-либо аргументации и на тебе здесь лежит бремя доказывания в которое ты, по всей видимости не можешь и тебе ничего не остается кроме как строчить кукареки вроде

>ты тупой


>тебе 15


вместо чего-то содержательного и по существу.

>Компьютеры не поддерживают свою работоспособность.



Системы в компьютерах выполняют подобные функции в рамках доступных возможностей: датчики температуры, индикаторы батареи, автосохранение, восстановление системы, отчеты об ошибках, защиты от несанкционированного доступа и многое другое.

>инстинкт выживания, который рационально подавляется.



Наглядный пример того, что выживание не является той самой задачей ради которой интеллект решает все остальные задачи. И это глупая ошибка из жанра культа карго - считать, что если носители биологического интеллекта решают преимущественно задачу выживания, то значит, что выживание это основополагающая задача для интеллекта в принципе.

А вообще ты же хуй когда попытаешься реализовать ии пусть даже на фундаменте задачи выживания, все что ты можешь это толдычить как мантры свои философские домыслы про волю к жизни и Шопенгауэра. И ты наглядный пример того, почему философов-кукаретиков из ии надо гнать ссаными тряпками, т.к. сгенерированный ошибочно философский постулат про интеллект может послужить палкой в колесе на пути его реализации.
>>724268
#87 #723186
>>723127

>гибель агента приведёт к невозможности выполнения задачи и получения вознаграждения от среды.



А какже агенты, задачи которых будут включать самоуничтожение или самопожертвование при определенных условиях?
>>723193
#88 #723193
>>723186
Да, случай выходит за рамки, описанного мной. Но это всё фиксится высокой наградой за смерть. Вот здесь я могу ошибаться, но в reinforcement learning емнип есть даже термин для этого. Надеюсь, что меня пофиксят.
#89 #724268
>>723150

>роботы уже давно решают людские задачи


Нет, они даже NP-полные задачи не решают.

>даже получают очки поощрения, аналогичные тому же выделению поощрительных нейромедиаторов у биологических аналогов,



Шта? Приведи пример.

>Тупое догматизирование своей идеи просто построенной на аналогии с биологическим интеллектом



Потому что именно на АНАЛОГЕ с биологическим существом, неотделимым от клеток мозга (клетки мозга даже в позвоночнике есть) и нужно все строить. Нейросети на аналоге с мозговыми медиаторами построили. Человек абсолютно все изобретает, копируя с природы. Значит и организовывать эти медиаторы нужно по типу работы человеческого мозга в совокупности с жизненными системами.

>выполняют подобные функции


ноуп, современные компьютеры и сети напоминают лишай, паразит, поросший на столбе, который составляют люди и приобретаемое ими иэлектричество-механизмы. Без донора паразит умирает. Это все еще нечто лишенное мыслительной деятельности даже на примитивном уровне.

Дальше ты уже занимаешься демагогией.

>выживание не является той самой


на инстинктивном уровне биологического организма является. Но чтобы подавлять этот инстинкт, его надо сначала приобрести. тут ты пытаешься уйти в сторону суицида и его причина, но это уже оффтопик.

Я всего лишь высказываю свои мысли на эту тему. Поэтому ученые имплантируют мозг мышей в роботов.
>>724362>>724831
#90 #724362
>>724268

> > роботы уже давно решают людские задачи


> Нет, они даже NP-полные задачи не решают.


Не все людские задачи NP-полные, есть рутина. Гугли список вымерших профессий.

> >даже получают очки поощрения, аналогичные тому же выделению поощрительных нейромедиаторов у биологических аналогов,


> Шта? Приведи пример.


Reinforcement learning. Всё построено на наградах и штрафах агента.

> Человек абсолютно все изобретает, копируя с природы. Значит и организовывать эти медиаторы нужно по типу работы человеческого мозга в совокупности с жизненными системами


Пример про птицу и самолёт.
#91 #724831
>>724268

>они даже NP-полные задачи не решают.


А не NP-полные задачи уже не людские? Да и вообще-то решают:
Задача является NP-полной, если она входит в NP и является NP-трудной.

>The endgame may involve many other aspects of Go, including 'life and death', which are also known to be NP-hard


>Google’s AI Wins First Game in Historic Match With Go Champion



>Pac-Man Proved NP-Hard By Computational Complexity Theory


http://www.youtube.com/watch?v=yfsMHtmGDKE

Алгоритмы могут в распознавание речи и изображений в реальном времени
https://www.technologyreview.com/s/513696/deep-learning/
https://github.com/karpathy/neuraltalk2 (см README.md)

Обучаются решению задач конструирования прям как дети в садике
http://www.bloomberg.com/features/2015-preschool-for-robots/
и много чего еще

>Шта? Приведи пример.


https://en.wikipedia.org/wiki/AIXI
https://en.wikipedia.org/wiki/Leabra

>Потому что именно на АНАЛОГЕ с биологическим существом и нужно все строить.


>Человек абсолютно все изобретает, копируя с природы. Значит и организовывать эти медиаторы нужно по типу работы человеческого мозга в совокупности с жизненными системами.



Является ли крыло самолета аналогом крыла птицы? В каком-то смысле да, но суть ты, надеюсь, уловишь без лишних разъяснений.
А на аналоге чего в природе сделан, например, калькулятор? Мозга? На основании каких природных аналогов человеки изобретали колесо? М.б. ног, лол?

>ноуп, современные компьютеры и сети напоминают лишай.


>Это все еще нечто лишенное мыслительной деятельности даже на примитивном уровне.



А тебя не смущает при этом, что множество организмов, успешно справляющихся с задачей выживания, лишены вообще каких-либо проявлений интеллекта даже на примитивном уровне? Хотя, это опять же смотря как посмотреть, вот, например https://en.wikipedia.org/wiki/Microbial_intelligence

>Дальше ты уже занимаешься демагогией.



Твое сознание привыкло однозначно разделять живое от неживого и поэтому относит к демагогии все то общее, что можно наблюдать у систем вне зависимости от их структуры и организации. Так вот функции, связанные с поддержкой работоспособности так или иначе прослеживаются в любой хоть сколько-нибудь устойчивой системе, будь то белковый организм, операционная система, транспортные сообщения, или даже социальная сфера законодательства и правоприменения. Но система при этом решает в первую очередь стоящие перед ней задачи, а не только лишь зациклена на сохранении своей работоспособности, более того, она способна даже игнорировать поддержание работоспобности ради выполнения задачи или утрачивать работоспособность в случае неудачных вариантов решения задачи. Факт возможности игнорировать работоспособность в угоду других задач свидетельствует о том, что т.н. "выживание" главной задачей интеллекта не является, а представляет собой лишь одну из подзадач, так или иначе решаемых агентом с целью поддержания своей работоспособности.

>на инстинктивном уровне биологического организма является. Но чтобы подавлять этот инстинкт, его надо сначала приобрести. тут ты пытаешься уйти в сторону суицида и его причина, но это уже оффтопик.



Это не офтопик, а наглядное доказательство, что даже биоинтеллект не решает задачи только лишь затем чтобы выживать, а способен ставить своими главными целями любые задачи, не говоря уже про решение задач, которые ему поставили программно.

> ученые имплантируют мозг мышей в роботов.



Мозг мышей? Может, всеже культуру нейронов? С целью изучения работы мозга в первую очередь, а не создания ии. Про какие-либо чипы на бионейронах приходилось встречать разве что весьма сомнительную затею вроде http://motherboard.vice.com/read/komiku-neuron-computer-agabi

>His startup, Koniku, which just completed a stint at the biotech accelerator IndieBio, touts itself as “the first and only company on the planet building chips with biological neurons.”


В то время как нейроны уже давно моделируются не только на уровне алгоритмов типа ConvNet, LSTM или но и чипов-мозгов (IBM TrueNorth).
#91 #724831
>>724268

>они даже NP-полные задачи не решают.


А не NP-полные задачи уже не людские? Да и вообще-то решают:
Задача является NP-полной, если она входит в NP и является NP-трудной.

>The endgame may involve many other aspects of Go, including 'life and death', which are also known to be NP-hard


>Google’s AI Wins First Game in Historic Match With Go Champion



>Pac-Man Proved NP-Hard By Computational Complexity Theory


http://www.youtube.com/watch?v=yfsMHtmGDKE

Алгоритмы могут в распознавание речи и изображений в реальном времени
https://www.technologyreview.com/s/513696/deep-learning/
https://github.com/karpathy/neuraltalk2 (см README.md)

Обучаются решению задач конструирования прям как дети в садике
http://www.bloomberg.com/features/2015-preschool-for-robots/
и много чего еще

>Шта? Приведи пример.


https://en.wikipedia.org/wiki/AIXI
https://en.wikipedia.org/wiki/Leabra

>Потому что именно на АНАЛОГЕ с биологическим существом и нужно все строить.


>Человек абсолютно все изобретает, копируя с природы. Значит и организовывать эти медиаторы нужно по типу работы человеческого мозга в совокупности с жизненными системами.



Является ли крыло самолета аналогом крыла птицы? В каком-то смысле да, но суть ты, надеюсь, уловишь без лишних разъяснений.
А на аналоге чего в природе сделан, например, калькулятор? Мозга? На основании каких природных аналогов человеки изобретали колесо? М.б. ног, лол?

>ноуп, современные компьютеры и сети напоминают лишай.


>Это все еще нечто лишенное мыслительной деятельности даже на примитивном уровне.



А тебя не смущает при этом, что множество организмов, успешно справляющихся с задачей выживания, лишены вообще каких-либо проявлений интеллекта даже на примитивном уровне? Хотя, это опять же смотря как посмотреть, вот, например https://en.wikipedia.org/wiki/Microbial_intelligence

>Дальше ты уже занимаешься демагогией.



Твое сознание привыкло однозначно разделять живое от неживого и поэтому относит к демагогии все то общее, что можно наблюдать у систем вне зависимости от их структуры и организации. Так вот функции, связанные с поддержкой работоспособности так или иначе прослеживаются в любой хоть сколько-нибудь устойчивой системе, будь то белковый организм, операционная система, транспортные сообщения, или даже социальная сфера законодательства и правоприменения. Но система при этом решает в первую очередь стоящие перед ней задачи, а не только лишь зациклена на сохранении своей работоспособности, более того, она способна даже игнорировать поддержание работоспобности ради выполнения задачи или утрачивать работоспособность в случае неудачных вариантов решения задачи. Факт возможности игнорировать работоспособность в угоду других задач свидетельствует о том, что т.н. "выживание" главной задачей интеллекта не является, а представляет собой лишь одну из подзадач, так или иначе решаемых агентом с целью поддержания своей работоспособности.

>на инстинктивном уровне биологического организма является. Но чтобы подавлять этот инстинкт, его надо сначала приобрести. тут ты пытаешься уйти в сторону суицида и его причина, но это уже оффтопик.



Это не офтопик, а наглядное доказательство, что даже биоинтеллект не решает задачи только лишь затем чтобы выживать, а способен ставить своими главными целями любые задачи, не говоря уже про решение задач, которые ему поставили программно.

> ученые имплантируют мозг мышей в роботов.



Мозг мышей? Может, всеже культуру нейронов? С целью изучения работы мозга в первую очередь, а не создания ии. Про какие-либо чипы на бионейронах приходилось встречать разве что весьма сомнительную затею вроде http://motherboard.vice.com/read/komiku-neuron-computer-agabi

>His startup, Koniku, which just completed a stint at the biotech accelerator IndieBio, touts itself as “the first and only company on the planet building chips with biological neurons.”


В то время как нейроны уже давно моделируются не только на уровне алгоритмов типа ConvNet, LSTM или но и чипов-мозгов (IBM TrueNorth).
>>726364
#92 #726364
>>724831
Ну правильно, ты пытаешься выдавить интеллект из того, что еще даже как живое не классифицируется. Т.е. ты не делаешь инфузорию туфельку или клетку, а сразу минуешь многовековой процесс эволюции и ебашишь нейроны по отдельности и хочешь, чтобы они в совокупности работали как орган сложнейшей живой структуры.
Максимум, до которого они дошли - это пересадка мозга мыши роботу или копирование нейронных связей червя.

Биоинтеллект решает задачи выживания на инстинктивном уровне. Сохранение системы - это первостепенная задача. И почему эти инстинкты могут подавляться - это уже отдельная тема для разговора, не относящаяся к теме треда.
>>726506>>726795
#93 #726506
>>726364

>копирование нейронных связей червя


Если это ты про оупенворм, то там лажа. Именно связи они восстановили ок, т.е. какой нейрон с каким связан. Но весов-то нет! Естественно, ничего не работает. Они его запустили, оно там рандомом как-то посигналило, и это объявили успехом.
#94 #726509
>>717453 (OP)
Забрасывайте эту свою кровавую магию, нихуя никто не понимает что делает и для чего всеравно.
>>726511>>726542
#95 #726511
>>726509
Хотя бабки норм можно срубить, впаривая как это всем необходимо, сраный тупой воротничек, ай да, и клюнет.
362 Кб, 262x219
#96 #726542
>>726509

>нихуя никто не понимает


Школотун, пиши что лично ты нихуя не понимаешь, а не "все". Какие же вы дебилы, слов нет. "Наука не знает", "никто не знает" и т.п., вместо правды - лично ты не знаешь. Поссал тебе на шиворот.
>>726552
#97 #726552
>>726542
Ха бля, вылез хуй сектантский, хоть один юзкейз сюда, или пиздабол.
>>726569>>727030
#98 #726569
>>726552
Упаковать пылесосом дату в полителен, потом по изгибам полителена понять что нас ждет, хули тут тебе непонятного?
#99 #726795
>>726364

>пытаешься выдавить интеллект из того, что еще даже как живое не классифицируется.



А ты часом не из тех упоротых, что считают, что интеллект это только лишь может быть свойством живого? Что ты вообще забыл в таком случае?

>минуешь многовековой процесс эволюции и ебашишь нейроны по отдельности и хочешь, чтобы они в совокупности работали как орган сложнейшей живой структуры.



Я никакие нейроны по отдельности не ебашу вообще, я ебашу алгоритмы и вот если ты не в курсе, то нейросети это всего-лишь разновидность алгоритмов машинного обучения и распознавания в первую очередь, во вторую это специфическая разновидность самомодифицирующегося кода; в третью - средства решения задачи оптимизации и уже потом только это модель в некоторых аспектах, схожая с биологическими нейросетями. И это как раз всякие альтернативно-одаренные из сторонников эволюционного подхода надеются, что если им удастся воспроизвести агента со слабым интеллектом, стремящегося к выживанию, то рано или поздно из него получится сильный интеллект ну потому что в природе тоже получилось, про то, что ушло миллионы лет на модификацию этих алгоритмов через гигантскую выборку как-то забывается, как забывается и то, что даже алгоритмы сильного человеческого интеллекта не способны к какой-либо существенной самомодификации и если и эволюционируют, то все также через рандомный перебор генов в следующих поколениях. Как забывается и то, что из всего многообразия носителей хоть какого-нибудь интеллекта до сильного развился только человек, хотя к выживанию стремятся вроде бы все. Как забывается и то, что всего многообразия живых организмов, обладающих развитым интеллектом, хоть как-нибудь заставить решать задачи, необходимые человеку, можно лишь очень малую часть и тех же шимпанзе даже, в отличии от алгоритмов, автомобилями управлять не прикрутишь. Это уже к вопросу практической пользы от подобных продуктов эволюции и выживания.

И все это вместо ориентирования на изначальное создание алгоритмов аналогичных тем, что заложены в человека при рождении и способных за короткий срок обучаться до сильного ии и решать задачи его уровня.

>Сохранение системы - это первостепенная задача.



И снова мантра-молитва.

>И почему эти инстинкты могут подавляться - это уже отдельная тема для разговора, не относящаяся к теме треда.



Да просто оно наглядно демонстрирует, что ты заблуждаешься, вот тебе и остается только строчить, что это не относится к теме разговора.

>Максимум, до которого они дошли - это пересадка мозга мыши роботу или копирование нейронных связей червя.



Да потому что это все задачи моделирования, которыми занимаются больше чтобы изучить работу нервной системы и в плане ии максимально-возможная польза от подобных опытов заключается в том, чтобы выявить какой-нибудь механизм функционирования нервной системы из разряда нейрокодирования, чтобы потом на ее принципах попытаться запилить модель и приспособить под решение какой-либо задачи в виде алгоритма. При этом всем алгоритмы ии, написанные людьми (доработанные, оптимизированные, изобретенные по многим пунктам, состоящие не из только нейросетей и тем более не тупо лишь скопированные с бионейронов) с целью выполнения конкретных задач в первую очередь (а не постановки экспериментов) с этими задачами так или иначе справляются. А алгоритмы, например, выдающие что изображено на фотографии уже можно даже называть понимающими, потому что они распознают информацию и выдают результат обработки на символьном людском языке, т.е. делают тоже самое что и люди при решении узкоспециализированной задачи. И, блять, покажи мне робота с мозгом мыши хотябы в газетной статье где есть ссылка на саму публикацию, не удивлюсь, что это будет громкий заголовок быдлогазеты, где имеется ввиду, что к управлению робота припилили культуру нейронов.
#99 #726795
>>726364

>пытаешься выдавить интеллект из того, что еще даже как живое не классифицируется.



А ты часом не из тех упоротых, что считают, что интеллект это только лишь может быть свойством живого? Что ты вообще забыл в таком случае?

>минуешь многовековой процесс эволюции и ебашишь нейроны по отдельности и хочешь, чтобы они в совокупности работали как орган сложнейшей живой структуры.



Я никакие нейроны по отдельности не ебашу вообще, я ебашу алгоритмы и вот если ты не в курсе, то нейросети это всего-лишь разновидность алгоритмов машинного обучения и распознавания в первую очередь, во вторую это специфическая разновидность самомодифицирующегося кода; в третью - средства решения задачи оптимизации и уже потом только это модель в некоторых аспектах, схожая с биологическими нейросетями. И это как раз всякие альтернативно-одаренные из сторонников эволюционного подхода надеются, что если им удастся воспроизвести агента со слабым интеллектом, стремящегося к выживанию, то рано или поздно из него получится сильный интеллект ну потому что в природе тоже получилось, про то, что ушло миллионы лет на модификацию этих алгоритмов через гигантскую выборку как-то забывается, как забывается и то, что даже алгоритмы сильного человеческого интеллекта не способны к какой-либо существенной самомодификации и если и эволюционируют, то все также через рандомный перебор генов в следующих поколениях. Как забывается и то, что из всего многообразия носителей хоть какого-нибудь интеллекта до сильного развился только человек, хотя к выживанию стремятся вроде бы все. Как забывается и то, что всего многообразия живых организмов, обладающих развитым интеллектом, хоть как-нибудь заставить решать задачи, необходимые человеку, можно лишь очень малую часть и тех же шимпанзе даже, в отличии от алгоритмов, автомобилями управлять не прикрутишь. Это уже к вопросу практической пользы от подобных продуктов эволюции и выживания.

И все это вместо ориентирования на изначальное создание алгоритмов аналогичных тем, что заложены в человека при рождении и способных за короткий срок обучаться до сильного ии и решать задачи его уровня.

>Сохранение системы - это первостепенная задача.



И снова мантра-молитва.

>И почему эти инстинкты могут подавляться - это уже отдельная тема для разговора, не относящаяся к теме треда.



Да просто оно наглядно демонстрирует, что ты заблуждаешься, вот тебе и остается только строчить, что это не относится к теме разговора.

>Максимум, до которого они дошли - это пересадка мозга мыши роботу или копирование нейронных связей червя.



Да потому что это все задачи моделирования, которыми занимаются больше чтобы изучить работу нервной системы и в плане ии максимально-возможная польза от подобных опытов заключается в том, чтобы выявить какой-нибудь механизм функционирования нервной системы из разряда нейрокодирования, чтобы потом на ее принципах попытаться запилить модель и приспособить под решение какой-либо задачи в виде алгоритма. При этом всем алгоритмы ии, написанные людьми (доработанные, оптимизированные, изобретенные по многим пунктам, состоящие не из только нейросетей и тем более не тупо лишь скопированные с бионейронов) с целью выполнения конкретных задач в первую очередь (а не постановки экспериментов) с этими задачами так или иначе справляются. А алгоритмы, например, выдающие что изображено на фотографии уже можно даже называть понимающими, потому что они распознают информацию и выдают результат обработки на символьном людском языке, т.е. делают тоже самое что и люди при решении узкоспециализированной задачи. И, блять, покажи мне робота с мозгом мыши хотябы в газетной статье где есть ссылка на саму публикацию, не удивлюсь, что это будет громкий заголовок быдлогазеты, где имеется ввиду, что к управлению робота припилили культуру нейронов.
>>727219
какашечка #100 #726948
Надеюсь тот пиздобол, который тут хуярит шизофазию параграфами уже показал свой йоба проектик или как всегда?
>>727028
#101 #726965
Кто-нибудь здесь собирается уже что-то начинать?
Я тупой и нихуя не умею и не знаю, но мне охуенно интересно следить за этим срачем и я жду не дождусь, когда уже кто-то начнет.
>>726971>>727028
какашечка #102 #726971
>>726965
конечно же нет, это тредик пиздаболов.
>>727028
#103 #727028
>>726948
Нет, он поясняет за отсталость и унылость классических аргументов против возможности создания общего ии.
Сорт оф полезной пиздаболии.

>>726965
Там выше где-то ссылочка была на какую-то конфочку в гугле.
Закончится это всё тем же, чем заканчивается любой тред на сосаче. Простым уплыванием тредика в бамплимит или забвение.

>>726971
Как и многие другие. Но это весело.
>>727049
#104 #727030
>>726552
Замена биомусора, типа тебя, на что-то более кавайное, скиллованное и адекватное.
Аноним #105 #727049
>>727028

>он поясняет за отсталость и унылость классических аргументов


это мы и так знаем, и эти ваши нейронный цепи хуета.
Аноним #106 #727071
Ну ка мамкины теоретики, нахуярили ка мне покербота к Poker Academy.
>>727127
#107 #727119
Какашечка, ты самый годный постер в этом унылом треди.
21 Кб, 442x250
#108 #727127
>>727071
Хуйня все эти боты для решения узкоспециализированных задач на базе заточенных под них алгоритмов, вот недавно в го запилили победу чемпиона через алгоритм, а толку-то нет по большому счету. Надо пилить роботов, взаимодействующих со средой через сенсоры в первую очередь, причем это должны быть сенсоры для серьезного зрения и распознавания вроде PCI http://www.pointclouds.org/ , которые строят в системе агента модель среды, а построение модели среды и распознавание в ней объектов это то, откуда растут корни интеллекта, дальше уже долго тут расписывать. Но так как не у кого тут нету даже какого-нибудь быдлоKinecta, микрокомпа вроде Pi Raspberry и нескольких серв для сборки arm-манипулятора, то и говорить о реализации ии серьезно не приходится, пока кто-нибудь не объявится с этим минимальным набором или хотябы решит потратиться на это в районе 20-30к в ближайшем будущем. Я не из тех, кто надеется запилить ии на пекарне с веб-камерой на зрении и прекрасно понимаю с чего надо начинать и примерно представляю как много здесь предстоит опытов и поисков. Но итт нет даже и таких, кто на ноутбуке что-то кодить пытается, поковыривая ML-алгоритмы хотябы или тех, кто роботов хоть каких-то собирает не встречается, вот разве что мимокрок был >>721583
>>727153>>727169
Аноним #109 #727153
>>727127
Маня, компзрение это пиздос как сложно, даже нормальное OCR например для арабской вязи не реализуем, поэтому предлагаю вместо кукаретики запилить покербота.
>>727350
какашечка #110 #727169
>>727127

>20-30к


кек джва раза. Мне вот интересно, ну могу я например и больше потратить и проекты у меня есть, только вот ты нахуй нужен? Вот в чем вопрос.
#111 #727214
На самом деле все упирается в мощности и нам необходим компутер, а лучше компутеры или серверы, которые работают круглосуточно обеспечивая жизненную среду для программ. Давайте лучше подумаем над тем, где это можно найти? Заражать компутеры пользователей воруя их вычислительные мощности в фоновом режиме?
>>727353>>727623
#112 #727216
Вот кстати pr-овская конфа - можно здесь обсуждать.

https://web.telegram.org/#/im?p=s1036481466_16995570805149544821
#113 #727219
>>726795
Я тебе говорю про имитацию живого, идиот тупой.
Ладно, иди дальше машинки паяй, бесполезно с технарям обсуждать вопросы целеполагания.
#114 #727224
>>721591
предлагаю сразу по мейлу в Hangouts добавлять.
161 Кб, 649x527
#115 #727350
>>727153

>OCR например для арабской вязи не реализуем


Даладна? Сам высчитывал? Только вот тотже гугл почему-то распознается скриншоты из вики на арабском, переделывая их на текст.
>>727597
#116 #727353
>>727214

>все упирается в мощности и нам необходим компутер, а лучше компутеры или серверы, которые работают круглосуточно обеспечивая жизненную среду для программ.



Давайка-ты сначала наглядно продемонстрируешь почему тебе не достаточно, например, среднего уровня пекарни у себя дома и почему так важно, чтобы она никогда не выключалась.
>>727388
#117 #727388
>>727353
Потому что будет запущен непрерывный и автономный процесс эволюции. Программам нужна большая сеть для развития, а не один компутер. Просто я художник и я так вижу.
>>727524>>727623
99 Кб, 800x600
#118 #727524
>>727388
Я не сторонник подобных подходов как и не сторонник всяких ботов для игор, я, конечно, не против, если тут кто-то начнет пилить ботов для покера или очередной раз пытаться в моделирование эволюции, даже порадуюсь, что кто-то что-то пытается и имеет свои проекты, но лично я стремлюсь к запиливанию системы из алгоритмов, способных обучаться со временем до решения задач сильного ии. А чтобы собрать подобную систему, то необходимо ставить специфические опыты на агенте, взаимодействующем со средой и пытаться довести его для начала хотябы до уровня решения детских задач по конструированию типа строительства из кубиков. И начинать тут надо с распознавания и моделирования среды.
>>727549>>727606
#119 #727528
>>718999

> IT-господ


AdMob.
#120 #727549
>>727524
детский садик напоминает.
81 Кб, 1000x667
#121 #727552
Итак фанатов АИ можно поделить на две категории: детсадовцы, которые развлекаются поклеиванием машинок и танчиков, и нормальные господа, которых интерисует вопрос искуственной жизни и интеллекта, зарождающегося и развивающегося в сети, а не самоходных елдаков.
Первые пилят танчики и гранты в государственных НИИ. Пик релейт - типичный результат их творчества.
>>727563>>727581
#122 #727563
>>727552

>интерисует вопрос искуственной жизни и интеллекта, зарождающегося и развивающегося в сети



Итт это дети-кукаретики, которые только и могут, что насасывать хуи в срачах типа является ли выживание основной задачей интеллекта, да засирать тред своими фантазиями, домыслами и всякой толстотой.
sage #123 #727581
>>727552
Ну а про вторых то че умолчал? Из года в года имитируют бурную деятелmность, завершают "очередной прорыв", который вот вот еще чуть-чуть и все будет, пиля те же самые грантики. Cорта говна.
#124 #727586
Хули вы тут забыли, пидоры, у вас есть сци-загон где вы можете вместе со всякими фриками-савельевосектантами высказать свое очень важное мнение про попилы бабла на ии и всякий диванный скептицизм по его реализации. Нахуя вы, уебки, которые сами нихуя не делают лезете со своими кукареками в тред к людям, которые что-то пытаются?
>>727598
какашечка #125 #727597
>>727350
а теперь засунь туда скрин газеты
>>727600
какашечка #126 #727598
>>727586

>которые что-то пытаются


я вижу только школотрона пытающегося развести на пеку
>>727623
какашечка #127 #727600
>>727597
з.ы. там акуратность примерно 30-40%
>>727623
какашечка #128 #727606
>>727524
давай скрин мамкиной кредитки с двух сторон, я закину туда бабосов на сервер
>>727623
#129 #727623
>>727606 >>727598
Я не просил тут нигде никаких бабосов на сервер, поехавший. Тебе к этому >>727388 >>727214
наверное.
>>727600
И снова охуительные расчеты в виде пиздабольства. Так и знал, что начнешь кудахтать про распознавание почерков пьяных врачей-арабов на мятой туалетной бумаге или что-то подобное.
>>727650
#130 #727641
скиньтесь мне на сервера, мне нужны большие оче большие мощности.
>>727651
какашечка #131 #727650
>>727623
ебанько, твоя распознавалка типового шрифта без фонового шума, нахуй ненужна. Хотя в твоем случае, ИИ это простое пиздабольство, тоже пади мощностей на сервере нехватает?
какашечка #132 #727651
>>727641
Ты уже зделал роборуку для дрочки?
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 2 мая 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски