elisdema2013 написал(а):(#15)
Показал картинку, и как человек ее повторил. Например стул: Нейросети впервые покажешь, она его не сможет сделать по картинки. ИИ может.
Короче ИИ это как человеческий разум. А нейросеть математическая модель, которая пытается пародировать человеческий разум.
Человеческий мозг постоянно обучается. Нейронную сеть пока сама не может обучаться. Поэтому она и использует только те знания, которые в нее заложили. ИИ - это искусственный интеллект. Это не значит, что он должен быть сравним с интеллектом человека, особенно пока. Все зависит от того, какие понятия мы вкладываем в термин ИИ.
elisdema2013 написал(а):(#15)
ИИ смог бы научится от сложности задачи. Та же картинка со стулом, ИИ использовал бы логику(или что бы там бы ты использовал?), и собрал стул. Нейросеть же не смогла. Ты сам говоришь что нейросеть не обучишь за пару минут. А ИИ это как человеческий(Взрослый) разум. Вот это еще одно отличие.
Да, пока нейронные сети не могут обучаться сами. А почему сравниваешь ИИ с человеческим(взрослым) разумом? Почему не с разумом ребенка? А может и вообще не с человеческим, а животным? Надо же с чего-то начинать.
Некоторые авторы-фантасты пишут о роботах-детях. К примеру, мы уже говорили про робота Электроник из "Приключения Электроника".
Может быть по тому, что даже ИИ должен немного "повзрослеть" - научиться. Если мы считаем, что ИИ должен сам обучаться, то он так же должен обучаться как ребенок или как-то иначе?
elisdema2013 написал(а):(#15)
Короче, нейросеть будет состоять в ИИ как инструмент, но сам ИИ будет быстро обучатся и основываться на логике.
Возможно так в будущем и будет.
elisdema2013 написал(а):(#15)
ИИ должен логически думать, иначе интеллект без логики? Так это не интеллект. Это инстинкты, как у животных, которые вписали разработчики ИИ. Если они что то забыли, то например он будет падать, не зная плохо это хорошо. Хороший пример: Овца-вожак бегал куда то, дальше пришли те кто пасут, вожак испугался и побежал в обрыв, но и его сородичи пошли за ним, на верную гибель. Эволюция просто забыла дать им инстинкт боязни высоты. Так же с нейросетью. А ИИ поймет что падать с высоты смертельно опасно(он узнал либо на логике, либо увидел что его сородич тоже упал, и умер).
Интеллект без интеллекта) Мне кажется в правильном направлении думаешь. Я бы сравнил это с нашем подсознанием, которое нам постоянно помогает, это и инстинкты и различные ассоциации, мы, даже, когда придумываем предложение, какие-то слова сами появляются в голове.
Видимо овцы за всю жизнь никогда не падали. Поэтому им этот страх был не знаком.
Поищи шмелиный футбол. Тебя немного удивит поведение таких простых существ. Размер их мозга, думаю, не такой большой, чтобы получить всю карту их нейронной сети. Полагаю, количество нейронов у шмелей сопоставимо с нейронами в нейронных сетях, использующихся в вычислительной техники. Но количество связей, там скорее всего на много больше, чем сейчас возможно сделать. Вроде уже писал, что карта нейронных сетей дрозофила уже получена.
elisdema2013 написал(а):(#16)
И что? Она просто сокращает мне время писания. Ладно бы я бы использовал бы для приветствий и т.п., но я лишь сгенерил текст чтобы сэкономить время,+ я именно это хотел сказать
Ссылайся, что этот текст сгенерирован, тогда и вопросов к тебе не будет.
elisdema2013 написал(а):(#16)
Имеется ввиду что человеческое лицо можно найти в базе данных.
И что? Человек будет долго искать по картотеке, а умные камеры сразу обнаружат преступника.
elisdema2013 написал(а):(#16)
ну да. Думаю роботы станут сильным оружием. Но именно каким? То что сжигает дома обычных людей? Или мирных граждан не трогает? Или это экстерминатор который уничтожает людей до тла?
Все будет зависеть от того, какую свободу им дадут. Роботы не понимают боль людей и готовы выполнять любые "приказы".
Тут можно еще вспомнить про законы робототехники, которые были сформулированы Айзеком Азимовым:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
И еще 0 закон, добавленный позже:
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.
Будут ли эти законы когда-либо использованы - мы пока не знаем. Но явно не в военном деле.