
Postado originalmente por
krakrek
Na minha opinião o medo atrapalha. Não é necessário ter emoções para sequir uma escolha lógica, uma escolha certa. Emoções não são mecanismos de defesa, mas o reflexo, que é afetado não pelo medo e sim por algo que aconteceu no ambiente a volta do ser vivo, pode ser considerado um.
Acredito que as emoções nos dão um objetivo maior do que uma simples "sobrevivencia", mas ela ilude e atrapalha o que seria de fato a escolha certa, no caso do ser humano.
É necessário ter respostas rápidas à estímulos externos pelo simples motivo de existirem N escolhas a serem feitas em uma situação e nem todas elas serem rápidas. E como o Dragon disse, o método de se tomar decisões não é linear, inclusive é esse fato que separa um programa de Inteligência Artificial de um ser humano. Se você não tem todas as informações sobre uma situação, existem diversas formas de agir, sendo que todas elas poderiam ser consideradas boas dentro da limitação de informação.
No fundo, o objetivo sempre foi emular emoções humanas em toda sua complexidade em um algoritmo programável, algo que está longe de acontecer. Só que essas emoções, ao mesmo tempo que nos protegem do ambiente, se põe na frente de uma racionalidade lógica. Afinal, a primeira resposta que temos para uma situação, geralmente será emocional.

Postado originalmente por
Ninja Dragon
Pra mim a solução está na capacidade de um computador de se auto-programar, usando tentativa e erro. E qual o mecanismo de tentativa e erro mais poderoso que existe na natureza, e que deu origem à inteligência humana? A evolução.
Nisso, existem os algoritmos genéticos. Que são programas que simulam tentativa e erro, e analisam os seus problemas como se fossem cromossomos submetidos à seleção natural e à evolução, pra chegar a conclusões. Um alrogitmo dessa natureza poderia ser a chave para um computador ficar mais inteligente que nós.
Então Ninja, o problema dos algoritmos genéticos é que o modelo matemático e heurístico ainda é muito "fraco". Qualquer algoritmo desse tipo ainda é "facilmente" mapeado em um modelo probabilístico. Mesmo que ele aprenda sozinho, você sabe onde ele chegará, porque a ele falta algo básico: a Semântica. Eles
sempre vão se limitar às interpretações de dados previamente programadas. Por mais que recebam dados, a visão e o tratamento sobre os mesmos será sempre a mesma.
Eu acredito na mudança de visão da área de inteligência artificial, que é o abandono da tentativa de discretizar a semântica do pensamento humano e partir para uma tentativa de simular a biologia do nosso cérebro.
A tempos atrás saiu uma artigo na
Wired, reproduzido também no blog
Meio Bit, sobre isso. Vale a pena ler.