Como o teorema de Bayes é usado em robótica?

É usado para atualizar o que o robô acredita sobre algo do que observa no mundo. Provavelmente, a aplicação mais bem-sucedida do teorema de Bayes em Robótica é a “localização” (posicionamento) do robô.

(Presumo que você não esteja 100% familiarizado com a robótica ou a probabilidade bayesiana.)

Imagine que você é um robô dentro de casa e presuma que não tem idéia de onde está. Você não tem nenhuma evidência para preferir um local a outro para sua posição; portanto, é justo dizer que a probabilidade, ou “crença”, de sua posição ser um local é igual a outro.

Então, seu olho (ou “sensor de visão” porque você é um robô) vê um caddy de chuveiro, e essa “observação” dá uma pista sobre onde você está – você provavelmente está em um banheiro, não em uma sala de estar ou alguma coisa. Espere, há um salto na linha de pensamentos aqui.

O que você sabe é que a probabilidade de ver um chuveiro no banheiro é alta, enquanto é baixa na sala de estar. Você não está 100% certo disso, porque pode ter comprado e deixado na sala de estar ou seus olhos estão “errados” (seus sensores de visão são barulhentos e errôneos), mas é provavelmente mais provável. Então, parece razoável adivinhar que, como você já viu um chuveiro, é mais provável que você esteja no banheiro do que na sala de estar. Muito razoável, mas como podemos expressar esse raciocínio em termos matemáticos? O teorema de Bayes fornece um mecanismo sólido para executar esse raciocínio. (Mas não é o único.)

[math] P (\ mathrm {room} | \ mathrm {shower caddy}) \ propto [/ math] [math] P (\ mathrm {shower caddy} | \ mathrm {room}) P (\ mathrm {room}) [/matemática]

[math] P (\ mathrm {room}) [/ math] é a crença “anterior” antes de você ver o chuveiro, [math] P (\ mathrm {shower caddy} | room) [/ math] fornece o probabilidade de ver o caddy do chuveiro em algum quarto, e [math] P (\ mathrm {room} | \ mathrm {shower caddy}) [/ math] é sua nova crença depois de ver o caddy do chuveiro.

Agora você pode imaginar fazendo isso repetidamente enquanto vê coisas novas, usando a crença anterior como a anterior para a etapa atual.

Há um problema com o uso do teorema de Bayes e isso é “probabilidades precisas”. Você realmente precisa ter precisão antes de poder usar essa aproximação. Normalmente, é assim. O caso inicial contém 5, digamos, possíveis resultados e nenhum outro. Não há probabilidades reais associadas aos 5 casos, portanto, assumindo uma distribuição retangular, as probabilidades são igualmente prováveis, cada uma deve ser 0,2 … isso representa suas probabilidades anteriores. Na verdade, você acabou de concordar em não ter idéia do resultado, ou seja, é mais provável que qualquer um dos outros quatro resultados ocorra do que aquele que você pode escolher. Se você obtiver uma evidência esmagadora de um caso, e não dos outros. Suas probabilidades anteriores dominarão a atualização bayesiana e sua certeza sobre as evidências será reduzida. As evidências melhoram o que era conhecido, mas você não sabia o melhor para usá-las diretamente. A matemática exige precisão nas probabilidades, incluindo probabilidades anteriores. (O p (evidência do resultado1, dada a probabilidade inicial do resultado1) é realmente indeterminado, e também será o p (resultado1, dada a evidência do resultado1). Se você conhece as probabilidades necessárias, é preciso.

Para um robô, você pode usar métodos preditores-corretores baseados em modelo, que utilizam as propriedades dinâmicas e físicas do sistema para encontrar a região de erro sobre alguma propriedade (por exemplo, posição ou velocidade. Em seguida, associe-se observando a plausibilidade de estar nessa região ( veja, por exemplo, filtros kalman)

O teorema de Bayes em robótica, como em muitas aplicações, é usado para estimar probabilidades.

Suponha que, a partir da observação, nós (o robô talvez) tenha notado que, muitas vezes, quando ultrapassa um limite, vamos chamá-lo de B, logo é seguido por uma cara de raiva em nosso pai (o nome do robô para o proprietário), vamos chamá-lo de A .

Percebemos que atravessar a fronteira nem sempre é seguido pela raiva, às vezes eles parecem ignorar isso.

Também notamos que, às vezes, eles parecem ficar bravos por nada 🙁

Por observação cuidadosa, pode-se descobrir a probabilidade P (A), de que nossos pais estão zangados, a probabilidade de cruzarmos um limite P (B) dizer e a probabilidade de cruzarmos um limite antes que eles pareçam zangados – escrevemos isso como P (B | A).

Agora, como uma boa criança, queremos evitar essa raiva e gostaríamos de estimar as chances de que a raiva seja causada por transgressões.

É aqui que entra o teorema de Baye!

se a analogia for perturbadora, substitua seus próprios rótulos por A e B;)