probabilidade

Qualifica-se de provável um juízo ou enunciado, em favor da verdade do qual militam ponderosas razões, que todavia não excluem o contrário, de sorte que não se verifica nenhuma certeza. Em oposição ao juízo certamente verdadeiro, o juízo provável é só uma opinião. O mesmo juízo pode, a um tempo, ser provavelmente verdadeiro e provavelmente falso. A maior probabilidade de um juízo também não anula, em si, a probabilidade do contrário. Amiúde, na vida cotidiana temos de nos contentar com aquele grau elevado de probabilidade que exclui a probabilidade bem fundamentada do contrário, mas não a sua possibilidade, e que se chama certeza moral em sentido lato. O probabilismo ensina como se pode chegar indiretamente à certeza moral acerca da liceidade de uma ação, a despeito de um juízo que, em princípio, não passa de provável.

A probabilidade matemática designa a relação existente entre os casos favoráveis a um acontecimento e os casos igualmente possíveis. Ela chama-se probabilidade apriórica, quando é calculada à base de considerações gerais, independentemente da experiência relativa aos fatos efetivamente sucedidos probabilidade aposteriórica, quando deduzida dos acontecimentos realmente ocorridos, segundo as regras da estatística. O cálculo de probabilidades forma um ramo próprio da ciência matemática. O conceito de probabilidade matemática é, naturalmente, distinto do conceito de probabilidade próprio da epistemologia e da vida prática, e não pode equiparar-se a esta. Não existe ainda uma teoria da probabilidade matemática, isenta de objeções. — O cálculo de probabilidades chegou a alcançar grande importância na física moderna com a descoberta das leis estatísticas da natureza (lei natural). — A afirmação da invalidade da lei de causalidade (lei de causalidade), inferida da aplicação dos métodos estatísticos à moderna física quântica, estriba num preconceito positivista, sendo, por conseguinte, injustificada. — Junk [Brugger]


Na Antiguidade, chamava-se muitas vezes probabilidade àquilo que, segundo as aparências pode ser considerado como verdadeiro ou certo. A probabilidade tem vários graus, consoante a sua maior ou menor proximidade da natureza. Esta doutrina é de índole gnoseológica e foi a que exerceu maior influência até à nossa época, mas pode formular-se também uma doutrina ontológica que consiste em considerar a probabilidade como um conceito aplicável às próprias coisas. No primeiro caso, diz-se que um juízo é provável; no segundo, diz-se que um acontecimento é provável.. por vezes, chama-se subjectiva à concepção gnoseológica e objetiva à ontológica. Parece difícil que possa constituir-se uma teoria do provável prescindindo de um destes dois aspectos. Com efeito, se a noção de probabilidade fosse inteiramente subjectiva, a probabilidade consistiria só numa limitação ou falha do conhecimento. Se fosse inteiramente objetiva, o juízo sobre o provável não poderia ser um juízo certo. Por este motivo, propôs-se uma concepção que compreenda o conceito interno e externo: a probabilidade é um grau maior ou menor de certeza sobre um acontecimento ou um grupo de acontecimentos afetados por um índice de probabilidade.

O exame deste conceito progrediu rapidamente durante os últimos 250 anos, mediante as investigações de matemáticos e filósofos. Desde o século dezassete, procurou-se considerar a doutrina da probabilidade como a arte de julgar sobre a maior ou menor admissibilidade de certas hipóteses com base nos dados que se têm. A noção de probabilidade esteve, por isso, estreitamente relacionada com a de indução; pode, pois, falar-se de uma probabilidade indutiva: Especialmente neste último século e meio trabalhou-se também sobre outro conceito de probabilidade, a chamada probabilidade estatística, de que um dos conceitos fundamentais é o de frequência. As diversas tentativas para combinar os dois tipos de probabilidade deram origem a grande variedade de opiniões. As duas concepções não se excluem, pois a ciência pode e deve empregá-las ao mesmo tempo. A diferença principal que existe entre elas é que enquanto a probabilidade estatística se refere a fenômenos objetivos,, a probabilidade indutiva se refere às proposições sobre esses fenômenos. A primeira usa-se na ciência; a segunda, na metodologia da ciência. A primeira prediz frequências, a segunda analisa as certezas possíveis em relação com as hipóteses estabelecidas. Carnap foi o autor contemporâneo que fez a análise mais completa deste problema. Segundo ele, há que eliminar o conceito de probabilidade como frequência relativa para ater-se ao conceito de probabilidade como grau de confirmação. O estudo da probabilidade indutiva coincide, portanto, com o estudo do conceito do grau de confirmação. Qualquer raciocínio indutivo é um “raciocínio em termos de probabilidade”. Quanto à pertença do problema da probabilidade à lógica, foi destacado com particular insistência por Peirce com as seguintes palavras: “podem conceber-se duas certezas relativamente a qualquer hipótese: a certeza da sua verdade e a certeza da sua falsidade. Os números 1 e 0 são apropriados, neste cálculo, para designar estes extremos de conhecimento, enquanto as frações que possuem valores intermédios entre eles, indicam, seja-nos permitida uma expressão vaga, os graus nos quais a evidência se inclina para um ou outro. O problema geral das probabilidades consiste em determinar, a partir de um dado estado de fatos, a probabilidade numérica de um fato possível. Isto equivale a investigar até que ponto os fatos dados podem ser considerados como uma prova para demonstrar um fato possível. E assim o problema das probabilidades é simplesmente o problema geral da lógica”. [Ferrater]


Observe-se que não excluem alguns escolásticos (os escotistas, por exemplo) a possibilidade de ser a matéria, por si mesma, atual, nem que possam dar-se várias formas substanciais subordinadas. Reconhece Fuetscher que a atualidade da matéria nos é revelada pela experiência. O que julgamos possível é o que não contradiz a ordem universal ou particular dos planos ou constelações tensionais, mas tal não deve ser confundido com a possibilidade, nem muito menos com a potência, pois já exigem eficacidade-real, e que são, portanto, potênciaatual.

Toda possibilidade implícita (intrínseca) a uma tensão é uma possibilidade atual, real e potencial.

Quando a possibilidade é explícita (extrínseca), e só se atua-liza com a cooperação de outra tensão, essa possibilidade é apenas um possível.

A probabilidade é um grau eminente do possível e da potência.

Por isso nem tudo que é possível é provável. A probabilidade acentua-se quando se acentua a possibilidade maior da potência e do possível de se atualizarem.

A probabilidade é o meio caminho entre a possibilidade e a atualização.

A colocação ontológica desses conceitos, posto esparsamente para a análise, exige o estudo dos conceitos de real e de possível, cujo esclarecimento abre campo para futuras penetrações na temática e na problemática ontológicas. [MFS]


a) É a razão que faz presumir a verdade da possibilidade de uma coisa.

b) Num conjunto de acontecimentos possíveis, uns oferecem maiores possibilidades de acontecer que outros, uns apresentam maior soma de elementos favoráveis a que se tornem efetivos do que outros. Diz-se que uns são mais prováveis que outros, na proporção dos elementos positivos que cooperam para que o evento se torne, presumivelmente, mais certo. A probabilidade é uma possibilidade, mas que apresenta uma diferença específica, que consiste em ter elementos positivos a seu favor. Neste caso a probabilidade é a possibilidade assistida por elementos positivos favoráveis ao seu evento.

c) No sentido matemático, o cálculo de probabilidade é o conjunto de regras por meio das quais se calcula o número de acasos que devem dar-se para que aconteça um certo fato.

Hegel oferecia um bom exemplo para distinguir possibilidade de probabilidade: é possível que a lua entre amanhã em choque com a terra, mas é improvável que tal aconteça; isto é, o conjunto de elementos positivos que possam colaborar para que uma possibilidade se torne um evento efetivo, é no caso do choque muito pequena, a ponto de garantir uma improbabilidade.

Desse modo, o que é possível, ou é ou não é. A possibilidade é, pois, excludente, ou seja: ou é ou não. Já o mesmo não acontece com a probabilidade que é gradativa, que ascende desde a mera possibilidade, pelas probabilidades de graus menores, maiores, até alcançar a máxima probabilidade, bem como pode descer até a mínima probabilidade. A improbabilidade segue o curso inverso da probabilidade, de modo que a mínima probabilidade é a máxima improbabilidade. [MFSDIC]


(gr. eikos; lat. Probabilitas; in. Probability; fr. Probabilité; al. Warhscheinlichkeit; it. Probabilita).

Grau ou a medida da possibilidade de um evento ou de uma classe de eventos. Nesse sentido, probabilidade sempre supõe uma alternativa, e é a escolha ou preferência por uma das alternativas possíveis. Se dissermos, p. ex., “amanhã provavelmente choverá”, estaremos excluindo como menos provável a alternativa “amanhã não choverá”; se dissermos “a probabilidade de uma moeda dar coroa é de metade”, o significado dessa afirmação decorre do confronto com a outra alternativa possível, de ela dar cara. Podemos exprimir esse caráter da probabilidade dizendo que ela é sempre função de dois argumentos. Outro caráter geral da probabilidade (seja qual for a interpretação) é que do ponto de vista quantitativo ela é expressa com um número real cujos valores vão de 0 a 1.

O problema a que a noção de probabilidade dá origem é o do significado, ou seja, do próprio conceito de probabilidade. O cálculo de probabilidade, p. ex., nãoorigem a problemas enquanto não é interpretado: os matemáticos estão de acordo sobre todas as coisas que podem ser expressas por símbolos matemáticos, porém seu desacordo começa quando se trata de interpretar tais símbolos. Carnap (The Two Concepts of Probability, 1945, agora em Readings in the Philosophy of Science, 1953, pp. 441 ss.) e Russell (Human Knowledge, 1948, V, 2) falaram da existência de dois conceitos diferentes e irredutíveis de probabilidade; o primeiro chamou, respectivamente, de probabilidade indutiva (ou grau de confirmação) e probabilidade estatística (ou frequência relativa); o segundo falou em grau de credibilidade e probabilidade matemática. Foram propostos outros nomes para esses dois tipos de probabilidade Kneale deu o nome de aceitabilidade 3.0 primeiro tipo e de acaso (chance) ao segundo (Probability and Induction, 1949, p. 22); Braithwaite denominou o primeiro de razoabilidadee o segundo de probabilidade (Scientific Explanation, 1953, p. 120).

Os dois conceitos defrontaram-se nos últimos quarenta anos, procurando cada qual eliminar o outro, o que é tipicamente representado nas posições de Von Moises e de Jeffreys. O primeiro rejeita, por ser subjetivo, o conceito de probabilidade indutiva, considerando sem sentido utilizar o termo probabilidade fora do conceito estatístico (Probability, Statistics and Truth, 1928, ed. 1939, lect. I, III). O segundo acha que a chamada definição objetiva de probabilidade é inutilizável e que nem os estatísticos a empregam, porque “todos usam a noção de grau de crença razoável, em geral sem notarem que a estão usando” (Theory of Probability, 1939, p. 300). Visto que as observações de Carnap e de Russell tornam essa polêmica sem significado, mas ao mesmo tempo confirmam a existência de dois conceitos diferentes de probabilidade, pode-se, com base em tais conceitos, fazer um apanhado das doutrinas relativas. Para se evitarem qualificações polêmicas (e inexatas), como “subjetivo”, “objetivo”, etc, pode-se simplesmente considerar como característica distintiva dos dois conceitos de probabilidade a função desempenhada por cada um deles e falar, consequentemente, de 1) probabilidade singular, 2) probabilidade coletiva.

1) Para caracterizar o primeiro conceito de probabilidade pode-se dizer que ele tem em vista o grau de possibilidade de um evento único e que, portanto, seus argumentos são eventos, fatos ou estados de coisas ou circunstâncias, sendo a probabilidade expressa por proposições do tipo “Amanhã provavelmente choverá”. O antecedente histórico remoto dessa noção é o conceito neo-acadêmico de representação persuasiva, cujos graus eram enumerados por Carnéa-des, que os determinava por provas ou por indícios negativos ou positivos (v. persuasivo).

Os criadores do cálculo de probabilidade tinham em mente esse conceito de probabilidade. Bernouilli deu a seu tratado, primeira obra importante sobre o assunto, o nome de Ars conjectandi (1713). A grande obra de Laplace, intitulada Théorie analytique des probabilités (1812), inspirava-se no mesmo conceito; em sua introdução, Laplace afirmava que “a probabilidade dos eventos serve para determinar o temor ou a esperança das pessoas interessadas na existência deles” (Essai philosophique sur les probabilités, 1,4), e toda a sua obra não trata de estatística, mas dos métodos para estabelecer a aceitabilidade das hipóteses. Desse ponto de vista, a probabilidade era definida como “a relação entre os números de casos favoráveis e o de todos os casos possíveis”. O princípio fundamental para avaliar as probabilidade era o chamado princípio de indiferença ou de equiprobabilidade, segundo o qual, na falta de qualquer outra informação, assume-se que os vários casos são igualmente possíveis; desse modo, p. ex., quando se lança um dado, admite-se que cada uma de suas faces tem idênticas probabilidade de aparecer, uma vez que cada face tem a mesma probabilidade de 1/6 (.Op. cit., I, 3).

Embora esta teoria tenha sido acerbamente criticada, foi retomada em 1921 pelo economista inglês John Maynard Keynes, em seu Tratado sobre a probabilidade, e mais tarde exposta por F. probabilidade Ramsey (The Foundations of Mathematics, 1931) e por H. Jeffreys (Jheory of Probability, 1939). Todos esses escritores definem a probabilidade como um “grau de crença racional” e admitem a validade do princípio de indiferença, mas, como notou o próprio Carnap, o caráter subjetivo dessa definição é apenas aparente, pois o que eles procuraram determinar são os possíveis graus de confirmação de determinada hipótese. De fato, os graus de crença só poderiam ser estabelecidos por métodos psicológicos, ao passo que, na realidade, os métodos propostos por esses autores nada têm de psicológicos; são lógicos e referem-se à disponibilidade e à natureza das provas que podem confirmar uma hipótese. Com base nesse conceito objetivo de probabilidade singular, Carnap criou um sistema de lógica quantitativa indutiva, com fundamento no conceito de confirmação èm suas três formas: positiva, comparativa e quantitativa (Logical Foundations of Probability, 1950). O conceito positivo de confirmação é a relação entre dois enunciados h (hipóteses) e p (prova), que pode ser expressa por enunciados da seguinte forma: “h é confirmado por p”; “h é apoiado por p”; “p é uma prova (positiva) para h”; “p é uma prova que consubstancia (ou corrobora) a assunção de h”. O conceito comparativo (topológico) de confirmação geralmente é expresso em enunciados que têm a forma “h é mais fortemente confirmado (apoiado, consubstanciado ou corroborado, etc.) por p do que h por p”. Finalmente o conceito quantitativo (ou métrico) de confirmação (conceito de grau de confirmação) pode ser determinado nos vários campos por métodos análogos aos utilizados para introduzir o conceito de temperatura, com o fim de explicar os de “mais quente” ou “menos quente” ou o de quociente intelectual, para determinar os graus comparativos de inteligência. Carnap também defendeu o princípio de indiferença (mesmo considerando-o como forma limitada), aplicando-o às distribuições estatísticas, e não às distribuições individuais. A teoria de Carnap foi amplamente discutida e aceita. Foram propostas outras determinações do conceito de grau de confirmação (cf. p. ex., Helmer e Oppenheim, “A Syntactical Definition of Probability and Degree of Confirmation” em Journal of Symbolic Logic, 1945, p. 25-60).

O conceito de probabilidade singular, ou seja, de grau de confirmação, é o único a que se faz geralmente referência nos acontecimentos da vida e que é assumido, explícita ou implicitamente, como orientador dos comportamentos individuais. É preciso observar que, entre os indícios ou provas que podem ser assumidos como confirmação de uma hipótese qualquer, como fundamento de um juízo de probabilidade, nada impede que se inclua a consideração das frequências estatísticas às quais se reduz o segundo conceito de probabilidade Às vezes, porém, a probabilidade estatística faz parte de determinação da probabilidade singular com sinal invertido; p. ex., para quem aposta na loteria, a frequência com que certo número foi sorteado nos últimos tempos é um indício de probabilidade negativa: para ele, são bons os números menos sorteados durante um período mais ou menos longo.

2) O segundo conceito fundamental é de probabilidade coletiva ou estatística, cujo objeto nunca são eventos ou fatos individuais, mas classes, espécies ou qualidades de eventos, podendo, portanto, ser expressos apenas por funções proposicionais, e não por proposições. Seu antecedente histórico mais distante é o conceito aristotélico do verossímil: “Provável é aquilo que sabidamente acontece ou não na maioria das vezes, que é ou não na maioria das vezes” (Analíticas, II, 27, 70 a 3; Ret., I, II, 1357 a 34). Mas a formulação rigorosa desse conceito só foi feita recentemente por Fischer (Philosophical Transactions ofthe Royal Society, série A. 1922), por von Moises (Probability, Statistics and Truth, 1928), por Popper (Logik der Forschung, 1934) e por Reichenbach (Wahrscheinlichkeitslehre, 1935; Theory of Probability, 1948).

Como ilustração dessa noção de probabilidade, podemos escolher a elaboração de Von Moisés, com o conceito da frequência-limite. Se para n observações o evento examinado ocorre m vezes, o quociente m/n é a frequência relativa da classe de eventos em questão: relativa ao número n de observações. Mas se quisermos falar simplesmente em frequência, sem limitar a extensão das observações, podemos supor que, à medida que o numerador e o denominador vão ficando maiores, a função m/n tende para um valorlimite, podendo-se considerar esse valorlimite como medida da frequência, ou seja, como medida da probabilidade no sentido proposto. Assim, p. ex., se lançando uma moeda 1.000 vezes tivermos frequência 550 para cara, se em 2.000 vezes tivermos frequência 490, em 3.000 frequência 505, em 4.000, frequência 497, em 10.000, frequência 5.003, e assim por diante, visto que o valorlimite dessas séries é 0.5, assumiremos esse valorlimite como valor da probabilidade do acontecimento em questão. Mas esse acontecimento nunca é singular, portanto a probabilidade assim calculada não servirá para prever o resultado do próximo lance da moeda e permitir, p. ex., que um jogador escolha a sua aposta. A probabilidade dessa espécie vale para classes de eventos, e não para eventos singulares. Não se pode falar, p. ex., da probabilidade de um indivíduo qualquer morrer no ano em curso, mesmo quando conhecemos o limite de frequência da mortalidade no grupo ao qual ele pertence (cf. também de von Moises, Kleines Lehrbuch des Positivismus, 14). Reinchenbach afirmou a propósito: “A asserção que concerne à probabilidade de um caso individual tem significado fictício, construído através da transferência de significado do caso geral para o particular. A adoção dos significados fictícios não é justificável por motivos cognitivos, mas porque é útil aos objetivos da ação considerar tais asserçòes dotadas de significado” (Theory of Probability, p. 377). A outra característica fundamental da teoria é a eliminação do princípio de indiferença, ou seja, da probabilidade a priori. A teoria estatística da probabilidade de fato nada pode dizer a respeito da probabilidade de uma classe de eventos se antes não tiver determinado as frequências desse evento; portanto, qualquer grau de probabilidade só pode ser determinado a posteriori, ou seja, depois de efetuada a determinação das frequências (Reichenbach, Op. cit., § 70, pp. 359 ss.).

A teoria coletiva ou estatística da probabilidade foi amplamente aceita na filosofia contemporânea (vejam-se, além das obras citadas, J. O. Wisdom, Foundations of Inference in Natural Science, 1952, e Braithwaite, Scientific Explanation, 1953). Outra determinação dessa doutrina foi feita por Popper, principalmente com vistas à sua utilização na teoria quântica. Como dissemos, a probabilidade estatística não se refere a eventos singulares, mas a classes ou sequências de eventos. Popper propõe considerar como decisivas as condições sob as quais a sequência é produzida, vale dizer, considerar que as frequências dependem das condições experimentais e portanto constituem uma qualidade disposicional da ordenação experimental. Popper diz: “Qualquer ordenação experimental é capaz de produzir uma sequência de frequências que dependem dessa particular ordenação, se repetirmos a experiência mais vezes. Estas frequências virtuais podem ser denominadas probabilidades. Mas, visto que as probabilidade dependem da ordenação experimental, elas podem ser consideradas propriedades dessa ordenação. Caracterizam a disposição ou propensão da ordenação experimental a dar origem a certas frequências características, quando o experimento é repetido várias vezes” (“The Propensity Interpretation of the Calculus of Probability and the Quantum Theory”, em Observation and Interpretation, A Symposium of Philosophers and Physicists, ed. por Körner, 1957, p. 67). A vantagem dessa interpretação seria considerar fundamental “a probabilidade do resultado de um experimento único em relação com suas condições, e não a frequência dos resultados numa série de experimentos” (Ibid., p. 68). Popper faz analogia entre esse conceito e o de campo, observando que nesse caso uma probabilidade pode ser considerada um “vetor no espaço das possibilidades” (Ibid). Essa interpretação tende, obviamente, a diminuir a distância entre os dois conceitos fundamentais de probabilidade. [Abbagnano]