CONDICIONAMENTO OPERANTE MAV!

Atualizado: 27 de Nov de 2020


Poucas pessoas conhecem, principalmente os asseclas da direita alternativa, a maioria com parcos conhecimentos científicos e as vezes visivelmente lesados, mas eles estão operando exatamente como os animais na caixa de Skinner dentro do Twitter.


Excetuando-se os MAV (Militantes em Ambientes Virtuais), que operam segundo um comando central, para a Democracia Ciborgue e Pós-Verdade, temos os MAV voluntários. Este grupo não sabe exatamente quem são, onde estão e para onde vão, apenas seguem programações. Eles funcionam praticamente de maneira irracional, porém estão programados para todas as atividades que desempenham no Twitter mesmo sem saber disso.


Sempre lembrando que os MAV, mesmo voluntários, podem se tornar ciborgues, usando recursos de automação fornecidos pelas empresas ou profissionais contratados pela “Bog Right”. Assim eles podem ser condicionados, com ainda mais eficiência e eficácia que o método tradicional. São os MAV voluntários turbinados com recursos de automação, ou seja, se alguém tiver todo o trabalho de periciar a conta, pode chegar a alguém real mesmo que robô. Isso tudo com a sempre amigável conivência sigilosa do próprio Twitter. Na prática eles acabam sofrendo condicionamento operante ao mesmo tempo que o fazem o mesmo com outros MAV.


O conceito de “Condicionamento Operante” foi criado pelo escritor e psicólogo Burrhus Frederic Skinner. Este refere-se ao procedimento através do qual é modelada uma resposta no organismo através de reforço diferencial e aproximações sucessivas. É onde a resposta gera uma consequência e a consequência afeta a sua probabilidade de ocorrer novamente; se a consequência for reforçadora, aumenta a probabilidade, se for punitiva, além de diminuir a probabilidade de sua ocorrência futura, gera outros efeitos colaterais. Este tipo de comportamento que tem como consequência um estímulo que afete sua frequência é chamado “Comportamento Operante”.


O comportamento operante é modelado a partir de nosso repertório inato. As respostas que gerem mais reforço em média, tendem a aumentar de frequência e se estabelecer no repertório, ou seja, em um contexto semelhante tendem a ser novamente emitidas. O tipo de consequência que aumenta a probabilidade de ocorrência da mesma função de resposta em contextos semelhantes, chama-se reforço. O reforço pode ser positivo, quando há a adição de um estímulo no ambiente que resulte no aumento da frequência da resposta que o gerou; ou negativo, quando a resposta emitida remove algum estímulo aversivo, ou seja, que a pessoa tende a evitar, do ambiente.


O condicionamento operante, também chamado de condicionamento instrumental ou aprendizagem instrumental foi primeiramente estudado por Edward L. Thorndike (1874-1949), que observou o comportamento de gatos tentando escapar de "caixas problemas". Na primeira vez que os gatos eram colocados nas caixas, eles demoravam bastante tempo para escapar delas. Mas, com o passar do tempo, as respostas ineficientes foram diminuindo de frequência, e as respostas mais efetivas aumentavam de frequência, e os gatos agora conseguiam escapar em menos tempo e com menos tentativas. Em sua Lei do Efeito, Thorndike teorizou que as respostas que produziam consequências mais satisfatórias, foram "escolhidas" pelas experiências, portanto, aumentaram de frequência. Algumas consequências reforçavam o comportamento, outras enfraqueciam-no". Thorndike produziu a primeira curva de aprendizagem com este procedimento. B. F. Skinner (1904-1990) formulou uma análise mais detalhada do condicionamento operante utilizando de conceitos como reforçamento, punição e extinção. Seguindo as ideias de Ernst Mach, Skinner rejeitou as estruturas mediadores de Thorndike requeridas pela "satisfação" e construiu um novo conceito de comportamento sem a utilização de tais referências.


Já Skinner considerava o livre arbítrio uma ilusão e ação humana dependente das consequências de ações anteriores. Se as consequências fossem ruins, havia uma grande chance de a ação não ser repetida; se as consequências fossem boas, a probabilidade de a ação ser repetida se torna mais forte. Skinner chamou isso de princípio de reforço.


Para fortalecer o comportamento, Skinner usou o condicionamento operante e considerou a taxa de resposta como a medida mais eficaz de força de resposta. Para estudar o condicionamento operante, ele inventou a câmara de condicionamento operante, também conhecida como Skinner Box, e, para medir a taxa, inventou o registrador cumulativo. Usando essas ferramentas, ele e C. B. Ferster produziram seu trabalho experimental mais influente, que apareceu em seu livro Schedules of Reinforcement (1957).


Skinner desenvolveu a análise do comportamento, a filosofia dessa ciência que ele chamou de behaviorismo radical, e fundou uma escola de pesquisa experimental em psicologia - a análise experimental do comportamento. Ele imaginou a aplicação de suas ideias no projeto de uma comunidade humana em seu romance utópico, Walden II, e sua análise do comportamento aplicada culminou em seu trabalho, Verbal Behavior. Skinner foi um autor prolífico que publicou 21 livros e 180 artigos. A academia contemporânea considera Skinner um pioneiro do behaviorismo moderno, junto com John B. Watson e Ivan Pavlov. Uma pesquisa de junho de 2002 listou Skinner como o psicólogo mais influente do século 20.


Princípios do Reforço


É importante ressaltar que reforço, ao contrário do que pode pensar o senso comum, não é uma simples recompensa. Para B. F. Skinner, reforço, pode ser qualquer evento que aumenta a frequência de uma reação precedente. Um reforço pode ser uma recompensa tangível. Pode ser um elogio ou uma atenção. Ou pode ser uma atividade, como poder usar o carro depois que a louça estiver lavada, ou ter uma folga depois de uma hora de estudo.


1) Reforços Primários e Secundários


Os reforços primários - como receber alimento ou ser aliviado de um choque elétrico - são intrinsecamente satisfatórios. Os reforços secundários são aprendidos. Se um rato numa caixa de Skinner aprende que uma luz sinaliza de maneira confiável que a comida está chegando, ele vai se empenhar em acender a luz. Dinheiro, boas notas, são exemplos de reforços secundários, cada um das quais está ligado a recompensas mais básicas.


2) Reforços Primários e Secundários


Os reforços primários - como receber alimento ou ser aliviado de um choque elétrico - são intrinsecamente satisfatórios. Os reforços secundários são aprendidos. Se um rato numa caixa de Skinner aprende que uma luz sinaliza de maneira confiável que a comida está chegando, ele vai se empenhar em acender a luz. Dinheiro, boas notas, são exemplos de reforços secundários, cada um das quais está ligado a recompensas mais básicas.


3) Reforço Positivo, Reforço Negativo e Punição


Existem duas formas de reforço: o positivo e o negativo. Ambas têm como escopo ensinar e reforçar um determinado comportamento. O indivíduo aprende qual o comportamento desejável para alcançar determinado objetivo. Já a punição reforça qual o comportamento indesejável, ou seja, que não deve ser manifestado, para evitá-la.

No reforço positivo, quando o comportamento desejado é alcançado, um elemento de recompensa é adicionado. Para exemplificar o reforço positivo consideremos um experimento onde um rato é privado de comida. Quando este puxa determinada alavanca (comportamento desejado) é disponibilizado o alimento (elemento de recompensa). Com o passar do tempo o rato ao sentir fome irá puxar a alavanca para receber o alimento. Desta forma o ser exposto ao reforço positivo aprende o comportamento correspondente.


Já no caso do reforço negativo, um elemento aversivo ao ser é retirado do ambiente como reforço para a continuação do comportamento. Como, por exemplo, uma mãe que diz ao filho que ele não precisará lavar a louça enquanto estiver mantendo seu quarto limpo. Ela retira um elemento aversivo para o filho (Lavar a louça) para que ele continue com o comportamento de manter o quarto limpo.


A punição, ao contrário do reforçamento negativo, (que visa a continuação do comportamento) tem como objetivo a extinção do comportamento, ou seja, com o passar do tempo, a probabilidade de ele ocorrer novamente diminui. O reforçamento negativo não é um evento punitivo. É a remoção de um evento punitivo. Ambos utilizam de estímulos aversivos.


As punições podem ser de dois tipos: por adição (punição positiva), quando experiências aversivas são adicionadas, ou por subtração (punição negativa), quando facilitadores do comportamento são subtraídos. Ambas as técnicas levam a aquilo que chamamos de extinção.


A punição pode acarretar uma série de problemas: esse tipo de estimulação aversiva, acarreta respostas do sistema nervoso, entendidas como ansiedade, depressão, baixa autoestima. Além do mais, o comportamento punido não é esquecido, ele é suprimido. Pode ser que, após a estimulação aversiva ter sido eliminada, o comportamento volte a ocorrer. A criança pode simplesmente aprender a não dizer palavrões em casa, mas continuar a usá-los em outros lugares.


Ela também suprime o comportamento indesejado, mas não guia a pessoa para um comportamento mais desejável. A punição diz o que não fazer, o reforço diz o que fazer. Uma punição combinada com um reforçamento positivo de comportamentos desejáveis é mais eficiente.


Em suma, a punição rápida e segura pode ser eficaz, e pode de vez em quando causar menos dor do que o comportamento autodestrutivo que suprime. Mas ele pode reaparecer, se for possível evitar a punição. Esse estímulo aversivo também pode provocar efeitos colaterais indesejáveis, como ansiedade e ensinar agressividade. Os psicólogos preferem dar mais ênfase ao reforço positivo do que à punição.


4) Programações de Reforço


Utilizando de esquemas de reforço contínuo, a aprendizagem ocorre rapidamente, mas, sem o reforço, a extinção do aprendido também ocorre rapidamente. Na vida real, esquemas contínuos de reforço são raros.


Nevin, em 1988, estudou que as reações às vezes são reforçadas, às vezes não. É o que se chama de reforço parcial. A aprendizagem demora mais, no começo, mas ela é mais "resistente" à extinção. Imagine um pombo que aprendeu a bicar uma tecla para obter comida. Quando o pesquisador vai suspendendo gradativamente a entrega de alimento, até que ela ocorra só de maneira rara e imprevisível, os pombos podem bicar 150.000 vezes sem recompensa. Com o reforço parcial, a esperança flui eterna (esse é o princípio do "pombo supersticioso" de Skinner). É o que ocorre por exemplo, em jogadores compulsivos, que continuam a jogar, mesmo sem nunca ganharem.


5) Esquemas de Razão Fixa


Reforçam o comportamento depois de um determinado número de respostas. Empregados que trabalham em fábricas que recebem por produção, são reforçados de tal maneira quando são recompensados.


6) Esquemas de Razão Variável


Reforçam a primeira resposta depois de uma quantidade imprevisível de respostas. É o que ocorre com os jogadores e pescadores. A dificuldade de se extinguir tais comportamentos é de que o reforço aumenta à medida que aumentam as respostas. As programações de ritmo variável são constantes. Dependem muito de certos fatores.


7) Esquemas de Intervalos Fixos


Reforça a primeira resposta depois de um período determinado. Como pessoas que verificam a caixa de correspondência quando a hora do carteiro passar se aproxima, os pombos bicam uma tecla com mais frequência à medida que fica mais próxima a hora esperada de recompensa, produzindo um padrão inconstante de "para-começa".


8) Esquemas de Intervalo Variável


Reforça a primeira resposta depois de intervalos de tempo variáveis. Como o questionário imprevisível que reforça o estudo, as programações de intervalo variável tendem a conciliar respostas lentas e firmes. Caso os questionários tornem-se previsíveis, os estudantes começarão a seguir o padrão de para-começa que caracteriza as programações de intervalo fixo (em outras palavras, estudarão apenas na véspera).


Experiências


É possível um pombo ter superstição? A superstição humana é um fenômeno complexo e sua história de desenvolvimento na vida das pessoas ainda não é compreendida. A despeito da complexidade, os fenômenos, ou aspectos deles, têm sido investigados pelos cientistas por meio de modelos animais. Skinner chegou a estudar o efeito da liberação de alimento em intervalos de tempo fixo e variável a pombos. Independentemente do que os pombos fizessem em uma caixa, um alimento era liberado e o pombo podia então consumi-lo. Ele observou que os pombos, durante algum tempo passavam a se comportar como se a comida estivesse associada ao que eles estavam fazendo. Um dos pombos passou a mover a cabeça para um lado e para o outro, enquanto outro dava voltas na gaiola, e assim por diante. Skinner chamou esse padrão de comportamento supersticioso. Seus trabalhos foram pioneiros nesta área e impactantes para toda uma geração de pesquisas sobre superstição na psicologia experimental. Ele também participou de experiências militares usando pombos treinados para dirigir misseis na Segunda Guerra Mundial.


Foi criada por ele o que chamamos hoje em dia de "caixa de Skinner", uma câmara de condicionamento operante que tinha como conceito as ações de um animal para a obtenção de alimentos ou água. Um dos exemplos do uso dessa caixa é o rato; Skinner colocou um distribuidor de comida, uma grade elétrica no chão e uma alavanca de resposta na caixa, o rato foi inserido nesse meio e conforme o passar do tempo, buscando meios de sair dali por conta da fome, o animal percebeu que sempre que a alavanca era pressionada, comida aparecia na caixa (pelo distribuidor), e assim, todas as vezes que o rato estava com fome o mesmo pressionava a alavanca.


Skinner em sua própria caixa


Depois de vários pós-doutorados, Skinner foi dar aulas na Universidade de Minnesota (1936–45), nessa época casou-se com Yvonne Blue, com quem teve dois filhos, e na Universidade de Indiana (1945–47). Em 1947, voltou a Harvard. Seu livro de 1938, "O Comportamento dos Organismos", descreve os pontos essenciais de seu sistema inicial. Seu livro de 1953, "Ciência e Comportamento Humano", é tido como um manual básico da sua psicologia comportamentalista.


Manteve-se produtivo até a morte, aos oitenta e seis anos, trabalhando até o fim com a mesma determinação com que começara uns sessenta anos antes. Em seus últimos anos de vida, ele construiu, no porão de sua casa, sua própria "caixa de Skinner" – um ambiente controlado que propiciava reforço positivo. Ele dormia ali num tanque plástico amarelo, de tamanho apenas suficiente para conter um colchão, algumas prateleiras de livros e um pequeno televisor. Ia dormir toda noite às dez, acordava três horas depois, trabalhava por uma hora, dormia mais três horas e despertava às cinco da manhã para trabalhar mais três horas. Então, ia para o gabinete da universidade para trabalhar mais, e toda tarde retemperava as forças ouvindo música.


Aos sessenta e oito anos, escreveu um artigo intitulado "Autoadministração Intelectual na Velhice", citando suas próprias experiências como estudo de caso. Ele mostrava que é necessário que a pessoa trabalhe menos horas a cada dia, com períodos de descanso entre picos de esforço, para que lide com o seu comportamento, que começa a falhar e ter a sua eficiência prejudicada na velhice. Doente terminal com leucemia, apresentou uma comunicação na convenção de 1990 da APA, em Boston, apenas oito dias antes de morrer; nela, ele atacava a psicologia cognitiva.


Na noite anterior à sua morte, estava trabalhando em seu artigo final, "Pode a Psicologia ser uma Ciência da Mente?", outra crítica ao movimento cognitivo que pretendia suplantar sua definição de psicologia. Skinner morreu em 18 de agosto de 1990.


O Uso dos modelos Animais


Um behaviorista utiliza o comportamento dos animais não como forma de poder estudar as particularidades que os animais possuem quanto aos seus comportamentos, mas para procurar leis universais que regem o comportamento dos organismos. Para Skinner (1956), os esquemas de reforço do condicionamento operante são universais. Importa pouco, disse ele, que reação, que reforço ou que espécie você usa. O efeito de determinada programação de reforço é quase o mesmo: "Pombo, rato, macaco, bolsonarista ou MAV o que é o quê? Não importa… O comportamento apresenta características espantosamente similares."