segunda-feira, 15 de dezembro de 2025

Os Primeiros Europeus nas Américas

Quais Eram os Estágios Tecnológicos dos Povos Que Viviam nas Américas Antes de Serem Descobertos? Como Ocorreu a Expansão Marítima e Comercial dos Espanhóis Nas Américas? Que Tipos de Índios Habitavam o Brasil Antes do Descobrimento? Como se Desenvolveu o Sistema Colonial na América Luso-Espanhola?

 



 

Como se sabe, as Américas se dividem em América do Sul, América Central e América do Norte, embora nem sempre tenha sido assim. Em 1492, quando os espanhóis chegaram ao novo continente – que passaria a ser chamado de América – estima-se que já habitavam nessas terras diversas nações (por volta de 50 milhões de habitantes de diversas nações). A população que os europeus encontraram era bastante diferente dos seus costumes e modos de vida, pois alguns grupos humanos encontrados eram nômades (grupos que se fixavam temporariamente em determinado local), não utilizavam metais e viviam principalmente explorando os recursos naturais existentes. Outros povos que viviam nas Américas já apresentavam estágios diferentes do uso de tecnologias, tais como os maias, os astecas e os incas. Os europeus descobriram pessoas de todos os tipos físicos em cada um dos novos continentes explorados, os quais viviam de variadas maneiras e em diferentes estágios técnicos. Assim, todos os habitantes foram chamados de índios pelos europeus, pois eles tinham pele avermelhada e cabelos lisos, andavam nus ou com pouca roupa e acreditavam em vários deuses. Nenhum deles conhecia o ferro, a pólvora, o vidro, o arado, os animais de carga ou – principalmente – o uso da roda.

Esses povos foram denominados de pré-colombianos e para eles a chegada dos europeus teve um resultado assustador, pois além de levar a morte de milhares de pessoas, a destruição de suas sociedades, os europeus acabaram interferindo diretamente na história e na sua relação com a natureza. Dos povos sobreviventes ao massacre promovido pelos invasores, muitos foram obrigados a trabalhar em regime de trabalho forçado a fim de atender aos interesses econômicos dos conquistadores. Nos séculos XV (anos 1401 a 1500) e XVI (anos 1501 a 1600) os europeus – inicialmente portugueses e espanhóis – se lançaram ao mar em embarcações que eram denominadas de caravelas, descobrindo, visitando, conquistando à força e com violência os outros quatro (4) continentes do globo – a África, a Ásia, as Américas e Oceania. Dessa forma, no final do século XV, enquanto Portugal desenvolvia a rota marítima rumo às Índias navegando em direção a leste, a Espanha, maior – seu maior concorrente nos mares – procurava outra rota alternativa nos mares. Baseados em conhecimentos científicos da época, os espanhóis defendiam ser a Terra menor do que se imaginava e, em função disso, eles navegaram em direção a oeste para chegar à Ásia. Resultado dessa viagem: os espanhóis encontraram um novo continente.

Mas, a expansão marítima e comercial dos espanhóis só começou mesmo de forma efetiva em 1492 numa expedição comandada por Cristóvão Colombo que tomou posse, em nome dos reis espanhóis, as terras situadas na região central da América. O objetivo da expedição de Colombo era atingir o Oriente navegando em direção ao Ocidente. Navegando conforme seu plano inicial, Colombo encontrou a atual ilha de São Domingos, na região da América Central. Inicialmente imaginou ter chegado de fato as Índias, e por esse motivo denominou de índios os habitantes do lugar. Os descobrimentos marítimos do século XVI, resultados de transformações em toda a Europa, deram origem a grandes mudanças no próprio continente europeu e nas várias regiões por estes encontradas. Apenas para dar alguns exemplos: na América, os europeus conheceram pela primeira vez o tabaco (base do atual cigarro), cacau, batata-inglesa e a mandioca, que é originária do Brasil. Com o objetivo de garantir as conquistas e delas tirar o melhor proveito, os europeus precisaram enfrentar as diferenças existentes entre eles e os povos encontrados. De uma forma geral os europeus não compreendiam e não respeitavam os diferentes tipos físicos, línguas, costumes e religiões que encontraram nas novas terras, mas foram obrigados a reconhecer sua existência e conviver com eles.

Por um lado, esse encontro entre europeus e índios representaram uma das experiências mais fascinantes e ao mesmo tempo mais dolorosas de todos os tempos. Para os europeus, essa experiência representou dominação, saques, destruição, escravização, violência, exploração e matança de milhares de pessoas e de civilizações nos outros continentes; significou enriquecer graças ao empobrecimento e à humilhação dos outros. Por outro lado para os povos conquistados, os descobrimentos e a conquista europeia significaram uma grande mudança em suas vidas. Eles conheceram homens diferentes que se impuseram pela força, por novos costumes, valores e crenças. A partir daí foram obrigados a trabalhar até a morte para enriquecer senhores e governos que tudo queriam sem dar nenhum benefício em troca. Foram obrigados a entregar todas as riquezas que possuíam como o ouro e outros recursos naturais. Os povos que aqui na América viviam foram forçados a reorganizar suas formas de viver, seus valores e comportamentos diante da vida. Essas mudanças acabaram muitas vezes em um processo conhecido como aculturação. Os grandes descobrimentos marítimos e suas consequências foram responsáveis pela transformação da vida de todos os europeus e dos povos por eles encontrados. Umas das mais fortes influências trazidas pelos europeus foi o cristianismo – que hoje é a maior religião praticada nas Américas (do Sul, Central e do Norte).

 

OS ÍNDIOS

 

Quando os portugueses chegaram ao Brasil, encontraram uma população de índios com características culturais e linguísticas muito parecidas entre si. Esses índios podem ser diferenciados em dois grandes grupos: os tupis-guaranis e os tapuias. Os tupis-guaranis estavam presentes em quase toda a costa do Brasil, do Ceará até a o extremo sul. Os tupis também eram conhecidos como tupinambás ocupavam a faixa litorânea do Norte até Cananéia (sul do atual Estado de São Paulo); os guaranis localizavam-se na bacia Paraná-Paraguai e no trecho do litoral entre Cananéia e o extremo sul do Brasil. Em determinados pontos do litoral encontravam-se outros grupos como os goitacazes, aimorés e tremembés. Esses grupos eram chamados tapuias. Os índios praticavam a caça, a pesca, a coleta de frutas e agricultura, e a medida que a capacidade de produção da terra se esgotava, migravam para outras áreas. Quando praticavam a agricultura, derrubavam árvores e faziam as queimadas, técnica esta que mais tarde veio a ser utilizada pelos colonizadores. Os índios plantavam feijão, milho, abóbora e mandioca. A economia era de subsistência e direcionada ao consumo próprio e havia pouca troca de alimentos entre as aldeias. A chegada dos europeus foi uma catástrofe para os índios. Por outro lado, os índios resistiram aos colonizadores principalmente quando tentaram escravizá-los. Essa resistência ocorreu através de um isolamento, alcançando regiões distantes, porém cada vez mais pobres. De qualquer forma, foi possível preservar uma herança biológica, social e cultural. Os índios sofreram a violência cultural, foram vítimas de epidemias e morte. O contato com o homem europeu deu origem a uma população mestiça que até os dias de hoje é possível perceber na sociedade brasileira. E, dos milhões de índios que ocupavam o território brasileiro na época da conquista, atualmente existem de 300 a 350 mil.

 

O Sistema Colonial na América Luso-Espanhola

 

Sistema colonial foi o conjunto das relações econômicas e culturais entre as metrópoles e suas respectivas colônias. Em seguida ao período da conquista, tendo subjugados os nativos, os europeus – portugueses e espanhóis – deram início a montagem de uma estrutura de exploração na América Luso-Espanhola e assim conseguiram levar para a Europa grande parte das riquezas do nosso continente, como ouro e prata, por exemplo. Existiram diferenças e semelhanças em alguns aspectos na forma da colonização de portugueses e espanhóis. A dominação dos reis espanhóis estabelece-se a partir da extração mineral (ouro e prata), e também por uma agricultura de subsistência e de um comércio que permitiu a chegada dos minerais à Espanha e dos produtos europeus à América colonial. A dominação dos reis de Portugal, após o período de extrativismo, passou a basear-se na produção da cana de açúcar e na importação de escravos negros da África. Ao longo do processo, desde a etapa dos metais à provisão de alimentos, cada região se identificou com o que produzia, e produzia o que dela se esperava na Europa: cada produto, carregado nos porões dos navios que sulcavam o oceano, converteu-se numa vocação e num destino.

Os mercados do mundo colonial cresceram como meros apêndices do mercado interno do capitalismo que emergia. A economia colonial estava regida pelos mercadores, os donos das minas e os grandes proprietários de terras, que repartiam entre si o usufruto da mão de obra indígena e negra, sob o olhar ciumento e onipotente da Coroa e seu principal sócio, a Igreja. O poder estava concentrado em poucas mãos, que enviavam à Europa metais e alimentos, e da Europa recebiam os artigos de luxo, a cujo desfrute consagravam suas fortunas crescentes. As classes dominantes não tinham o menor interesse em diversificar as economias internas, nem de elevar os níveis técnicos e culturais da população: era outra sua função, dentro da engrenagem internacional para a qual atuavam; e a imensa miséria popular, tão lucrativa do ponto de vista dos interesses reinantes, impedia o desenvolvimento de um mercado interno de consumo. Foram, em verdade, o excedente agrícola, as habilidades e a mão de obra indígena que asseguraram o sucesso da empresa mineira espanhola. A introdução da economia de mineração (utilizando tecnologia primitiva) desempenhou o papel de lâmina de corte do capitalismo europeu ocidental. O sucesso da empresa literalmente dizimou a população indígena e destruiu as estruturas agrárias anteriores à conquista. A estância, unidade produtora voltada para a pecuária, surgiu das ruínas dessas culturas dizimadas pelos espanhóis.

 

Diferenças Entre as Colonizações Espanhola e Portuguesa

 

O que assegurou o sucesso do povoamento e da ocupação econômica do Brasil pelos portugueses foi a instalação da agroindústria açucareira. Mais bem-sucedidos do que os portugueses nas tentativas de exploração de riquezas minerais, os espanhóis logo encontraram riquíssimas minas de prata no México (território asteca) e no Peru-Bolívia (território inca). Houve, portanto, uma diferença quanto à base econômica de ocupação da América: agrícola, no caso da portuguesa, e mineira, no caso da espanhola. Além disso, houve a diferença também quanto à origem da mão de obra empregada nas ocupações portuguesa e espanhola: africanos e indígenas, respectivamente. Porém, em ambos os casos se adotou a política mercantilista como orientação geral, o que à ocupação econômica da América a forma de sistema colonial. No entanto, o processo da constituição desse sistema e o seu resultado final não foram os mesmos para Portugal e Espanha. Na Idade Moderna, devido às restrições mercantilistas, a liberdade econômica não era condição para o funcionamento do mercado. A economia baseava-se num sistema de privilégios: o rei vendia direito de exclusividade tanto em relação ao comércio quanto à produção. Esse sistema marcou presença na América e foi determinante na estruturação econômica do continente. O povoamento americano só ganhou forma de colonização em consequência da ação combinada entre rei e burguesia mercantil. O resultado foi a implantação de um sistema de produção voltado para o mercado externo, com base no tráfico negreiro, no exclusivo metropolitano e nas diversas modalidades de trabalho compulsório (cuatequil, mita, escravidão). Ou seja, na Idade Moderna foi montado um gigantesco sistema de produção modelado pela política mercantilista com a função de transferir o maior volume possível de riqueza da América para a Europa. O que foi feito com grande êxito, durante trezentos anos, à custa do sacrifício e extermínio de índios e negros.

  

 

REFERÊNCIAS

 

 

LIMA, Ederson Prestes Santos; SCHENA, Denilson Roberto. História. Curitiba: Instituto Federal do Paraná/Rede e-Tec, 2011.

SILVA, Daniel Neves. "Descobrimento da América"; Brasil Escola. Disponível em: https://brasilescola.uol.com.br/historia-da-america/descobrimento-da-america.htm. Acesso em 25 de novembro de 2025.

 

 

https://www.facebook.com/juliocesar.s.santos

quinta-feira, 11 de dezembro de 2025

O Arranjo Físico de Um Empreendimento

Quais as Principais Etapas na Determinação do Arranjo Físico? Em Que Consiste o Arranjo Físico Posicional? Qual a Importância da Ergonomia no Local de Trabalho? Qual a Principal Característica do Arranjo Físico Celular?

 


 


O arranjo físico (ou layout) de um determinado empreendimento refere-se à disposição estratégica e/ou física das instalações, das máquinas, dos equipamentos, dos postos de trabalho e das pessoas dentro de certo espaço produtivo – ou de serviço. O objetivo principal é organizar o espaço da forma mais eficiente e segura possível, otimizando o fluxo de materiais, informações e pessoas, e maximizando a produtividade. Mas, segundo Martins e Laugeni (1999) e Slack et al. (2008), as principais etapas para se determinar o arranjo físico são:

 

·        Analisar sobre o que se pretende que o arranjo físico propicie. Neste caso, são os objetivos estratégicos da operação que devem ser muito bem compreendidos;

·        Selecionar o tipo de produção de manufatura ou serviço, considerando   a característica volume (a quantidade de produtos e/ou serviços produzidos / oferecidos) e variedade (a variedade de produtos e/ou serviços produzidos/oferecidos);

·        Selecionar o arranjo físico básico, ou seja, a forma geral do arranjo de recursos produtivos da operação.

 

Na prática, a maioria dos arranjos físicos deriva de apenas quatro tipos básicos de arranjo físico e um tipo de produção não necessariamente implica um tipo básico de arranjo físico em particular. Para Slack et al.  (2008), os quatro (4) tipos básicos de arranjo físico são:

 

1.     Arranjo Físico Posicional: Também conhecido como arranjo físico de posição fixa.  Neste caso, os recursos transformadores é que se movem entre os recursos transformados, ou seja, em vez de materiais, informações ou clientes fluírem por meio de uma operação, quem sofre o processamento fica estacionário, enquanto equipamento, maquinário, instalações e pessoas movem-se dos e para a cena do processamento na medida do necessário. Como exemplo em serviços temos uma cirurgia de coração, restaurante de alta classe do tipo “a lá carte”, manutenção de computador de grande porte.

2.     Arranjo Físico Por Processo: É assim chamado porque as necessidades e conveniências dos recursos transformadores que constituem o processo de operação dominam a decisão sobre o arranjo físico. No arranjo por processo, processos similares são localizados juntos um do outro. Isto se deve à conveniência para a operação de mantê-los juntos, pois dessa forma a utilização dos recursos transformadores é beneficiada. Isso significa que, quando produtos, informações ou clientes fluírem com a operação, eles percorrerão um roteiro de processo a processo, de acordo com as suas necessidades. Diferentes produtos ou clientes terão diferentes necessidades e, portanto, percorrerão diferentes roteiros por meio da operação. Por esta razão, o padrão de fluxo na operação será bastante complexo. Como   exemplo em serviços, temos o caso dos hospitais, onde alguns processos (como aparelhos de raio x e laboratórios) são necessários a um grande número de diferentes tipos de pacientes, e alguns processos (como alas gerais) podem atingir altos níveis de utilização de recursos (leitos e equipe de atendimento). Os supermercados também são outro exemplo, onde alguns processos, como a área que dispõe de vegetais e enlatados, oferecem maior facilidade na reposição dos produtos se mantidos agrupados, produtos refrigerados.  Outro exemplo é uma biblioteca.

3.     Arranjo Físico Celular: É aquele em que os recursos transformados, entrando na operação, são pré-selecionados (ou pré-selecionam-se a si próprios) para se movimentar para uma parte específica da operação (ou célula) na qual todos os recursos transformadores necessários a atender as suas necessidades imediatas de processamento se encontram. A célula em si pode ser organizada segundo um arranjo físico por processo ou por produto. Como exemplo tem-se a área para produtos específicos em supermercados, pois alguns clientes usam o estabelecimento apenas para comprar lanches na hora do almoço (salgadinhos, refrigerantes, etc.). Estes, em geral, são localizados juntos, de forma que o cliente que está comprando seu almoço não precise procurá-lo pelo supermercado todo. Outro exemplo é uma loja de   departamentos, que tem como layout predominante por processos (pois cada área – calçados, roupas, livros, etc. – pode ser considerada um processo separado dedicado a vender um tipo particular de produto) e a exceção é o setor de esportes, que pode ser considerado uma loja dentro da loja, dedicada a vender vários tipos de produto com um tema comum: esporte.

4.     Arranjo físico por produto: Envolve localizar os recursos produtivos transformadores inteiramente segundo a melhor conveniência do recurso que está sendo transformado.  Cada produto, elemento de informação ou cliente, segue um roteiro pré-definido no qual a sequência de atividades requerida coincide com a sequência na qual os processos foram arranjados fisicamente. Este é o motivo pelo qual às vezes este tipo de arranjo físico é chamado de arranjo físico em “fluxo” ou em “linha”. O fluxo de produtos, informações ou clientes é muito claro e previsível no arranjo físico por produto, o que faz dele um arranjo relativamente fácil de controlar. Como exemplo, tem-se os restaurantes self service ou um programa de vacinação em massa. Além de cada tipo de arranjo físico, também existem os arranjos físicos mistos. Isto porque muitas operações ou projetam arranjos físicos mistos, que combinam elementos de alguns ou de todos os   tipos básicos de arranjo físico ou, alternativamente, usam tipos básicos de arranjo físico de forma “pura” em diferentes partes da operação. Por exemplo, um hospital normalmente seria arranjado conforme os princípios do arranjo físico por processo – cada departamento representando um tipo particular de processo (departamento de radiologia, salas de cirurgia, laboratórios, etc.). Ainda assim, dentro de cada departamento, diferentes tipos de arranjo físico são utilizados. O departamento de radiologia é provavelmente arranjado por processo, as salas de cirurgia segundo um arranjo físico posicional e o laboratório conforme um arranjo físico por produto.

 

Efeito Volume contra Variedade

 

Os exemplos anteriores dos quatro tipos básicos de arranjo físico mostram que o fluxo de materiais, informações e clientes dependerá bastante da específica configuração de arranjo físico escolhido.  A importância do fluxo para uma operação dependerá de suas características de volume e variedade. Quando o volume é baixo e a variedade é relativamente alta, o “fluxo” não é uma questão central.  Já com volumes maiores e variedade menor, o fluxo dos recursos transformados torna-se uma questão mais importante que deve ser tratada pela decisão referente a arranjo físico. A decisão sobre qual tipo de arranjo físico adotar raramente envolve uma escolha entre os quatro tipos básicos. As características de volume e variedade de uma operação vão reduzir a escolha, grosso modo, a uma ou duas opções. A decisão sobre qual arranjo físico escolher é influenciada por um entendimento correto das vantagens e desvantagens de cada um (Slack et al., 2008)

                                           Ergonomia e Organização do Trabalho

 

Levando em consideração o processo de desenvolvimento  pelo  qual  passam os setores industriais e de serviços em nosso país com o processo de  automação e informatização, a adequação ergonômica dos postos de  trabalho e do sistema de produção são necessidades imediatas e necessárias  ao bom desempenho das organizações. Com o processo de globalização que  estamos vivendo, a organização para sobreviver precisa tornar-se mais   competitiva, portanto, é necessário que ela modernize seus recursos de  infraestrutura,  tais  como máquinas, equipamentos, ferramentas, bem como os processos e métodos de execução do processo produtivo. Para isso é necessário que se qualifique e capacite seus recursos humanos, ou seja, seus colaboradores, e proporcione boas condições de trabalho aos mesmos. A qualidade e a produtividade do produto ou do serviço estão intimamente ligadas   ao   posto   de   trabalho e   ao   sistema   produtivo, e   estes   deverão   estar ergonomicamente adequados aos operadores, para que possam realizar suas tarefas com conforto, eficiência e eficácia, sem causar danos à saúde física, psíquica e mental. Os profissionais da Segurança e Medicinado Trabalho são os responsáveis pela qualidade de vida dos colaboradores de uma organização, portanto devem interagir com os profissionais da área de produção e administrativa, para juntos, encarar de frente os desafios que se apresentam no momento e planejar o futuro das organizações. O futuro das organizações dependerá cada vez mais da criatividade e da participação dos colaboradores na solução dos problemas, e isto só será possível, se o ambiente de trabalho estiver ergonomicamente adequado às atividades laborais. O que se tem observado em algumas organizações brasileiras, especialmente no segmento industrial, é um descaso para com as condições de trabalho e, consequentemente, com a qualidade de vida dos colaboradores, contudo também se observa que na maioria das empresas de maior porte, a ergonomia está sendo utilizada como ferramenta para melhorar a eficiência e eficácia dos colaboradores nos postos de trabalho.

Vale salientar que a questão ergonômica em uma empresa não se restringe a realizar a análise ergonômica para atender a NR-17 de ergonomia do Ministério do Trabalho, como muitos profissionais da área de Segurança do Trabalho fazem e conhecem e, muito menos, a prevenção das chamadas doenças ocupacionais, tais como as Lesões por Esforço Repetitivo (LER) e Doenças Ocupacionais Relacionadas ao Trabalho (Dort). A percepção em relação ao caráter multidisciplinar da ergonomia pode ter contribuído, ou ainda estar contribuindo, para que muitos profissionais de Segurança do Trabalho tenham ficado relegados a segundo plano em suas organizações, para as quais as áreas de Segurança e Medicina do Trabalho não passam de centros de despesas e custos, portanto não recebem investimentos e inovações. Na verdade, a ergonomia deve estar presente nas mais diversas áreas da empresa e deverá estar interagindo e se integrando na Gestão da Qualidade, pois a busca da Qualidade Total passa necessariamente pela Qualidade de Vida no Trabalho.

 

 

REFERÊNCIAS

 

 

ALVARENGA NETO; DRUMMOND, Rivadavia Correa. Gestão do conhecimento em organizações: proposta de mapeamento conceitual integrativo. São Paulo: Saraiva, 2008. 

DAMIAN, Ieda; VALENTIM, Marda, SANTOS. A cultura organizacional como fator crítico de sucesso à implantação da gestão do conhecimento em organizações. 2018.

DAVENPORT, Thomas H. Conhecimento empresarial. Rio de Janeiro: Elsevier Brasil, 1998. 

FREITAS, Eliezer da Silva. Gestão do conhecimento na Administração Pública: tendências de aprimoramento dos tribunais de contas. 2016.

ISO 30.401:2018 – Sistemas de gestão do conhecimento. Disponível em <http://lillianalvares.fci.unb.br/phocadownload/Estudos/ISO%2030401.pdf>. Acesso em:  14 nov. 2021.

 Mapeamento do conhecimento crítico. Disponível em <http://www.sbgc.org.br/mapeamento-de-conhecimento-criacutetico.html>. Acesso em:  14 nov. 2021.

MINISTÉRIO PÚBLICO FEDERAL. Gestão do conhecimento. Brasília, 2020.

NONAKA, Ikujiro; TAKEUCHI, Hirotaka. Criação do conhecimento na empresa: como as empresas japonesas geram a dinâmica de inovação. 2 ed. Rio de Janeiro: Campus, 1997.

 

 

https://www.facebook.com/juliocesar.s.santos


segunda-feira, 8 de dezembro de 2025

Princípios da Influência em Uma Negociação

 O Que é Necessário ao Profissional Para Exercer Influências em Negociações? Quais São os Princípios de Influência em Uma Negociação? Qual o Teor do Princípio do Compromisso e da Consistência?

 



Para exercer influência em negociações, o profissional em questão deve se preparar bem, conhecer os fatos que originaram essa negociação e confiar em critérios objetivos, além de se colocar no lugar da outra parte para entender seus interesses. Outras estratégias podem incluir a criação de opções, ser flexível, usar a ancoragem de forma estratégica e demonstrar confiança – em vez de agressividade. Mas, enquanto em um Tribunal o advogado pode usar vários mecanismos retóricos – e até mesmo dramáticos -  para convencer um júri em favor de seu cliente; na negociação, o advogado precisa usar um conjunto mais sutil de dispositivos para influenciar a outra parte a chegar a um acordo favorável. Assim, a influência e a persuasão são muito importantes em um processo de negociação. Neste contexto, alguns estudiosos identificaram seis (6) “Princípios de Influência”, os quais devem ser conhecidos pelo negociador, a fim de tentar persuadir ou evitar que seja influenciado. Cada um deles poderá ser usado para persuadir ou pode ser usado como uma arma de influência para estimular as pessoas a concordar com os pedidos.  Mesmo os advogados, que preferem não empregar estas técnicas se beneficiam em entender o que eles são e como podem ser usados pelo outro negociador:

 

1) Princípio da Reciprocidade: Este princípio é baseado na regra universal segundo a qual o que se recebe deve ser retribuído.  Cialdini cita um experimento realizado por um professor universitário, que enviou cartões de Natal a desconhecidos e recebeu diversos cartões de férias, em troca, o qual demonstrou que as pessoas realmente se sentem obrigadas a compensar um favor ou presente recebido. Esse sentimento de endividamento em relação a alguém faz com que as pessoas aceitem pedidos que normalmente teriam recusado e, também, que recompensem os favores percebidos, às vezes em medida maior do que receberam. Isso ocorre porque “há uma forte pressão cultural para se retribuir um presente, mesmo indesejado”. O advogado na negociação pode usar o Princípio da Reciprocidade para fazer uma concessão e, assim, criar um senso de obrigatoriedade de retribuição na outra parte, o que Cialdini chama de concessões recíprocas, ou para solicitar uma concessão substancial e, após este ser rejeitado, fazer um pedido menor, chamada técnica da rejeição e retrocesso. Esse senso de reciprocidade é importante para a negociação, pois estimula as concessões iniciais; se não houvesse esse caráter mútuo dificilmente alguém iria querer ceder primeiro, com receio de ser explorado ou de ceder sem receber algo em troca. Cialdini destaca que a concessão mútua é um procedimento importante para as interações sociais e a vida em comunidade, pois é comum que nestas relações uns participantes comecem com requisitos e exigências que são inaceitáveis para os outros. A técnica da rejeição e retrocesso também é relevante e decorre da regra da reciprocidade. Consiste em se fazer um pedido maior, que provavelmente será rejeitado, e depois da recusa, pedir algo menor, que é aquilo que se pretendia desde o início. O pedido secundário tende a ser visto como uma concessão a ser retribuída pela outra parte e, ainda, como uma solicitação pequena, já que será comparado com a maior, o que é denominado técnica do contraste.

Por exemplo, se determinado negociador almeja indenização no valor de R$ 25.000,00, ele poderia solicitar o valor de R$ 50.000,00, e aí após a recusa do primeiro pedido, seria proposto o valor reduzido, que já era anteriormente pretendido.  Desta forma, os pedidos tornam-se mais eficazes. Conforme Cialdini, “em conjunto, as influências de reciprocidade e contraste podem apresentar uma força poderosa”. No entanto, o negociador deve tomar cuidado para não tornar a primeira oferta exagerada a ponto de a outra parte enxergar aquilo como um ato de má-fé. Conforme Lewicki, elogiar comportamentos positivos já realizados pela parte, fará com que a pessoa se sinta bem e definirá um cenário para que ela aja positivamente. Além disso, é recomendável que se faça pequenas concessões, para criar uma obrigação implícita de retribuição. Embora muitos negociadores acreditem que a melhor estratégia é puxar para si todas as vantagens e ceder relutantemente, este comportamento rígido não é adequado para   uma   negociação   eficaz. Ademais, para   se   evitar   os   efeitos   do   princípio   da reciprocidade o negociador deve responder educadamente ao favor e somente aceitá-lo se realmente o deseja. É interessante conhecer o Princípio de Influência da Reciprocidade até mesmo para que se evite sofrer algum tipo de exploração.  Cialdini aponta que o negociador deve procurar participar de maneira justa da regra de reciprocidade, identificando se o favor recebido da outra parte é um truque para obrigar a retribuição; assim, será possível agir adequadamente na negociação.

 

2) Princípio do Compromisso e da Consistência: Conforme Cialdini, quando alguém faz uma escolha ou toma uma posição, será pressionado internamente e externamente para se comportar de maneira consistente com esse compromisso, de forma que justifique sua decisão anterior, daí decorre o Princípio do Compromisso e da Consistência. Aponta o autor que “todos nós nos enganamos de vez em quando a fim de manter nossos pensamentos e crenças consistentes com o que já fizemos ou decidimos”. A regra da consistência é um importante atalho para a tomada de decisões, já que possibilita que se faça aquilo que parece estar em conformidade com as ações anteriores, sem que seja necessário refletir muito. Às vezes, evita-se pensar em uma decisão não pelo esforço cognitivo necessário, mas simplesmente porque não se quer conhecer suas consequências. Portanto, além de ser  um  atalho mental,  é  uma  forma  de  poupar  preocupações.  O  problema  é  que  pode resultar em decisões bem infelizes. Stanchi  cita  uma  pesquisa  na  qual  se  solicitou  aos  moradores  de  um  bairro  que colocassem em seus quintais um outdoor enorme, que cobria quase toda a vista da casa da rua, com a mensagem “dirija com cuidado”. Enquanto em um grupo de moradores o pedido foi amplamente recusado, no outro foi majoritariamente aceito. A diferença entre ambos é que, duas semanas antes, ao segundo grupo foi solicitado que deixasse em seus quintais uma placa minúscula que dizia “seja um condutor seguro”.

Quer dizer, os moradores do segundo grupo se sentiram mais dispostos a atender ao segundo pedido, mesmo sendo demasiadamente maior, porque haviam acolhido a primeira solicitação. Para Cialdini, o compromisso é a chave da consistência, uma vez que quem faz um compromisso  público  tentará  evitar  ser  julgado  como  instável  ou  não  confiável141.  Os psicólogos sociais têm apontado que se alguém leva o outro a fazer um compromisso, terá um contexto mais propicio à uma tomada de decisão automática em consistência com esse primeiro pacto. Assim, ressalta Stanchi que: o negociador pode progredir, incentivando a outra parte a fazer pequenos compromissos no início do processo de negociação. Talvez, por exemplo, possa  convencê-lo  a  concordar  com  uma  cláusula  de  confidencialidade  ou  de  não publicidade. Ao induzi-lo a fazer um compromisso pequeno como este, o advogado pode ser  capaz  de  obter  acordos  muito  mais  substanciais  mais  tarde  no  processo.  O  outro negociador   pode   simplesmente   se   sentir   obrigado   a   consentir   devido   ao   seu comprometimento no início do processo.

 

3) Princípio da Prova Social: Este   princípio   fundamenta-se   no   fato   de   que   as   pessoas   enxergam   um comportamento como correto na medida em que veem as outras realizá-lo; e, de modo geral, essa resposta automática funciona bem, já que as pessoas errarão menos se agirem em conformidade com esta regra. Cialdini cita um estudo realizado por um psicólogo em uma creche escolar, em que algumas crianças que tinham pavor de cães, viram um menino brincando feliz com seu cachorro vinte minutos por dia; o que foi suficiente para, em quatro dias, fazer sumir tal fobia em 67% das crianças. Ressalta-se que este resultado foi verificado um mês após o experimento e ainda estava presente. O Princípio da Prova Social gera mais influência quando as pessoas não estão seguras sobre as suas decisões ou a situação é ambígua, pois tendem a olhar para o outro e aceitar suas ações como corretas. E, ainda, quando o observador percebe semelhanças entre ele e a pessoa que está observando. Estudos demonstram que as pessoas observam as ações das outras, para tomar decisões, especialmente quando se veem parecidas com elas. É notório, entretanto, que há situações em que a resposta automática da prova social não oferecerá a melhor decisão. Não é seguro confiar plenamente nas ações dos outros para tomar decisões, principalmente em situações importantes, nas quais devem ser avaliados os prós e contras, mas esse atalho é importante e “queremos ser capazes de contar com o comportamento dos outros como uma fonte de informação válida em uma grande variedade de casos”.

Primeiramente, há casos em que a prova social foi intencionalmente adulterada para criar a impressão de que muita gente está fazendo o que alguém gostaria que fosse realizado.  Além disso, ainda que não tenha havido fraudes, podem existir informações erradas, portanto em qualquer situação é recomendável que se olhe rapidamente as fontes de   dados, os   fatos   e   as   experiências   pessoais   anteriores, a   fim   de   ver   se   são correspondentes. Cialdini aponta que a resposta automática da prova social pode ser afastada, quando se percebem que esses dados sobre o comportamento dos indivíduos estão imprecisos. Nesses casos, basta ser mais rigoroso e corrigir essas desinformações para estar mais seguro. Conforme Stanchi, um advogado pode persuadir o outro a se comportar de determinada maneira, se no início da negociação apresenta o comportamento que espera da outra parte, por exemplo, incentivando uma postura colaborativa e a busca de ganhos mútuos. Além disso, o negociador pode utilizar este princípio demonstrando através de dados e informações de outros casos, que situações semelhantes já foram resolvidas em negociações. Cumpre   ressaltar   aqui   que   informações   adulteradas   podem   produzir sentimentos de aversão nos destinatários.

 

4) Princípio da Afinidade: Cialdini sustenta que não é novidade que as pessoas prefiram aceitar pedidos feitos por aqueles que elas conhecem e têm afinidade. Todavia, é surpreendente notar o quanto este princípio é utilizado de diversas maneiras por pessoas estranhas, como vendedores e voluntários que arrecadam doações, para levar outros a atenderem seus pedidos. O autor cita o exemplo de Joe Girard, que ganhou o título de maior vendedor de carros do mundo pelo Guinnes Book. Joe se especializou no princípio da afinidade e sua estratégia consistia em oferecer às pessoas, além de um preço justo, o vendedor que elas gostavam. Segundo Stanchi, “os indivíduos tendem a gostar daqueles que são fisicamente atraentes, aqueles com quem partilham algo em comum e aqueles com quem estão familiarizados”. Esses julgamentos ocorrem inconscientemente. 

Pesquisas demonstram que o aspecto da boa aparência é atribuído de maneira automática àqueles que possuem outras características favoráveis, como honestidade, inteligência, bondade e talento. Em relação à afinidade pela semelhança, destacam-se as similaridades de opiniões, personalidade e estilo de vida; já em relação à familiaridade, Cialdini ressalta que o número de vezes que somos expostos a uma coisa influencia nossa atitude em relação a ela. É importante ter em mente como o ser humano é influenciado pela afinidade, para que a tomada de decisões importantes seja mais racional, direcionada ao mérito do negócio e não ao negociador. E para que se busque reunir semelhanças no início da negociação que resultem no incremento da afinidade com a parte

 

5) Princípio da Autoridade: Este princípio refere-se ao sentimento de obrigação que existe nas pessoas no sentido de que devem consentir com aqueles que têm mais autoridade no assunto, mesmo que essa autoridade não seja real, mas apenas uma sensação. Stanchi afirma que o princípio da autoridade dita que os indivíduos muitas vezes adiam para as pessoas em aparentes posições de autoridade, líderes, autoridades e similares. Assim, um advogado pode tentar invocar o juiz como uma figura de autoridade e fazer argumentos sobre o que o juiz faria no caso, a fim de convencer o outro lado. Além disso, embora o princípio da autoridade seja geralmente entendido em relação às autoridades humanas, poderia estender-se a autoridades não humanas, como a lei ou jurisprudência. Assim, embora os advogados em uma negociação sejam, geralmente, livres para ignorar as regras legais aplicáveis, um advogado que aprecia o impacto persuasivo de um precedente legal como autoridade pode querer utilizá-lo para persuadir a outra parte dos méritos de alguma posição. O princípio da autoridade é facilmente percebido em relação aos médicos, por exemplo, que possuem muito conhecimento na área de saúde e detêm posições respeitadas na sociedade.

Conforme Cialdini, em consequência de uma longa tradição de obediência automática aos médicos, as pessoas não questionam e refletem sobre as ordens que lhes são estabelecidas; em situações normais, não haveria problemas nisso, mas se o médico estiver cometendo um erro, dificilmente será questionado pelos enfermeiros, funcionários e pacientes. Deste modo, Cialdini aponta que títulos, qualificações e adornos, como vestimentas pomposas e carros luxuosos, aumentam a influência no âmbito do princípio da autoridade. Assim como os outros atalhos referidos, a regra da autoridade geralmente faz sentido. Conclui Cialdini que nós não devemos querer resistir por completo, ou mesmo a maior parte do tempo. Geralmente, as figuras de autoridade sabem o que estão falando. Os médicos, juízes, executivos, líderes legislativos e similares tipicamente conquistaram suas posições por causa dos seus conhecimento e juízo elevados. Assim, em regra, as suas orientações oferecem excelentes conselhos. O truque é ser capaz de reconhecer, sem muito esforço ou vigilância quando sugestões de autoridade são melhores aplicadas e quando deveriam ser rejeitadas

 

6) Princípio da Escassez: Por fim, Cialdini apresenta o princípio da escassez, segundo o qual as oportunidades parecem ser mais valiosas quando sua disponibilidade é reduzida. Exemplificativamente, é comum que se interrompa uma conversa face a face, mesmo que seja importante, para atender uma ligação de um desconhecido; isso porque a chamada telefônica perdida pode se tornar indisponível. Este princípio é amplamente utilizado por vendedores, por exemplo, quando informam o cliente que “não podem garantir a disponibilidade do produto” ou que “está em falta naquela loja”.  Essas estratégias de influência são eficazes porque ameaçam a liberdade de escolha das oportunidades e, ainda, porque estimulam a sensação de que aquilo que é mais difícil possuir tem maior qualidade. Neste contexto, Cialdini menciona uma pesquisa em que os participantes receberam cookies de chocolate em um frasco.

O primeiro grupo recebeu dez biscoitos em cada frasco, enquanto os participantes do segundo grupo receberam apenas dois.  As avaliações dos grupos resultaram distintas, pois o segundo grupo classificou os cookies como mais desejáveis para se comer no futuro, demonstrando que a escassez torna as coisas mais atraentes. O negociador que considera tal princípio pode criar a impressão de que as oportunidades e o tempo estão se esgotando; por exemplo, ao fazer uma proposta e determinar um tempo para sua resposta ou oferecer um acordo pouco tempo antes da decisão judicial. Cialdini destaca que todos estes princípios de influência funcionam melhor em determinadas situações que em outras, por isso é importante conhecê-los, a fim de se reconhecer quando há uma situação de vulnerabilidade.  Portanto, percebe-se que a persuasão e a influência estão presentes em toda e qualquer negociação e que conhecer estas técnicas traz benefícios ao negociador e ao operador do direito, em geral.

 

 

REFERÊNCIAS

 

AZEVEDO, André Goma de. Conflito ou disputa?  Vencer ou resolver?  2014. Disponível    em:    <http://justificando.com/2014/10/17/conflito-ou-disputa-vencer-ou-resolver/>. Acesso em: 15 nov. 2015.

BENJAMIM, Robert. The Natural History of Negotiation and Mediation: The Evolution of Negotiative Behaviors, Rituals, and Approaches. 2012. Disponível em:<http://www.mediate.com/articles/NaturalHistory.cfm>. Acesso em: 18 nov. 2015.BURG, Bob.       Persuasion       vs.       Manipulation.       2010. Disponívelem:<http://www.burg.com/2010/08/persuasion-vs-manipulation/>.  Acesso em:  15 nov. 2015. 

CALMON, Petrônio. Fundamentos da mediação e da conciliação.  Forense, 2007.

COACHMAN, Karla de Souza Escobar. Boa-fé Objetiva e Função Social dos Contratos Aplicadas à Negociação e Redação de Instrumentos Jurídicos Paritários. São Paulo. 2010.  disponível em:  <https://pt.scribd.com/doc/102061789/101105-MONOGRAFIA-Karla-Coachman-Corrigido>. Acesso em: 13 nov. 2015.

CONSELHO NACIONAL DE JUSTIÇA. Relatório do Programa Justiça em Números. Disponível   em:   <http://www.cnj.jus.br/programas-e-acoes/pj-justica-em-numeros/>. Acesso em: 15 nov. 2015.

FIORELLI, José Osmir M. J. Mediação e Solução de Conflitos: Teoria e Prática. São Paulo. Ed. Atlas, 2008.

FISHER, Roger; URY, William; PATTON, Bruce. Como chegar ao sim: negociação de acordos sem concessões. Rio de Janeiro. Ed. Solomom. 2014. 6. ed.

FOLBERG, Jay; GOLLAN, Dwight. Lawyer negotiation: theory, practice, and law. New York. Ed. Aspen Law & Business, 2011. 4. ed.

GARTH, Bryant; CAPPELLETTI, Mauro. Acesso à justiça.  Trad.  E rev. Ellen Gracie Northfleet. Porto Alegre: Sergio Antonio Fabris Editor, 1988.

LEWICKI, Roy J.; BARRY, Bruce; SAUNDERS, David M.  Negotiation, New York: McGraw-Hill Irwin, 2010. 6. ed.

MENKEL-MEADOW, Carrie; SCHNEIDER, Andrea Kupfer; LOVE, LelaPorter. Negotiation: Processes for Problem Solving. New York: Aspen. 2006.

ROBERTS, Michael W. The Difference Between Persuasion and Manipulation. Disponível em: <http://michaelwroberts.com/content/persuasion-manipulation/>. Acesso em: 17 nov. 2015.RUSSEL, Korobkin.  Negotiation:  Theory and Strategy.  New York:  Aspen Law & Business, 2002.

YARN, Douglas E. Dictionary of Conflict Resolution. São Francisco: Jossey-Bass Inc., 1999. p. 272.



https://www.facebook.com/juliocesar.s.santos

quinta-feira, 4 de dezembro de 2025

Fatores Conjunturais e Estruturais na Evolução do Desemprego no Brasil

 Qual a Diferença de Índices de Desempregados Entre o IBGE e o DIEESE? Que Fatores Explicam a Desindustrialização no Brasil? A Partir de Quando o Desemprego no Brasil se Tornou um Problema Crônico? 

 


 

Esse texto tentará trazer uma breve análise do desemprego na economia brasileira como resultado da reorientação no modelo de desenvolvimento a partir de 1980. Veremos também que a crise do emprego que marcou nossa evolução econômica desde então também se deveu a fatores conjunturais.  Como nossa economia se abriu rapidamente ao exterior, ficamos mais vulneráveis a oscilações da demanda externa, o que dificultou a manutenção do nível de emprego em níveis razoáveis. É importante esclarecermos a respeito de que medida vamos falar, a fim de tratarmos do problema do desemprego, pois conforme o Instituto Brasileiro de Geografia e Estatística (IBGE) é considerado como desempregados todos aqueles que pertencem à população economicamente ativa e procuravam trabalho no período de realização da pesquisa. Já para o Departamento Intersindical de Estatísticas e Estudos Socioeconômicos (Dieese) agrega-se também à estatística de desempregados aqueles que se encontram em situação de trabalho precário (auto ocupação ocasional, remunerada ou não) e aqueles que desistiram de procurar trabalho por sentirem-se desestimulados. Todas as pessoas em idade acima de 10   anos são computadas como população economicamente ativa e, nesta definição, incluem-se tanto os indivíduos ocupados como os indivíduos desocupados. São excluídos desse cálculo as pessoas inativas, ou seja, que não exercem (ou não buscam exercer) alguma atividade no mercado de trabalho, como estudantes (maiores de 10 anos), aposentados e donas de casa. Como você viu na disciplina Introdução a Economia, há desemprego quando uma pessoa em idade produtiva quer trabalhar, mas não encontra emprego ou encontra trabalho em condições precárias de subemprego. Um “bico”, portanto, também costuma ser considerado como desemprego, já que não dá garantias de estabilidade e segurança para o trabalhador. O desemprego é, na realidade, um resultado involuntário de todo processo de industrialização. É importante destacarmos que foi a revolução industrial inglesa, entre fins do século XVIII e início do século XIX, que gerou uma enorme massa de desempregados. O mesmo ocorreria com outras potências europeias em seguida.  Isso acontece, de um lado, porque as máquinas, em constante evolução tecnológica, são poupadoras de mão de obra.  E, por outro lado, porque a industrialização se acompanhada da urbanização, pois os trabalhadores rurais são atraídos pelos salários dos centros urbanos. Como o sistema não gera trabalho para todos, sempre existe uma massa, mais ou menos importante, de desempregados. O tamanho dessa massa de desempregados está em função da conjuntura econômica, mas também das políticas sociais e de emprego que o governo adota.

No Brasil, a rápida evolução industrial e o inchaço dos centros urbanos que se deu entre os anos 1950 e 1980 não acompanhou, como em outros países, de uma preocupação sistemática dos governos com a fixação de uma parcela da população no campo por meio de reforma agrária ou de políticas bem articuladas de seguridade social. Um segmento importante, em torno da metade da população economicamente ativa, seguiu sem emprego formal e, portanto, excluída dos benefícios que os trabalhadores com carteira assinada recebem do sistema de proteção social, como seguro desemprego, aposentadoria entre outros mecanismos que regulam as relações trabalhistas, reforçados com a Constituição de 1988. Nessa perspectiva, a crise do emprego no Brasil se tornou um problema econômico crônico de sua economia a partir da recessão do início de 1980. Os planos de ajuste macroeconômico adotados desde então colocaram o foco sempre na inflação, sem se preocuparem com as consequências em termos de emprego. Segundo Pochmann (2008, p. 65), [...] o colapso no padrão de financiamento da evolução nacional logo no início da década de 1980, com a crise da dívida externa, levou à adoção de programas de ajustes macroeconômicos que até hoje inviabilizam a plena retomada do crescimento econômico sustentado. No cenário de semi-estagnação, de fortes e rápidas oscilações econômicas e de alta inflação, o país acabou por romper com a estruturação do mercado de trabalho inaugurada ainda na década de 1930.A oscilação no nível emprego ficou dependente, desde então, da situação conjuntural da economia brasileira. Com exceção do primeiro governo Lula não houve uma preocupação em abordar as causas estruturais do desemprego e da informalidade no País e, pelo contrário, o que se viu foi uma política de flexibilização do trabalho, mais claramente colocada em prática a partir de 1990, a qual foi apoiada por vários economistas liberais.

A flexibilização teve origem a partir de uma concepção do funcionamento da economia, segundo a qual as normas trabalhistas incorrem em um custo   demasiado elevado e afetam a eficiência do setor produtivo. Esse questionamento ganhou força em um momento de grande pressão sobre a estrutura produtiva a partir da crise de 1970 nos países centrais. Como essa concepção vem dominando o debate nos últimos anos, uma série de medidas foram adotadas, especialmente desde meados dos anos 1990, permitindo a instituição do contrato temporário de trabalho, a proliferação dos empregos terceirizados e a multiplicação de trabalhadores autônomos sem contrato fixo com as empresas. Note que a flexibilização do trabalho não é um processo exclusivo da economia brasileira. Ele vem ocorrendo em diferentes países da América Latina e também em países de capitalismo avançado, como EUA ou França. Contudo, é importante perceber que o Brasil parte de um nível inferior em termos da qualidade de sua rede de proteção social e das normas trabalhistas, se comparado ao conjunto de países desenvolvidos. Para citar alguns exemplos:

 

·        Menos de 10% da população adulta têm Ensino Superior no Brasil, frente a cerca de 25% nos países avançados (segundo dados do IBGE e OCDE);

·        O seguro-desemprego   não   contempla   a   massa   de   trabalhadores informais e tem duração e remuneração muito limitadas em nosso país;

·        A falta de investimentos no setor de saúde pública mantém o Brasil distante dos níveis adequados em uma série de indicadores da Organização Mundial de Saúde. Isso explica em parte a gravidade da crise social que enfrentamos atualmente.

 

Outro elemento importante para que se compreenda a evolução recente do desemprego e do subemprego (ou emprego precário) em nossa economia consiste em observar o que ocorreu com o emprego industrial nos últimos tempos. Vimos que, após um período relativamente exitoso pelo qual se caracterizou o nosso processo de industrialização, iniciou-se um período de retração na indústria nacional, a partir das sucessivas crises desencadeadas em princípios dos anos 1980. Em contraposição ao que ocorria no período anterior, costuma-se caracterizar o período atual de desindustrialização.  Diversos fatores estão por trás desse processo como a abertura comercial, a retração na política industrial e a adoção de novas tecnologias poupadoras de mão de obra não especializada. Sendo assim, pode-se dizer que o nível de emprego na indústria mergulhou em uma grave crise, que se iniciou com a abertura comercial decretada no governo Collor (1990). A produção industrial segue se expandindo, de forma bem lenta e apesar dos seguidos quadros recessivos.  Isso indica que os segmentos da indústria nacional que sobreviveram a esse processo o fizeram por meio de fortes transformações produtivas, cortando custos e adotando tecnologias poupadoras de mão de obra, como forma de fazer face à concorrência das importações. Durante o governo Cardoso, o preço da estabilização econômica e do controle da inflação foi o crescimento lento da indústria e a redução no emprego.

Como se sabe, um dos instrumentos principais para a manutenção da inflação em níveis baixos foi a valorização do câmbio, o que tornava as importações extremamente atraentes para o consumidor local. Assim, muitas indústrias tiveram de abandonar a produção, enquanto outras recorreram aos insumos importados, em lugar de comprá-los de fornecedores brasileiros. Note também que, pela primeira vez desde meados dos anos 1980, emprego e produto na indústria voltaram a crescer juntos no 1º governo Lula, como fruto do excelente cenário externo até meados de. O crescimento econômico observado nesse governo não beneficiou apenas o setor secundário, pois ele se estendeu a vários setores da economia. Isso explica a importante redução no desemprego entre 2004 e 2008, pouco antes da nova crise global atingir também a economia brasileira. A recuperação no nível de emprego no País se acompanhou de uma pequena melhora no nível de formalização, medido pela proporção de trabalhadores com carteira assinada no setor privado.  Ambos os indicadores estavam ao final de 2008 em seu melhor nível dos últimos dez anos, o que apontava para a boa conjuntura do mercado de trabalho naquele momento.  Ainda que parte dessas melhorias nas condições de emprego tenham sido revertidas por conta do impacto da crise global no Brasil, ao longo de 2009, em 2010 a expansão econômica já se dava em ritmo acelerado, registrando bons índices de contratação de trabalhadores.

 

 

REFERÊNCIAS

 

 

IBGE. Síntese de indicadores sociais. Brasília, 2008.IPEA. Sobre a recente queda da desigualdade de renda no Brasil. Brasília, 2006.LESSA, Carlos. 15 anos de política econômica. 4. ed. São Paulo: Brasiliense, 1983.

POCHMANN, Marcio. A década dos mitos. O novo modelo econômico e a crise do trabalho no Brasil. São Paulo: Contexto, 2001.

______. O emprego no desenvolvimento da nação. São Paulo: Boitempo Editorial, 2008.

 

 

 

segunda-feira, 1 de dezembro de 2025

Evolução da Administração da Produção

 O Que é Um Método Artesanal de Produção? Como se Define Gestão da Produção? Como Evoluíram os Métodos de Produção? Qual Foi o Impacto da Produção em Série da Ford?

 



 

Quando se ouve falar em Gestão da Produção ou de Administração da Produção, a maioria das pessoas confunde com uma atividade fabril qualquer e, ao ouvi-las, as pessoas logo imaginam um local cheio de máquinas, pessoas andando de um lado para o outro, produtos sendo fabricados, vagões ferroviários ou caminhões sendo carregados e descarregados e assim por diante. Não resta dúvida que tudo isso tem a ver com a Administração da Produção, mas a imagem é incompleta, pois os bancos, hospitais, escolas, aeroportos, que são todas atividades classificadas como serviços, têm também a ver com os conceitos e técnicas que iremos explorar. Assim, pode-se dizer que Gestão da Produção é uma atividade de gerenciamento de recursos escassos e processos que produzem e entregam bens e serviços, visando atender as necessidades e/ou desejos de qualidade, tempo e custo de seus clientes. Toda organização – vise ela ao lucro ou não – tem dentro de si uma função de produção, pois gera algum “pacote de valor” para seus clientes que inclui algum composto de produtos e serviços, mesmo que, dentro da organização, a função de produção não tenha este nome. Então, pode-se afirmar que a Gestão da Produção é, acima de tudo, um assunto prático que trata de problemas reais, pois tudo o que vestimos, comemos e utilizamos passa de alguma maneira por um processo produtivo (Slack et al., 2008), e organizar este processo eficaz e eficientemente é o objetivo da Gestão da Produção de Bens e Serviços.

 

Evolução Histórica da Área

 

Na história da humanidade as pessoas que fizeram a diferença foram as que inovaram. Não importa em qual área do conhecimento elas atuavam, o que importa é que elas não se contentaram com o que existia até então, e buscaram descobrir uma nova forma de se fazer as coisas. Foi por meio destas inovações que a humanidade – e tudo que faz parte dela – evoluiu. A história da indústria não é diferente, pois foi por meio das inovações de pessoas que buscavam “algo mais” que os meios de produção evoluíram e proporcionaram grandes melhorias contribuindo para o desenvolvimento da humanidade. No final do século 14 a produção era caracterizada pelo artesanato. Neste tipo de produção a força de trabalho era altamente qualificada, e muitos trabalhadores progrediam por meio de um aprendizado abrangendo todo um conjunto de habilidades artesanais.   Muitos   esperavam   administrar suas próprias oficinas, tornando-se empreendedores autônomos trabalhando para firmas de montagem. As organizações eram altamente descentralizadas, ainda que concentradas em uma só cidade. O sistema era coordenado por um proprietário/empresário, em contato direto com todos os envolvidos: consumidores, empregados e fornecedores. Além disso, os produtos eram sempre individualizados e só produzidos sob encomenda. A produção artesanal pode ser considerada a primeira forma de produção organizada, posto que os artesãos estabeleciam prazos de entrega e, consequentemente, instituindo prioridades, atendiam as especificações preestabelecidas e fixavam preços para suas encomendas. Como exemplo de produção artesanal temos a empresa Panhard e Levassor (P&L), que, em 1894, era considerada a principal companhia automobilística no mundo. A produção da P&L era artesanal, e seus funcionários, que na maioria das vezes trabalhavam como empreiteiros, eram habilidosos artesãos. A empresa tinha um baixíssimo volume de produção (cerca de mil automóveis ou menos por ano, dos quais 50 ou menos com o mesmo projeto, e mesmo entre estes 50 não havia 2 carros idênticos, pois, as técnicas artesanais produziam, por sua   própria natureza, variações), o que tornava o automóvel extremamente caro (cerca de U$ 3.000,00).

Este cenário demonstrava que a produção artesanal tinha muitas desvantagens, como os elevados custos de produção, que não diminuíam com o volume, fazendo com que somente os mais abastados tivessem automóveis.  Além disto, cada carro era na verdade um protótipo que os próprios proprietários acabavam testando, pois, a sua consistência e a sua confiabilidade eram ilusórias. No ano de 1776, James Watt vendeu seu primeiro motor a vapor na Inglaterra (instalado inicialmente em fábricas de artefatos de ferro e aço), disparando assim a chamada Primeira Revolução Industrial e substituindo, gradativamente, a produção artesanal. De acordo com Correa (2003), esta Primeira Revolução Industrial mudou de forma radical a face da indústria, com uma crescente mecanização das tarefas anteriormente executadas de forma manual. Avanços tecnológicos importantes facilitaram a substituição de mão de obra por capital e   permitiram o desenvolvimento de economias de escala, tornando interessante o estabelecimento de “unidades fabris” e, com isso, surgiram novos conceitos como:

 

·        Padronização dos produtos; –

·        Padronização dos processos de fabricação; –

·        Treinamento e habilitação da mão de obra direta; –

·        Criação e desenvolvimento dos quadros gerenciais e de supervisão;

·        Desenvolvimento de técnicas de planejamento e controle da produção;

·        Desenvolvimento de técnicas de planejamento e controle financeiro;

·        Desenvolvimento de técnicas de vendas

 

Muitos destes conceitos que hoje nos parecem óbvios não o eram na época. O conceito de padronização de componentes, por exemplo, introduzido por Eli Whitney em 1790, quando conduziu a produção de mosquetes com peças intercambiáveis, forneceu uma grande vantagem operacional aos exércitos. Teve início o registro, por meio de desenhos e croquis, dos produtos e processos fabris, surgindo a função de projeto de produto, de processos, de instalações, de equipamentos, etc. No fim do século 19 surgiram nos Estados Unidos os trabalhos de Frederick Taylor. Taylor era um estudioso das formas de aumentar a produtividade em processos produtivos. Sua intenção era claramente ligada à eficiência: fazer mais produtos com menos recursos.  Para tanto, desenvolveu a chamada Administração Científica, que consiste   basicamente em quebrar as tarefas em subtarefas elementares e trabalhar excessivamente para tornar cada uma delas tarefas mais eficientes. Segundo   Martins e Laugeni (1999), a procura incessante por melhores métodos de trabalho e processos de produção, com o objetivo de se obter melhoria da produtividade com o menor custo possível, é ainda hoje o tema central em todas as organizações, mudando-se apenas as técnicas empregadas.

Por volta de de 1910, Henry Ford começou a desenvolver os princípios da produção em massa, a partir da percepção de um potencial mercado consumidor de baixa renda para automóveis e da constatação de que a produção artesanal não era a melhor maneira de produção para este tipo de consumidor, uma vez que os custos eram elevados. Ford aliou os conceitos da intercambialidade de peças (de Whitney) à Administração Científica (de Taylor) e acrescenta o conceito de “Linhas de Montagem Seriada”. Como   resultado conseguiu fabricar produtos padronizados com pouca variedade que, a cada aumento de quantidade de produção, reduzia o custo desta; ou seja, conseguiu “Economias de Escala”. Cada vez que ele aumentava a quantidade produzida, mais diminuía o preço dos seus produtos, e de U$ 3.000,00 (valor do carro artesanal) um carro Ford passou a custar U$ 600,00. “Construirei  um  carro  para  as  grandes  massas,  feito  com  os  melhores materiais,  pelos  melhores  homens  que  puderem  ser  contratados  e  seguindo  os projetos  mais  simples  que  a  moderna  engenharia  puder  conceber  (...)  de  preço  tão baixo que qualquer homem que ganhe um bom salário seja capaz de possuir –e de desfrutar  com  a  sua  família  a  benção  das  horas  de  prazer  nos  grandes  espaços abertos da natureza” –declaração de Henry Ford no início da carreira como produtor de carros (Tedlow, 2002 apud Correa, 2003, p. 46). Dessa forma, Ford conseguiu liderar uma indústria que logo se tornou a maior do mundo, por ter sido o primeiro a dominar os princípios da produção em massa. Entre as principais características da produção em massa, podemos destacar:

 

·        Linhas de montagem / Posto de trabalho / Estoques intermediários / Monotonia do trabalho / Arranjo físico ou layout / Balanceamento de linha / Produtos em processo / Motivação / Sindicatos / Manutenção preventiva.

 

A partir de 1927, último ano de produção do modelo “T”, Henry Ford defrontou-se com a demanda em queda. Isto ocorreu devido à percepção da General Motors (GM), então liderada por Alfred Sloan, de uma nova necessidade de mercado: a variedade (cores e modelos). Desta forma, utilizando-se dos mesmos princípios da produção em massa, mas com um aumento na variedade dos produtos, a GM passou a liderar o mercado de automóveis, oferecendo carros de cores e modelos variados com um preço um pouco maior do que Ford. A produção em massa fez uma revolução na indústria, conseguindo economias de escala (os produtos se tornaram acessíveis a um maior número de pessoas). No decorrer dos anos, no   entanto, apareceram as deficiências deste modelo de produção, como a geração de grandes estoques, a padronização dos produtos, a alienação do trabalhador e os altos índices de desperdício. Neste contexto, a partir dos anos 50, surgia uma nova ideia de produção capaz de suprir as necessidades de ampla variedade e curta vida útil dos produtos, de qualidade assegurada, de trabalho de acordo com a demanda e redução dos custos. Desta forma, irrompe o Sistema Toyota de Produção (STP), que começou a ser desenvolvido a partir de uma visita de Fiji Toyoda, filho do fundador e então diretor da Toyota, à fábrica Rouge da Ford nos Estados Unidos. Toyoda voltou de lá com a certeza de que não poderia introduzir o modelo de produção americano (produção em massa) no Japão, devido às diferenças culturais, econômicas e geográficas e também por perceber alguns dos problemas daquele tipo de produção. Sendo assim, o Sistema Toyota de Produção – STP –, foi desenvolvido instintivamente por Taiichi Ohno, o então engenheiro de produção da Toyota, pela necessidade de atender à demanda. Entre as principais características do STP, podemos citar:

 

·        Just in time

·        Kanban

·        Fluxo e nivelamento da produção

·        Eliminação de desperdícios

·        Células de produção

·        Melhoria contínua

·        Benchmarking.

 

O STP foi o modelo de produção que originou a chamada produção enxuta. A produção enxuta pode ser considerada uma espécie de “ocidentalização” do STP, na medida em que trouxe seus princípios e ferramentas para a realidade das empresas ocidentais, a fim de transformar empresas baseadas na produção em massa em empresas “enxutas”, para sobreviver em tempos de variedade e restrição. Ao longo desse processo de modernização da   produção, cresceu em importância a figura do cliente, em nome do qual tudo se tem feito. Pode-se dizer que a procura da satisfação do consumidor é que tem levado as organizações a se atualizarem com novas técnicas de produção, cada vez mais eficazes, eficientes e de alta produtividade. É tão grande a atenção dispensada aos clientes que este, em muitos casos, já especifica em detalhes o “seu” produto, sem que isso atrapalhe os processos de produção, tamanha a flexibilidade.  Assim, estamos caminhando para a produção customizada, que, sob certos aspectos, é um retorno à produção artesanal, sem a figura do artesão, mas aliada às modernas técnicas e tecnologias da produção em massa e da produção enxuta.

 

 

REFERÊNCIAS

 

 

CORREA, Henrique L. Administração da produção e operações –manufatura e serviços: uma abordagem estratégica. São Paulo: Atlas, 2004

.______. Teoria Geral da Administração –abordagem histórica da gestão de produção e operações. São Paulo: Atlas, 2003.

GOLDRATT, Elijah; FOX, Jeff. A meta. São Paulo: Nobel, 2002.

MARTINS, Petrônio G.; LAUGENI, Fernando P. Administração da produção. São Paulo: Saraiva, 1999.

______. Administração da produção. São Paulo: Saraiva, 2001.MOREIRA, Daniel Augusto.  Administração da produção e operações.  São Paulo: Thonson Learning, 2002.

ROCHA, Duílio. Fundamentos técnicos da produção. São Paulo: Makron Books, 1995.

RUSSOMANO, Victor H.  Planejamento e acompanhamento da produção.  São Paulo: Pioneira, 1979.

______. Planejamento e controle da produção. São Paulo: Pioneira, 2000. Disponível em: <http:// www.eps.ufsc.br/disserta96/armando/cap2/cap2.htmhttp://www.eps.ufsc.br/disserta96/armando/ index/index.htm –sumariohttp://www.eps.ufsc.br/disserta96/armando/cap4/cap4.htm>. Acesso em: 21 jun. 2010.

SANTOS, Carlos Maurício.  Ergonomia:  análise e projeto ergonômico do posto de trabalho. SLACK, N. et al. Administração da produção. São Paulo: Atlas, 1997.

______. Administração da produção. São Paulo: Atlas, 2008.

______. Administração da produção. São Paulo: Atlas, 2002.