segunda-feira, 7 de agosto de 2017

Células tronco : o que são e o que serão?


Resenha Crítica sobre o artigo: Células tronco : o que são e o que serão?


O artigo “Células-tronco: o que são e o que serão?” foi produzida por Regina Célia Mingroni-Netto e Eliana Maria Beluzzo Dessen, sendo divulgado na Revista Genética na Escola, uma revista semestral publicada pela Sociedade Brasileira de Genética . O artigo foi publicado em 2006 no vol I da Revista em questão1.
 Ambas autoras são brasileiras, sendo que a Eliana Maria Beluzzo Dessen possui graduação em Ciências Biológicas pela Universidade de São Paulo (1970), mestrado em Ciências Biológicas (Biologia Genética) pela Universidade de São Paulo (1973) e doutorado em Ciências Biológicas (Biologia Genética) pela Universidade de São Paulo (1978) e pós doutorado em Biologia Molecular no Zentrum Für Molekulare Biologie Heidelberg, Alemanha. Tem experiência na área de Genética, com ênfase em Citogenética, e em Biologia Molecular. Já Regina Célia Mingroni-Netto possui graduação em Ciências Biológicas pela Universidade de São Paulo (1984), mestrado em Ciências Biológicas (Biologia Genética) pela Universidade de São Paulo (1988) e doutorado em Ciências Biológicas (Biologia Genética) pela Universidade de São Paulo (1994). Tem experiência na área de Genética Humana e Médica, com ênfase em genética molecular humana, tendo atuado principalmente nos seguintes temas: síndrome do cromossomo X frágil, surdez hereditária e variabilidade molecular em populações brasileiras.2
O artigo em questão trata sobre as células-tronco desde o seu significado , tratando das terapias celulares utilizadas atualmente, até a grande questão ética-religiosa das células-tronco embrionárias. Este texto é dividido em 5 tópicos principais: A diferenciação celular; Células indiferenciadas: as células-tronco; Terapia celular e as células-tronco; A polêmica sobre o uso de células-tronco embrionárias em terapia celular; O que há de novo sobre terapia com células-tronco? . Inicialmente ao abordar a diferenciação celular, as autoras mostram o processo de formação do embrião humano, como destaque, o zigoto. A diferença suprema do zigoto para um embrião desenvolvido é a diferenciação celular. Este processo consiste em uma diferente leitura dos genes que varia de acordo o tipo celular. Os fatores de produção ou proteínas ativadoras de genes fazem a ativação gênica, que reconhecem sequências específicas de DNA e favorecem a aproximação das proteínas específicas para a transcrição de fato. Pode-se afirmar que toda célula do corpo humano podem ser caracterizadas em dois pontos: grau de diferenciação e potencialidade.
 O Dr. Dráuzio Varella mencionou um trecho no seu artigo sobre Clonagem Humana  que permite aplicar esses dois conceitos.





Com este texto percebe-se o grau de diferenciação, que é o quanto uma célula é especializada em determinada função, como por exemplo, células musculares e celulares. Também pode-se detectar o grau de potencialidade, ou seja, a capacidade de originar novas células, como por exemplo, as células tronco. Em síntese, a diferenciação celular é o grau de especializações, potencialidade e capacidade de originar outros tipos celulares. 
Portanto, a partir do segundo tópico “Células indiferenciadas: as células-tronco” as  autoras tratam a relação da diferenciação celular a partir da potencialidade da célula. Por exemplo, células que ainda não estão diferenciadas, podem ser classificadas como totipotentes, pois podem originar todos os tipos de células, como por exemplo, as células do blastocisto. Já células que conseguem ser diferenciadas na maioria dos tecidos, menos em anexos embrionários são denominadas de pluripotentes.  Células multipotentes têm potencialidade para originar alguns tipos celulares. Um exemplo de células multipotentes é o das células da medula óssea, que dão origem a diversos tipos de células sanguíneas, como também, as células estromais, que produzem os percussores da gordura e dos ossos, e as recém-descobertas, mesenquimais. 
No terceiro tópico, “Terapia celular e as células-tronco” o texto difere da ideia de utilização de células-tronco com uma aura futurística. Dessa forma, o artigo desmistifica essa ideia, quando refere-se ao transplante de medula óssea. Desde 1968, esses transplantes recuperam a capacidade dos pacientes de produzir células sanguíneas e imunológicas saudáveis. 3 Porém uma dos problemas desse tipo de terapia celular é a rejeição ou histocompatibilidade. Todas as espécies possuem um conjunto de genes denominado MHC, cujos produtos são de importância para o reconhecimento intercelular e a discriminação do que é próprio e não-próprio. Nos seres humanos essas proteínas são chamadas de HLA (antígeno leucocitário humano). Assim, quanto maior o grau de parentesco, mais alelos do MHC eles terão em comum. Com base nas leis de genética, as chances de um indivíduo encontrar um doador ideal entre irmãos (mesmo pai e mesma mãe) é de 35%. Quando não há um 'doador aparentado' (irmão ou outro parente próximo, geralmente um dos pais), a solução é procurar um doador compatível entre os grupos étnicos (brancos, negros, amarelos) semelhantes. Embora, no caso do Brasil, a mistura de raças dificulte a localização de doadores, é possível encontrá-los em outros países. Desta forma, surgiram os primeiros Cadastros de Doadores de Medula em que, voluntários de todo o mundo, são registrados e consultados para pacientes de todo o planeta. Hoje existem mais de 5 milhões de doadores no mundo.4
Porém o transplante de medula óssea a partir de doadores adultos não é a única forma de obtenção de células-tronco adultas, ou somáticas. Pode-se obter células-tronco adultas em um cordão umbilical, uma área rica em células sanguíneas. “O uso de células-tronco do sangue de cordão umbilical em transplantes é mais vantajoso do que o de medula óssea, por vários motivos: elas se implantam mais eficientemente, são mais tolerantes à incompatibilidade entre receptor e doador, têm disponibilidade imediata e há possibilidade de realização do transplante sem que o doador seja submetido a qualquer tipo de procedimento cirúrgico.” Relata as autoras. Essa facilidade de coleta e da análise prévia de antígenos HLA estimulou a  criação de Bancos de Sangue de Cordão Umbilical no Brasil.

No quarto tópico, “A polêmica sobre o uso de células-tronco embrionárias em terapia celular”  as autoras tratam da grande questão ética-religiosa que é a utilização de células-tronco embrionárias. Elas apresentam três métodos diferentes de terapia celular com células-tronco: a primeira é a forma tradicional, ou seja, a utilização de células-tronco adultas; A segunda consiste na utilização de células-tronco embrionárias a partir de um embrião em fase inicial de desenvolvimento, o blastocisto; e a terceira e mais polêmica é a clonagem terapêutica, na qual o DNA retirado de uma célula adulta do doador também é introduzido num óvulo "vazio", mas, depois de algumas divisões, as células-tronco são direcionadas no laboratório para fabricar tecidos idênticos aos do doador, tecidos que nunca serão rejeitados por ele.
Assim, clonagem terapêutica é apenas um tipo de terapia celular com células-tronco. Porém ainda não obteve-se sucesso nas tentativas de clonagem terapêutica realizadas em humanos. Assim apesar das questões éticas, as autoras argumentam as vantagens de serem utilizadas as células-tronco embrionárias em favor das células-tronco de adulto. As mesmas argumentam que as células-tronco de adulto são raras e muito difíceis de serem obtidas nos tecidos onde ocorrem. A sua multiplicação em laboratório é mais vagarosa do que a das células-tronco embrionárias e, em teoria, a sua potencialidade de diferenciação é mais reduzida do que a das células embrionárias, pois já estão em estado mais adiantado de diferenciação celular. Além disso, logo após o seu estabelecimento em laboratório, elas perdem a capacidade de se dividir e se diferenciar. Portanto, ainda não se sabe se as células-tronco de adulto poderão substituir perfeitamente as células-tronco embrionárias. Porém, é necessário se conhecer o mecanismo da diferenciação celular envolvendo os dois tipos células-tronco, para saber a real potencialidade e os limites delas. 
É interessante o caráter social trazido pelo artigo, quando abordam que “somente após uma discussão séria que envolva a todos os segmentos da sociedade, que deve estar ciente dos riscos e benefícios de tais atividades, podemos chegar a um consenso sobre a utilização responsável e ética dessas células.”  Também apresenta o projeto da Lei de Biossegurança,  no qual as células-tronco de fertilização in vitro poderão ser utilizadas para fins de pesquisa de novos tratamentos. No quinto e último tópico, “O que há de novo sobre terapia com células-tronco?”, as autoras fazem um apanhado geral das pesquisas e dos avanços relacionados nessa área. Como a pesquisa brasileira referente ao coração. O Brasil está como uma das pioneiras neste sentido, até mesmo ao EUA com a decisão de Bush que proibiu a criação de novas linhagens de células tronco embrionárias. 
O artigo como um todo apresentou coerência entre a posição central e a explicação, discussão e demonstração. Pois qualquer indivíduo que possuísse conhecimento nulo a respeito de células tronco conseguiria entender algo do assunto. Porém, as questões ético-religiosas poderiam ser abordadas de forma mais profunda. Por exemplo Clive Cookson discute esta questão ao apresentar a terapia celular com células-tronco como um tratamento antigo e aceito, enquanto que a clonagem terapêutica transmite o medo de abrir portas para a clonagem reprodutiva. O mesmo também mostra que alguns cientistas na tentativa de contornar as objeções éticas á destruição de embriões humanos para fins de pesquisa vêm explorando fontes alternativas de células-tronco. Como identificar as células-tronco embrionárias adultas menos diferenciadas e fazer com que seu relógio biológico retroceda.
Além disso, o artigo apenas apresenta os pontos positivos das células-tronco embrionárias. Ao contrario das células-tronco adultas, as embrionárias não podem ser usadas diretamente em tratamentos médicos por que causam câncer. Mas as experiências com células-tronco embrionárias em camundongos indicam que será possível desenvolver tratamentos seguros e eficazes com as equivalentes humanas. Assim, se a diferenciação for controlada, o câncer pode ser evitado. A células-tronco pode escapar da polêmica ética das embrionárias, mas segundo Christine Soares, seu valor clínico na prática é muito duvidoso.
Outra barreira ética no uso das células-tronco embrionárias é o limite do ser humano e do animal. As células-tronco facilitam a produção de avançadas quimeras interspéscies, mais uma barreira ética envolvida neste ramo medicinal. A solução seria saber e controlar os genes da diferenciação celular, pois sabendo isso é possível até ativar as células-tronco do próprio corpo e evitar o maior risco envolvendo as células-tronco que é a relação íntima dessas células com o câncer. Porém este conhecimento requer décadas de estudo, e estes estudos envolvem a obtenção da matéria-prima.
A pior questão para os cientistas não é descobrir esses mecanismos, mas sim contornar a moralidade, visto que as opiniões e as leis divergem pelo mundo. Além da falta de “fé” dos investidores financeiros que possuem receio do retorno econômico dessas pesquisas. As relações entre ciência e religião mudam ao longo da história e envolvem uma gama muito grande e complexa de aspectos, como políticos, sociais, econômicos e aqueles que envolvem as relações de autoridade e poder, visões epistemológicas das épocas, forma das práticas científicas em cada época, relação ciência e sociedade, choques entre culturas distintas. Contudo,  a questão das células-tronco envolvem muito mais que moral e religião, mas um jogo de poder, que quem mais perde é as próximas gerações de chagados, diabéticos e portadores de Alzheimer.



Referências 




http://geneticanaescola.com.br/vol-i-artigo-05/
http://buscatextual.cnpq.br/buscatextual/busca.do
SOARES,C. Manutenção Interna. Scientific American Brasil, Agosto 2005. 
http://www.einstein.br/einstein-saude/Paginas/duvidas-sobre-saude.aspx?esp=Transplante%20de%20Medula%20%C3%93ssea

Resenha do texto de Geraldo Augusto Pinto - De demiurgo a operário: Uma análise gramsciana do trabalho sob o taylorismo/fordismo

Geraldo Augusto Pinto é Bacharel em Sociologia e Ciência Política (2000), Mestre em Sociologia (2003) e Doutor em Sociologia (2007), pelo Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas (IFCH/Unicamp). Em suas obras, destacam-se as temáticas referentes à reestruturação produtiva, com ênfase na questão do trabalho. Possui experiência prática em atividades de pesquisa, tendo atuado como assistente pesquisador e coordenador em diversos projetos. É professor adjunto do Departamento Acadêmico de Estudos Sociais da Universidade Tecnológica Federal do Paraná (DAESO/UTFPR) e do Programa de Pós-Graduação Stricto Sensu em Tecnologia (PPGTE). É líder do Grupo de Estudos Ruy Mauro Marini (DAESO/UTFPR) e pesquisador dos grupos Organizações, Tecnologia e Trabalho (PPGTE/UTFPR), Trabalho, Educação e Tecnologia (PPGTE/UTFPR), Estudos sobre o Mundo do Trabalho e suas Metamorfoses (DS/IFCH/Unicamp) e Estado, Sociedade, Trabalho e Educação (CEL/Unioeste). É membro da Rede de Estudos do Trabalho (RET). Autor dos livros A organização do trabalho no século 20: taylorismo, fordismo e toyotismo (2. ed., Expressão Popular, 2010) e de A máquina automotiva em suas partes: um estudo das estratégias do capital na indústria de autopeças (Boitempo, 2011). 1 O texto em questão analisado do Autor será “De demiurgo a operário: Uma análise gramsciana do trabalho sob o taylorismo/fordismo”.

 A palavra Demiurgo significa Artífice ou criador, divindade responsável pela criação do universo físico, segundo os gnósticos. Em trabalhos de Platão, cerca de 360ac, é uma divindade ou força criativa que deu forma ao mundo material.2 Assim Geraldo Augusto Pinto no texto “De demiurgo a operário: uma análise gramsciana do Trabalho sob o Taylorismo/ Fordismo” explica como o homem deixou de ser o criador do seu produto, para ser apenas uma parte da produção. Para isso o autor começa o seu texto descrevendo o cenário histórico que possibilitou o surgimento do Taylorismo/ Fordismo como um movimento de reestruturação do capital, indo além do âmbito da gestão do trabalho. O Taylorismo/ Fordismo como gestão de trabalho caracterizou-se da seguinte forma: produção seriada em massa, movimentos repetitivos dos operários, o controle do tempo morto, padronização dos produtos, verticalização  e mecanização dos processos, fiscalização intensa e principalmente, a divisão técnica e social do trabalho. Todas essas medidas foram adotadas para um único fim : diminuir a relação do operário com os produtos da produção, para que se conseguisse obter um lucro excessivo. Para que tais métodos fossem consolidados era necessário um aparelho subjetivo que embasasse esta nova lógica, isto é tornar a atividade do trabalho do sistema capitalista como aspecto “natural” da vida humana, sendo que esta visão de trabalho inerente ao ser humano é presente no Marxismo Ortodoxo.  

O Taylorismo/ Fordismo intensificou a exploração da classe trabalhadora, elevando a produtividade do trabalho e por conseguinte, a mais-valia. Contudo, quando implantado por Ford na sua fábrica, apresentou resistência e rejeição por parte dos sindicatos e trabalhadores. Com objetivo de reverter tal quadro, Ford demitiu os trabalhadores combativos e elevou os salários de $5 dólares por uma jornada de 8 horas. Tal estratégia permitiu “comprar” o trabalhador pela via econômica e pela subjetividade. Fica claro que o autor não considera o modo de produção capitalista como algo inerente ao ser humano, mas trata o ‘trabalho’ como forma de elevação do homem, e isto não é apropriado, pois existem sociedades que não tratam o trabalho em tal perspectiva.

Como se sabe, para Gramsci, o americanismo se baseia numa relação e redistribuição entre lucro, salário e renda profundamente diversa daquela do capitalismo do Ocidente europeu. Os altos salários e a consequente expansão da demanda permitem a ampliação de um mercado interno que não mais vê as rendas e o consumo improdutivo numa posição de grande relevo. Com relação ao capitalismo oitocentista e tradicional, baseado na repressão do salário e numa relação orgânica entre lucro e renda, o novo capitalismo americano desloca a renda para uma função marginal e coloca salário-lucro no centro do desenvolvimento econômico.3

A alienação acentuada no Taylorismo/ Fordismo consegue além de  transformar o trabalho humano em mercadoria, tornar o ser humano um “apêndice” da máquina, ou seja, transformar o operário em mais uma “peça” facilmente removida e substítuida . Por exemplo, o artesão ao cortar um pano tem consciência do produto final e sabe de modo especifico a influencia daquele corte. Por isso, ele vai se orientar decisivamente naquele corte,  a sua atenção e o corpo estarão conectados e focados no seu ato, ou seja o alfaiate não vai “cortar por cortar”. Assim, quando ocorre a alienação por meio de movimento repetitivos e divisão extrema dos processos de fabricação, o ser se desconecta do produto final, ele se desumaniza segundo Marx. Desta forma, é possível compreender o porquê de Ford preocupar-se tanto com o psicológico do trabalhador. O operário se desconecta tanto do produto, a ponto dos seus movimentos serem feitos mecanicamente sem a interferência da mente. Portanto, o psicológico do indivíduo precisava está sadio para não comprometer a linha de montagem, surge a necessidade de um “operário perfeito” com temperamento e personalidade adequados para conviver um longo período de abstração da sua própria vontade com saúde física e mental. 

O Taylorismo/ Fordismo é a lógica que atinge o ínterim do ser, esquadrinha o âmago do individuo. Isto fica claro na relação dos operários com o padrão proposto pela Ford Motor Company. A condição “fundamental” para a existência dos trabalhadores eficazes era a estabilidade da vida social, como por exemplo, o apego á família, religião, patriotismo, a vida conjugal fixa, a repulsa ao álcool e as drogas. O verdadeiro objetivo de Ford ao influenciar na vida moral e social do trabalhador não foi motivada pelo espírito de compaixão, espiritualidade ou relação similar. A ideia principal era a construção de uma família industrial, no qual a vida social do trabalhador deveria seguir os padrões fabril, obtendo o máximo de auto- disciplinamento e exploração dos trabalhadores. Em síntese, a família tradicional foi substituída pela grande família industrial. 

Era necessário para a manutenção do sistema Taylorista/ Fordista remover a influência dos sindicatos de ofício.  Este sistema destruía a unidade de classe por incentivar a competição e o individualismo, apesar disto os sindicalistas ainda eram contrários á apropriação dos meios de produção, e principalmente o patrimônio de conhecimentos. O antigo sindicalismo profissional americano cuja base de operários qualificados ( artesãos) passou a ser acusada de pantear o conhecimento de ofícios em proveito próprio – a disputa sobre a “liberdade industrial”. O contexto da época era de risco, pois tudo transcorria paralelamente a experiência socialista da URSS, sendo que a crise de 1929 e a recessão seguinte viriam a por em duvida da eficácia do capitalismo enquanto forma de produção e de sociabilidade. Desta forma, era necessário manter a qualquer custo, o pacto entre capital e trabalho nas economias de mercado. Isto foi mantido através da experiência vivida no Estado de bem estar social, no qual foram concedidos certa garantia de direitos políticos e sociais ( moradia, educação e saúde). O Estado de Bem estar social (baseado na política econômica keynesiana) teve um impacto duplo na sociedade: primeiro, desestabilizou a luta da classe trabalhadora e concomitantemente permitiu um crescimento e o consumo em massa da produção. 

 Assim quando Ford implantou os altos salários e o controle ideológico, este conseguiu criar um cabresto para limitar a compreensão do operário sobre o sistema de produção e as imposições do sistema capitalista. Desta forma, o novo padrão de reprodução do capital possibilitou o reordenamento do grupo familiar em torno das atividades de consumo, ou seja os altos salários foram ‘seduzindo’ o operário como o Fetichismo da Mercadoria de Marx,4 dessa forma o salário deixa de ter a sua utilidade prática de sustento e passa a atribuir um valor simbólico, quase que divino. Assim o Taylorismo/Fordismo consegue comprar a subjetividade do indivíduo, faz com que este “vista a camisa da empresa”.

Geraldo Augusto Pinto escreveu : “ O fórceps fascista fez o parto do capitalismo fordista nas velhas economias europeias” .  Esta frase deixa claro como o taylorismo/ fordismo se instalou na Europa, porém, a disseminação mundial deste sistema foi desigual, segundo David Harvey (1992). Pelo fato do Taylorismo/Fordismo ter se desenvolvido nos Estados Unidos foi o fator primordial para a sua hegemonia no âmbito econômico e político, pois os outros Estados-nações tiveram que acompanhar a sua produtividade, ou seja se submeter ao mesmo sistema de produção. Países periféricos, como o da América Latina tiveram que se moldar ao americanismo. 

Gramsci enxergava no Taylorismo/Fordismo muito mais que um conjunto de métodos para organizar racionalmente determinadas atividades laborativas. Ou seja, não se tratava de um simples desenvolvimento tecnológico, mas uma combinação de princípios que coagia, persuadia e cooptava os trabalhadores para além de suas ações no ambiente de trabalho, conformando um modus vivendi útil á sua exploração pelas classes dominantes. Esta experiência além da fabrica possibilitou a formação de uma nova classe trabalhadora e de uma nova forma de cidadania – a industrialização em massa e o consumo em massa. Também, o Taylorismo/fordismo foi fundamental para a economia, a política e  o poder americano, tornando este uma potência mundial. Dessa forma, sistema Taylorista/ Fordista ter sido substituído por outra forma de acumulação de capital , a busca de ofuscar aos sujeitos envolvidos – gerência e operariado- as contradições do assalariamento e da divisão técnica e social do trabalho é uma pedra angular da administração capitalista lançada por Ford e Taylor que estão presentes até hoje.  
Referências

http://www.bv.fapesp.br/pt/pesquisador/60000/geraldo-augusto-pinto/
http://www.dicionarioinformal.com.br/demiurgo/
http://www.acessa.com/gramsci/?page=visualizar&id=283
http://www.infoescola.com/filosofia/o-fetichismo-da-mercadoria-na-obra-de-karl-marx/



Eletromagnetismo e questões importantes

ISSO NÃO É APOSTILA DIDÁTICA. TIRE SUAS DÚVIDAS COM O PROFESSOR!

 1- hipóteses para o comportamento magnético da Terra

A existência de um campo magnético da Terra foi descoberta desde de Gilbert, em 1600, considerando-o é como o campo magnético de um gigantesco ímã  em forma de barra, que atravessa desde o Pólo Sul até o Pólo Norte do planeta. os Pólos Magnéticos da Terra tem uma inclinação de 11,5° em relação aos Pólos Geográficos. Pesquisas geológicas não ainda comprovadas, afirmam que a parte central da Terra seja constituída por ferro fundido, e correntes elétricas existentes dentro deste núcleo de ferro seriam as responsáveis pela existência do campo magnético. Atualmente, os cientistas acreditam que o centro da Terra é demasiado quente para ser um ímã permanente.
Karl Friedrich Gauss (1777-1855), físico alemão, mostrou que o campo magnético da Terra deve originar-se de dentro da Terra. Walter M. Elsasser, professor de física teórica na Universidade da Califórnia, sugeriu em 1939 que o campo magnético da Terra resulta das correntes geradas pelo fluxo da matéria do núcleo fluido da Terra.As propriedades magnéticas da matéria são de origem elétrica, resultante, talvez, dos movimentos dos elétrons dentro dos átomos das substâncias. Como o elétron é uma partícula eletricamente carregada, esta teoria sugere que o magnetismo é uma propriedade de uma carga em movimento. Se assim for, podemos explicar a energia associada às forças magnéticas usando leis conhecidas da Física.
Dois tipos de movimentos eletrônicos são importantes neste moderno modelo posto para explicar o magnetismo. O movimento de um elétron girando em torno do núcleo de um átomo confere uma propriedade magnética à estrutura atômica e o movimento eletrônico "spin" do elétron em torno do seu próprio eixo. A propriedade magnética da matéria parece originar-se basicamente do spin dos elétrons; cada elétron que gira sobre si mesmo atua como um pequenino imã permanente. Spins opostos são indicados como + e -spins; os elétrons que giram em direções opostas tendem a formar pares e, assim, neutralizam seu caráter magnético.

 2 – Como se relacionam a Terra e a bússola?
A bússola magnética trabalha e encontra as direções na superfície da Terra por causa do campo magnético da Terra. O alinhamento da bússola ocorre porque a Terra pode ser considerada um grande imã. Os ímãs dão divididos em dois pólos: norte e sul. E A partir dos estudos sobre magnetismo, ocorridos somente nos últimos dois séculos, descobriu-se que o lado norte de um imã atrai o lado sul do outro e vice-versa. Considerando a Terra simplesmente como um imã e admitindo que a agulha da bússola está corretamente indicada, percebe-se que o pólo norte geográfico para onde a bússola aponta é na verdade o pólo sul do grande imã chamado Terra.

 3 – Como funciona um GPS
O Sistema de Posicionamento Global, popularmente conhecido como GPS (Global Positioning System), é um sistema que utiliza satélites para localizar onde o receptor do sinal do satélite está naquele momento. O GPS funciona a partir de uma rede de 24 satélites que ficam distribuídos em seis planos, próximos a órbita do planeta Terra. Estes satélites enviam sinais para o receptor (o aparelho de GPS), e então, a partir disso, o aparelho de GPS interpreta esses sinais dizendo onde exatamente você está naquele momento.
Os satélites, assim como os receptores GPS, possuem um relógio interno que marca as horas com uma precisão incrivelmente grande em nano segundos. Quando o satélite emite o sinal para o receptor, o horário em que ele saiu do satélite também é enviado. Os envios desses sinais ocorrem constantemente. Este sinal enviado para o receptor é um sinal de rádio, que viaja uma velocidade de 300 mil quilômetros por segundo no vácuo. Resta ao receptor calcular quantos nano segundos este sinal demorou a chegar até ele, assim ele consegue “descobrir” onde o indivíduo  está. E como o sinal é enviado constantemente, o receptor sempre sabe onde está o satélite, mantendo, assim, a posição exata sempre atualizada.
A triangulação
Os GPS usam o sistema de triangulação para determinar a localização de um receptor em terra. A partir disto, é possível traçar um círculo para determinar a possível área em que a pessoa se encontra.
O mesmo pode ser feitos com outros pontos de referência e assim fazer a triangulação dos pontos para determinar exatamente a sua posição. O sistema de GPS funciona da mesma forma. Este princípio é chamado de trilateração.
Um quarto satélite é necessário para determinar a altitude em que a pessoa se encontra. O princípio do cálculo é o mesmo, mas envolve alguns números e fórmulas extras por tratar-se de um espaço tridimensional.

4 –  fenômeno da histerese magnética.
A histerese, palavra que deriva do grego e que significa atraso, é um fenômeno característico das substâncias ferromagnéticas. Sabe-se que essas substâncias se imantam facilmente quando na presença de um campo magnético. Assim quando  retiramos a influência deste campo magnético, a substância não é desmagnetizada completamente, tão menos de forma instantânea. Isto é chamado de histerese magnética. 


5- Qual a síntese de Clark Maxwell sobre o eletromagnetismo?

Maxwell em sua obra Tratado sobre eletricidade e magnetismo (publicada em 1873), generalizou os princípios da eletricidade descobertos por Coulomb, Ampère, Faraday e outros. Entre outros feitos, Maxwell descobriu através de equações matemáticas a velocidade da luz com um percentual de erro muito pequeno. As chamadas equações de Maxwell demonstravam que os campos elétricos e magnéticos eram manifestações de um só campo eletromagnético. Além disso, descreviam a natureza ondulatória da luz, mostrando-a como uma onda eletromagnética.
questão 6-  qual a contribuição de Maxwell para o desenvolvimento da Ciência, Tecnologia e Sociedade?
Maxwell é considerado por muitos o mais importante físico do séc. XIX, o seu trabalho em eletromagnetismo foi a base da relatividade restrita de Einstein e o seu trabalho em teoria cinética de gases fundamental ao desenvolvimento posterior da mecânica quântica.

CLAE


Em toda análise química, a validade dos resultados obtidos depende da qualidade e da integridade da amostra a ser analisada. Na maior parte dos casos, a amostra tem mais de um componente ou apresenta interferentes capazes de afetar o sinal analítico. (Vogel, 2008). Por isso, muitos métodos são empregados para compensar ou reduzir o efeito desses interferentes, ou ainda, separar as diversas espécies químicas presentes na amostra antes de sua análise. (Skoog, 2009).
Visando esses aspectos, a cromatografia é hoje um método empregado de forma ampla, pois permite a separação dos componentes de uma amostra e, quase que simultaneamente, a identificação e a quantificação dos mesmos. (Skoog, 2009).

As técnicas cromatográficas, de forma geral, baseiam-se na repartição dos analitos entre duas fases, uma estacionária e outra móvel. (Cromatografia, princípios básicos, 2003). Assim, os componentes de uma mistura são separados com base nas diferenças de velocidade com que são transportados por uma fase móvel através de uma fase estacionária, processo denominado eluição. (Skoog, 2009). Sendo que, essas velocidades diferentes são resultado das interações distintas entre os analitos presentes na amostra e o par de fases. (Cromatografia, princípios básicos, 2003). 

São diversas as técnicas cromatográficas existentes atualmente e suas classificações são feitas quanto à superfície de eluição, a natureza da fase móvel, a natureza da fase estacionária e os tipos de equilíbrio entre as fases. (Skoog, 2009). A técnica que aqui será abordada é a cromatografia líquida de alta eficiência (CLAE).

A CLAE foi desenvolvida na década de 1960 e representou um avanço em relação à cromatografia líquida clássica, que a antecedeu, por ser muito mais rápida e eficiente. (Skoog, 2009). Diferentemente da CLAE, o método clássico consiste na separação dos componentes de uma amostra por meio da utilização de colunas abertas, com diâmetros relativamente grandes, empacotadas com uma fase estacionária sólida por onde uma fase móvel líquida arrasta os analitos sob a ação da gravidade. (Vogel, 2008).

Já a cromatografia líquida de alta eficiência utiliza uma coluna fechada contendo partículas muito finas e emprega altas pressões para forçar a passagem da fase móvel (HARRIS, 2005). Nesse tipo de cromatografia em coluna, a fase móvel é líquida e a fase estacionária consiste de um sólido, de um líquido adsorvido em um sólido ou de um sólido com fase quimicamente ligada. (Skoog, 2009). Já a amostra é previamente dissolvida na fase móvel, por isso o analito é chamado também de soluto.

Como já citado anteriormente, as fases estacionárias utilizadas na CLAE devem apresentar partículas muito pequenas, normalmente de diâmetro entre 3 e 40μm. Isso porque quanto menor for as partículas da fase estacionária, melhor é o processo de difusão das moléculas do analito dentro da coluna cromatográfica (durante a eluição), pois o contato do soluto com as fases móvel e estacionária torna-se mais efetivo, aumentando a eficiência da coluna; além disso, permite que análises complexas sejam feitas com apenas pequenas quantidades da amostra. (Avanços na Cromatografia Líquida; Pelotas, 2009).

Outro aspecto importante da CLAE é que a eluição não é realizada sob a ação da gravidade, como no método clássico, mas sim a partir de instrumentos capazes de fornecer pressões de bombeamento bem elevadas sob a fase móvel, e é isso que permite a utilização de partículas tão pequenas no interior da coluna e a alta velocidade da corrida cromatográfica. (Skoog, 2009).
A escolha das fases móvel e estacionária depende de vários fatores como a natureza dos analitos e os objetivos da análise. Porém, de uma maneira geral, a fase móvel deve ser de alto grau de pureza ou de fácil purificação, deve dissolver a amostra sem decompor seus componentes, não deve decompor nem dissolver a fase estacionária, deve apresentar baixa viscosidade e baixo ponto de ebulição, ser compatível com o tipo de detector utilizado, permitir a recuperação da amostra se desejada, de preferência apresentar baixa toxicidade e, em caso de misturas, ter miscibilidade completa. (Slide, Rosangela).

As Fases estacionárias na CLAE devem resistir a pressões relativamente altas, resultando em enchimento estável e colunas eficientes de partículas pequenas. Os Sólidos rígidos a base de sílica são os recheios mais usados atualmente. Outro critério importante é o tamanho das partículas, pois esse fator controla o processo de difusão das moléculas da amostra e quanto menor o diâmetro mais fácil será a saída da fase móvel com a amostra. Além disso, as partículas da fase estacionária precisam ser regulares no seu formato, pois, para se a obter distribuição homogênea do recheio em toda extensão da coluna, o que aumenta a eficiência da separação, as partículas devem ter a menor variação de diâmetro possível. Por isso as partículas esféricas são melhores do que as irregulares, mas estas têm menor custo. (CEFET - RJ).

As fases móvel e estacionária normalmente devem apresentar características de polaridade contrastantes, de modo que a amostra possa interagir de forma diferente com ambas. Quando se utiliza uma fase estacionária mais polar que a fase móvel a CLAE é classificada como normal, contudo quando a fase móvel é mais polar que a fase estacionária denomina-se a técnica cromatográfica como reversa. (Slide, Rosangela).

Os mecanismos que permitem a separação dos analitos durante a corrida cromatográfica dependem da natureza das fases móvel e estacionária e são classificados em adsorção, partição, troca iônica, exclusão por tamanho e bioafinidade. Sendo que, cada um destes pode acontecer isoladamente ou em conjunto, levando assim a separação dos componentes da amostra. (Slide, Rosangela).

A adsorção baseia-se na interação superficial dos componentes presentes na amostra com a fase estacionária, processo que se dá na interface entre a fase móvel e o recheio da coluna. Já a partição consiste na dispersão seletiva de uma espécie química presente na amostra entre a fase móvel e a fase estacionária, a qual consiste de um filme líquido que envolve o suporte sólido. (Slide, Rosangela).

A troca iônica fundamenta-se na adsorção reversível e diferencial de analitos iônicos presentes na amostra por uma carga fixa (grupo funcional) da fase estacionária. A exclusão por tamanho, por sua vez, parte do princípio da presença de uma fase estacionária porosa que separa os componentes da amostra mecanicamente, as moléculas menores atravessam os poros e levam mais tempo para eluir, enquanto as moléculas maiores são carregadas pela fase móvel. (Slide, Rosangela).

Por fim, o fenômeno da bioafinidade está relacionado com a ocorrência de uma ligação molecular específica e reversível entre o soluto e o ligante fixado à fase estacionária em determinadas condições de pH e temperatura, método bastante empregado na separação de macromoléculas biológicas. (Cromatografia, princípios básicos, 2003).

 À medida que os analitos eluem da coluna cromatográfica ocorre a detecção dos mesmos e é feita uma representação da eluição denominada cromatograma, no qual para cada analito é representado um pico. 

No cromatograma é possível observar o tempo de retenção de cada componente da amostra, ou seja, o tempo que cada espécie química levou para eluir, desde a entrada da amostra na coluna cromatográfica. Assim, a caracterização e a identificação das substâncias presentes na amostra podem ser feitas mediante a comparação dos tempos de retenção obtidos com o tempo de retenção de uma amostra padrão (conhecida) nas mesmas condições experimentais.
Entretanto, mesmo as moléculas de uma única substância não eluem de uma mesma coluna cromatográfica na mesma velocidade devido a fenômenos de dispersão que ocorrem com as partículas do analito, fazendo com que as mesmas percorram caminhos diferentes durante a corrida e eluam com tempos de retenção diferentes. A diferença no tempo de retenção entre a primeira e a última molécula de uma mesma substância a sair da coluna é denominada largura de banda do pico. (Slide, Rosangela).
Outro fator importante é o tempo de retenção corrigido (Tr´)., o qual é obtido a partir da subtração entre o tempo de retenção total e o tempo gasto para as moléculas da fase móvel percorrer a coluna (tempo no qual o analito encontra-se na fase móvel e movimenta-se com a mesma velocidade desta, T0), assim, o tempo de retenção corrigido equivale à parte do tempo em que as moléculas do analito ficaram retidas na fase estacionária. (Slide, Rosangela).
Já a quantificação de cada componente é feita mediante o emprego de uma curva de calibração que relacione o sinal analítico com a concentração dos analitos presentes na amostra.. Esse sinal analítico dependerá dos equipamentos acoplados à coluna cromatográfica. Os equipamentos básicos utilizados na CLAE estão evidenciados na figura 1.

Figura 1 – Equipamento básico de CLAE. a) reservatório da fase móvel; b) bomba de alta pressão; c) válvula de injeção; d) coluna; e) detector e f) registrador.
O Reservatório da fase móvel é constituído de um ou mais reservatórios de vidro ou plástico inerte, cada um deles contendo 500 mL ou mais de um solvente. Como os gases dissolvidos e os particulados interferem negativamente na reprodutibilidade das analises e no tamanho das bandas de eluição, geralmente o reservatório da fase móvel está acoplado com um sistema de desgaseificação e filtração(Vogel,2008) . A remoção de gases dissolvidos é realizada a partir de desgaseificadores, os quais podem ser compostos por sistemas de aplicação de vácuo, sistemas de destilação, um dispositivo de aquecimento e agitação ou um sistema de sparging, no qual a provocação de pequenas bolhas de um gás inerte (em geral hélio) insolúvel na fase móvel arrasta os gases dissolvidos para fora da solução. (Skoog, 2009).  O sistema de bombeamento da fase móvel é formado por uma ou mais bombas de alta pressão conectada aos recipientes de fase móvel  e  controladores de pressão e de vazão, variáveis dependentes do funcionamento das bombas. Estas são de grande importância para uma boa análise cromatográfica, pois a partir destas pode-se diagnosticar problemas no equipamento, como entupimentos ou vazamentos. (Cromatografia, princípios básicos, 2003). A bomba de alta pressão é um dispositivo imprescindível para a realização da cromatografia líquida de alta eficiência, pois sua função é impulsionar a fase móvel. (Cromatografia, princípios básicos, 2003). Sem essa impulsão o processo seria muito lento, pois o tamanho reduzido das partículas do interior da coluna faz com que estas exerçam alta resistência à passagem da fase móvel. (Avanços na Cromatografia Líquida; Pelotas, 2009). 

O sistema de introdução da amostra é um dos mais importantes, por que muitas vezes o fator limitante na precisão das medidas na CLAE é a reprodutibilidade da introdução das amostras na coluna recheada (Vogel ,2008). O método mais empregado é um sistema com alça de amostragem. As válvulas de injeção usadas possuem uma alça de amostragem para a introdução da amostra com uma seringa e duas posições, uma para o preenchimento da alça e outra para sua liberação para a coluna. Existem alças de diversos volumes, sendo utilizadas geralmente alças na faixa de 5-50 µL para injeções analíticas e 0,5- 2 mL para preparativas ( Degani, et al , 1998). O sistema analítico é composto da coluna cromatográfica e o termostato, a coluna contém a fase estacionária e é o local por onde a fase móvel arrasta os analitos, efetuando a separação.   As colunas cromatográficas são geralmente construídas a partir de tubos de aço inoxidável uniformes e polidos, algumas vezes são feitas a partir de tubos de vidro de paredes grossas e de tubos poliméricos, como polieteretercetona (PEEK) Geralmente o diâmetro interno varia de cerca de 0,45 cm para separações analíticas e na faixa de 2,2 cm para preparativas. O comprimento é variável, sendo comuns colunas analíticas de 10-25 cm e preparativas em torno de 25-30 cm ( Degani, et al , 1998). Essas colunas são reaproveitáveis, sendo empacotadas com suportes de alta resolução, não sendo necessária sua regeneração após cada separação. O termostato é utilizado para manter a temperatura estável a fim de se obter separações reprodutíveis. 
O sistema de detecção é composto de um detector, que é um dispositivo conectado na saída da coluna para perceber a presença de componentes e emitir um sinal elétrico a ser registrado na forma de um pico cuja área é proporcional a quantidade do componente analisado (Argenton, 2010) Os detectores podem ser de propriedades macroscópicas, os quais medem as alterações de propriedades físicas provocadas pelo soluto na fase móvel, como o índice de refração e a condutividade; ou de propriedades do soluto, os quais respondem a uma determinada propriedade física ou química do soluto, e, idealmente, de maneira independente da fase móvel, como os espectrofotométricos e os de fluorescência. (Vogel, 2008).
Detectores de propriedades do soluto, como o utilizado, são em geral mais sensíveis e de maior faixa de aplicação que os detectores de propriedades macroscópicas, apesar de que, na maioria dos casos, mesmo os detectores de propriedades do soluto respondem às propriedades da fase móvel, portanto, é preciso a utilização de solventes que interfiram o mínimo possível nessa detecção. (Vogel, 2008). O detector mais utilizado para separações por CLAE é o detector de ultravioleta, sendo também empregados detectores de fluorescência, de indíce de refração, e eletroquímicos, entre outros. Detectores de polarimetria para CLAE, recentemente desenvolvidos, diferenciam compostos quirais, através da rotação de seus estereoisômeros frente à luz plano-polarizada. O registro de dados pode ser feito através de um registrador, um integrador ou um microcomputador que pode construir o método e avaliar os sinais de resposta.

Uma série de parâmetros cromatográficos são importantes para serem utilizados na
identificação dos compostos separados, avaliar o desempenho cromatográfico e auxiliar na
otimização do processo de separação. Os principais parâmetros cromatográficos a serem discutidos são: o fator de retenção, o fator de separação, o número de pratos teóricos e a resolução. 
O fator de retenção ou capacidade ,k,  de um componente é determinado pela razão das quantidades das suas moléculas que ficam retidas na fase estacionária, nS, ou percorrendo a fase móvel, nM. O fator de retenção também está relacionado á razão dos tempos que as moléculas ficam na fase estacionária e na fase móvel ( Collins, et al, 2006). A capacidade em suma, descreve a velocidade com que dado composto migra ao longo da coluna e evidencia o quanto aquele sistema cromatográfico pode reter o analito.  

k = t’r / to 
O fator de separação ou seletividade, , é a medida de separação de dois solutos, e pode ser calculada pela razão entre os respectivos fatores de retenção dos solutos, que representam os tempos de retenção ajustados de ambos(Argenton, 2010). O fator de separação sempre trata com dois picos adjacentes e indica por exemplo  se determinado sistema cromatográfico (FM e FE) consegue separar efetivamente dois analitos (Collins, et al, 2006)..
 = t’r2 / t’r1 
O número de pratos teóricos é o número indicativo da performance da coluna, ou seja, a medida da largura do pico em relação ao seu tempo de retenção. Um prato pode ser considerado equivalente a uma etapa de equilíbrio entre as duas fases, análogo ao prato da destilação (Argenton, 2010) .Assim quanto maior o número de pratos, mais equilíbrios existirão, maior será a eficiência e, portanto a melhor separação. Este é o parâmetro que mais precisamente define a qualidade de um sistema cromatográfico (Collins, et al, 2006).. 
N = 16 ( tr / Wb) 2 
O número de pratos obtidos pode ser afetado por diversos fatores, incluindo as condições de análise, o tamanho da amostra, o tipo de soluto, e principalmente, o comprimento da coluna. Para eliminar a influência dos diferentes tipos de comprimento da coluna na comparação do número de pratos em colunas diferentes, utiliza-se para avaliação comparativa entre as colunas a razão entre o comprimento da coluna, L, e o número de pratos, N. Desta forma, obtém-se a altura equivalente de um prato, H (Collins, et al, 2006).
H = L/N
A Resolução fornece uma medida quantitativa da habilidade da coluna em separar duas substâncias (Collins, et al, 2006). A otimização da resolução está relacionada com os parâmetros experimentais na equação geral da resolução.
R = (√N/4) (k/k+1) ( -1/)
Por esta equação percebe-se que a resolução está relacionada à eficiência, representada pelo número de pratos, N, à distribuição dentro da coluna, evidenciada pelo fator de retenção, k e à seletividade, representado pelo fator de separação, . Alterando-se um dos três fatores, altera-se a resolução, principalmente a eficiência e seletividade. A má eficiência e a má seletividade resulta em uma má resolução, pois as bandas serão largas e irão sobrepor-se; Quando há uma boa seletividade, uma boa separação dos picos, pode-se compensar a má eficiência, o alargamento da banda; mas  o ideal, é uma boa seletividade e uma boa eficiência, ou seja, picos separados e bem definidos (Collins, et al, 2006). 
Existe outra equação para se obter a resolução, apresentada logo abaixo.
Rs = 2 ( tr2 - tr1 )/(Wb1 + Wb2)

Assim , para se obter uma melhor capacidade pode-se ajustar a polaridade do solvente; para melhorar a seletividade pode-se mudar a fase móvel, otimizar o empacotamento e mudar a fase estacionária, enquanto que para melhorar a eficiência pode-se diminuir a vazão da fase móvel, aumentar o comprimento da coluna, trocar de par cromatográfico ou optar por suportes mais finos (Slide Rosangela)
http://www.crq4.org.br/sms/files/file/conceitos_hplc_2010.pdf- argenton

Positivismo Lógico


Elizabete de Araújo

ISSO NÃO É  APOSTILA DIDÁTICA, É APENAS UMA AJUDA, CONSULTE SEU PROFESSOR E TIRE TODAS AS SUAS DÚVIDAS.

Sinônimos de Positivismo Lógico: Neopositivismo ; Empirismo Lógico;

Palavras para fixar o assunto: Circulo de Viena, Relação com Hume, Confirmação experimental, Método Indutivo, Conhecimento Científico, Logicismo, Linguagem.

Vejamos um trecho do manifesto do Círculo de Viena, publicado em 1929: 

«A concepção científica do mundo não reconhece qualquer conhecimento incondicionalmente válido obtido a partir da pura razão, quaisquer «juízos sintéticos a priori» […] A tese fundamental do empirismo moderno consiste precisamente na rejeição da possibilidade do conhecimento sintético a priori.»

Não entendi nada! Vamos aos poucos e no final, como exercício de fixação, vocês irão explicar a si mesmos o que este trecho revela dos positivistas lógicos. Vamos lá!

Resumo básico 

O Positivismo Lógico é um sistema filosófico criado pelo Círculo de Viena no século XX na Áustria. Este grupo de filósofos reunia-se frequentemente para discutir a base de fundamentação de conhecimentos verdadeiros.
Para este movimento, o conhecimento científico resulta da aplicação do método indutivo1; e o critério que permite validar uma teoria é a verificação e confirmação experimental da hipótese2. Uma teoria é científica, se e só se puder ser empiricamente verificável. Contudo, esta definição levanta problemas, dado que é impossível provar, por exemplo, que: "Todos os cisnes são brancos".

Os positivistas lógicos, atendendo à impossibilidade de se verificar todos e, sem excepção, os cisnes que existem, consideraram que basta que os enunciados sejam empiricamente confirmáveis (se todos os cisnes que vimos até ao momento forem brancos, o enunciado: "Todos os cisnes são brancos confirma-se). Para os positivistas lógicos o valor de verdade do conhecimento científico residia na experiência empírica.

1-Método indutivo ou indução é o raciocínio que, após considerar um número suficiente de casos particulares, conclui uma verdade geral. A indução, ao contrário da dedução, parte de dados particulares da experiência sensível.
2-Hipóteses são idéias que tentam explicar um fato observável; Teorias são hipóteses que passaram pelo processo de averiguação ( no caso dos positivistas lógicos a verificação) de suas previsões e; Leis são hipóteses que explicam eventos que ocorrem com regularidade.

Histórico ( Antecessores e Influência)

Em aspectos cruciais, ela consiste no desenvolvimento de teses características do empirismo britânico, sobretudo do de David Hume3, o que se traduziu numa oposição radical à epistemologia kantiana4. Kant falava algo muito interessante, os três tipos de juízos. O juízo analítico a priori :Aquele que explica uma definição; O juízo sintético a posteriori: Aquele juízo que resume uma experiência científica ou empírico; O juízo sintético a priori: Aquele que é formado independentemente de qualquer experiência e por uma espécie de intuição intelectual obrigatória. Este último era completamente rejeitado pelos positivistas... já sabe por que né? NÃO PODE AFIRMAR SEM OBSERVAR!

O conhecimento a priori é o conhecimento absolutamente independente da experiência e opõe-se ao conhecimento a posteriori ou empírico

3- http://www.universoracionalista.org/hume/
4-http://aprenderaviverjuntos.blogspot.com.br/2009/03/kant-e-david-hume.html

Qual o seu projeto?

O seu projeto consistia em basear a ciência numa linguagem inteiramente redutível a formulações de observações directas, e denunciar na metafísica um conjunto de “proposições não significantes” por serem experimentalmente inverificáveis (empirismo lógico). Dessa forma, eles possuem uma postura ANTI-METÁFISICA, pois ela não trata de objetos que podem ser comprovados experimentalmente. Por exemplo, como você pode comprovar que um é homem é moralmente mais limpo que outro? 
Portanto, para ficar claro, o OBJETIVO  dos positivistas lógicos era obter uma ciência unificada, que fosse capaz de unir todos os conhecimentos de todas as ciências. Para tanto, eles precisavam de  uma filosofia limpa e imune de qualquer contaminação de outras bases filósoficas, como a metafísica, a ética e entre outros.

Vamos Aprofundar ...

Abaixo tem um trecho de um artigo da internet, que eu gostaria de destacar alguns itens importantes como o logicismo e o verificacionismo. Esses dois itens revela que eles estavam bastante preocupados com a linguagem. Como assim? Primeiramente, a lógica era uma maneira cientifica de exprimir a realidade através de uma sintaxe. Em segundo lugar, os positivistas tinham um grande problema com o verificacionismo: qual o processo de averiguação que se usa para constatar as previsões ou a regularidade de uma hipótese? Se é apenas a observação empírica, em que patamar fica as proposições epistemológicas? É aí que entra a linguagem. As proposições epistemológicas 3 possuíam significado, pois é com elas que se constrói a linguagem para explicar os fatos. Por isso, até na linguagem do conhecimento é preciso seguir uma sintaxe lógica, sem imprecisões. Vejamos este trecho.
3- A epistemologia é o ramo da filosofia que estuda a origem, a estrutura, os métodos e a validade do conhecimento (daí também se designar por filosofia do conhecimento). Ela discute o conhecimento e não os fatos, o observável.

“Para a defesa desta tese, os positivistas encontraram um apoio significativo no convencionalismo de Henri Poincaré, segundo o qual as proposições da geometria não são sintéticas a priori e necessárias, como Immanuel Kant julgara, pois a geometria usada na descrição do mundo resulta de uma escolha meramente convencional. O uso da geometria não euclidiana na teoria da relatividade geral de Einstein, que evidenciou o erro de considerar a geometria euclidiana como a única descrição possível do espaço, foi interpretado por Schlick em termos convencionalistas ainda antes de ir para Viena. A influência do logicismo de Frege e Russell pesou também no sentido da aceitação do convencionalismo em relação à matemática. 
A realização do programa logicista, conduzido essencialmente pelo uso da nova lógica simbólica, foi ainda influente na formação do positivismo lógico por exemplificar uma maneira científica de filosofar. O mesmo se pode dizer do Tratactus Logico-Philosophicus de Wittgenstein, onde os positivistas puderam reconhecer-se numa concepção de filosofia enquanto actividade de análise da linguagem, actividade essa distinta de qualquer investigação empírica. 
O Tratactus foi também inspirador na elaboração da teoria central do positivismo lógico: a teoria verificacionista do significado. Inicialmente, o verificacionismo foi apresentado como uma tese sobre aquilo em que consiste o significado de uma asserção. Essa tese foi condensada na seguinte fórmula: «O significado de uma afirmação é o método da sua verificação». No entanto, o verificacionismo acabou por ser entendido primariamente como um critério para distinguir as asserções com significado das asserções sem significado. Segundo este critério, uma asserção tem significado se, e só se, 1) é analítica ou contraditória ou 2) é empiricamente verificável. Reconhecem-se assim apenas dois tipos de proposições genuínas: as proposições analíticas a priori e as proposições sintéticas a posteriori. As primeiras, exemplificadas especialmente pela lógica e pela matemática pura, são também necessárias, ao passo que as segundas, próprias das ciências empíricas, são contingentes. As asserções identificadas com a «metafísica» não têm por isso qualquer significado, ou, pelo menos, são destituídas de significado cognitivo. Podem ter algum significado emocional, mas nada afirmam que seja verdadeiro ou falso, sendo meras «pseudoproposições» que resultam de «pseudoproblemas». Além de asserções claramente metafísicas como «a realidade é espiritual», foram incluídas nesta categoria todas as asserções típicas da ética e da estética. Mesmo a epistemologia não ficou imune à devastação imposta pelo critério da verificabilidade. Na medida em não se deixa reconduzir à psicologia empírica, também ela deve dar lugar à actividade de análise lógica da linguagem. 
Não nos devemos impressionar demasiado com toda esta hostilidade perante a filosofia tradicional. A verdade é que muitos dos problemas filosóficos tradicionais foram recuperados e amplamente discutidos no contexto da «análise lógica» considerada legítima. O problema de saber o que significa ao certo «empiricamente verificável» deu origem a inú- meras versões do critério positivista, mas pelo menos neste aspecto prevaleceu sempre o consenso: mesmo que, devido a limitações tecnoló- gicas, uma asserção não possa ser verificada na prática, ela não deixa de ter significado desde que possa ser verificada em princípio. Por isso, uma asserção como «existem planetas noutras galáxias», embora nas circunstâncias actuais não possa ser verificada na prática, exprime uma proposição genuína, porque podemos indicar condições empíricas relevantes para determinar o seu valor de verdade. O mesmo não acontece, por exemplo, com «a realidade é espiritual», já que esta asserção e a sua negação não diferem em consequências empíricas.
Tal como foi defendido por Schlick, este critério de significado traduziu-se na exigência de «verificabilidade forte». Nesta versão, o critério da verificabilidade diz-nos que uma asserção é empiricamente verificável se, e só se, 1) é uma proposição elementar observacional ou 2) é equivalente a uma conjunção finita logicamente consistente dessas proposições. Uma asserção não analítica só tem assim significado quando é conclusivamente verificável, ou seja, quando, em princípio, podemos verificá-la definitivamente através do conhecimento das proposições elementares que determinam o seu significado. Esta exigência de verificabilidade conclusiva foi muito criticada, sobretudo por se mostrar demasiado restritiva. Ela parece excluir da classe das asserções com significado diversos tipos de asserções vistos como legítimos pela maior parte dos positivistas. As asser- ções estritamente universais, como não se deixam reduzir a um conjunto finito de proposições observacionais, não podem ser conclusivamente verificadas nem em princípio. Entre essas asserções contam-se as leis científicas, e por isso considerá-las como destituídas de significado seria colocá-las no mesmo plano que a metafísica. As asserções puramente existenciais também suscitam dificuldades porque, mesmo admitindo que estas são conclusivamente verificáveis, as suas negações não o são, já que a negação de uma asserção existencial é uma asserção universal. Isto tem a consequência estranha de existirem asserções com significado cuja negação não tem significado, o que contraria o princípio do terceiro excluído. Além destas objecções, que se apoiam na forma lógica das asserções consideradas, os críticos da «verificabilidade forte» defenderam também que não é possível verificar conclusivamente asserções sobre o passado ou sobre experiências de outras pessoas, embora essas asserções tenham significado cognitivo.”

Atomismo Lógico :  http://www.oocities.org/revistaintelecto/atomismo.html

Depois disso tudo, vocês podem tentar explicar o tratado do Círculo de Viena, e escreverem a sua definição de positivismo lógico. Lembrando sempre das palavras chaves: empirismo, observação dos fatos, linguagem lógica, unificar a ciência, anti-metáfisica ... e por aí vai.
Bons Estudos e até a próxima
Referencias
http://sofos.wikidot.com/positivismo-logico
http://polegaropositor.com.br/polegaropositor/como-a-ciencia-funciona-o-positivismo-logico/
http://criticanarede.com/docs/etlf_positivismo.pdf

Resenha do texto “Globalização e crise do Estado-Nação” de Octavio Ianni

 Elizabete Araújo e Jefferson Ribeiro


Octavio Ianni formou-se em ciências sociais na Faculdade de Filosofia, Ciências e Letras da USP, em 1954. Logo após a formatura, integrou o corpo de assistentes da Faculdade, na cadeira de Sociologia I, da qual Florestan Fernandes era o titular.1 Octavio Ianni é, sem favor, um dos fundadores da sociologia no Brasil e um dos expoentes da “escola paulista de Sociologia”.2  Foi autor de obras importantes como: "Cor e Mobilidade Social em Florianópolis" (1960, em colaboração), "Homem e Sociedade" (1961), "Metamorfoses do Escravo" (1962); "Industrialização e Desenvolvimento Social no Brasil" (1963), "Política e Revolução Social no Brasil" (1965), "Estado e Capitalismo no Brasil" (1965), "O Colapso do Populismo no Brasil" (l968).  

O autor começa o seu texto descrevendo o cenário histórico que propiciou o desenvolvimento do capitalismo. Com o fim da Guerra Fria, surge um novo ciclo de globalização do capitalismo, sem barreiras socialistas. Isto provoca uma força coercitiva no cenário geopolítico, sendo que os mecanismos utilizados para promover as reformas políticas, econômicas e socioculturais, identificadas  pelo autor foram o Fundo Monetário Internacional (FMI), o Banco Mundial (BIRD) e a Organização Mundial do Comércio (OMC). Estas instituições deram e dão legitimidade ao neoliberalismo, a sua importância  está no sentido de regulamentar e manter a lógica do neoliberalismo, como por exemplo, em 1990, o Fundo Monetário Internacional (FMI) promoveu oficialmente o ajustamento econômico de países subdesenvolvidos que passavam por dificuldades.  Isto ficou conhecido como o Consenso de Washington. As medidas foram as seguintes: Abertura comercial, privatização de estatais, redução dos gastos públicos, disciplina fiscal, reforma tributária, desregulamentação, estímulo aos investimentos estrangeiros diretos, juros de mercado, câmbio de mercado, direito a propriedade intelectual, ou seja, todas as diretrizes neoliberais.
O neoliberalismo apresenta como uma das principais características o rompimento das políticas públicas adotadas no período das social-democracias (estado de bem estar social), como por exemplo, investimentos em educação e saúde pública. Isso mostra que esses serviços, inicialmente proporcionados pelo Estado, são transferidos para a responsabilidade dos indivíduos, através da privatização desses setores. Outro espaço social, que deveria ser nacional, mas é apontado por Octavio Ianni como espaço ideológico do capital transnacional, é a mídia. Assim, torna-se evidente a construção de uma sociedade marcada pela crescente produtividade, busca na partição do mercado e consequentemente, a competitividade. Esta reestruturação política trouxe como prioridade principal o capitalismo transnacional, tornando as nações subalternas como meras “províncias do capitalismo mundial”, marcado pela extrema articulação do capital estrangeiro com o capital nacional, segundo Octavio Ianni.  Esta extrema articulação propiciou uma maior desintegração do Estado com a Sociedade Civil, e como consequência desta separação, os interesses estatais estão pautados no capital global e os setores da sociedade civil restringido aos espaços do mercado. Outro fruto da desintegração do Estado com a Sociedade Civil apontado por Octavio Ianni, foi o maior desinteresse da população pela politica e pelo processo eleitoral, a xenofobia, racismo, etnicismo e fundamentalismo.  

A Sociedade civil e o Estado não são duas entidades sem relação entre si, pois entre um e outro existe um contínuo relacionamento. Porém, a rigor, o Estado-nação sempre foi uma realidade problemática, pois o  Estado e a Sociedade Civil nunca estiveram sobre completa integração. Contudo, o neoliberalismo penetrou na sociedade Civil como um gás inodoro e venenoso, por meio do seu privatismo e economicismo e deixando o Estado com todas as caraterísticas da classe dominante. Se na prática, já era difícil interligar o Estado com a Sociedade Civil, é de se esperar que sob o neoliberalismo, este abismo se acentue. Um caso vívido e explicito de regime antagônico, tendenciado ao fascismo com grandes conquistas á sociedade civil foi o governo de Vargas, o Estado Novo. Assim como proposta de mudança, Octavio Ianni propõe novos meios de conscientização e atuação para “fazer com que a sociedade civil caminhe no sentido de influenciar, conquistar ou educar duramente o poder estatal”.

O objetivo do texto de Octavio Ianni foi mostrar como o neoliberalismo atua como lógica global em todos os setores da sociedade, e quais as consequências da adoção desta teoria para o Estado-nação. Algo muito interessante do texto de Octavio Ianni foi o enfoque latino-americano que Octávio Ianni traz ao texto. De fato, o neoliberalismo rompeu com a lógica nacional-desenvolvimentista presente nas nações subdesenvolvidas. Pode-se perceber isto no projeto econômico brasileiro, que possuía um forte caráter desenvolvimentista criado no governo de Vargas e Juscelino Kubitschek, mas abandonado em nome do capital estrangeiro.
O autor da obra apresenta a principal função da grande massa de indivíduos que compõe o Estado: mover-se apenas nos espaços do mercado. Torna-se claro que as políticas do sistema capitalista visa construir uma sociedade altamente consumista e que estas não participem de eventos que geram a sociedade capitalista, as decisões políticas, econômicas e sociais. Em países em desenvolvimento, como o caso do Brasil, essa alienação produz consumidores que não dispõe de recursos financeiros próprios para fazer parte desta lógica mercantil. É perceptível o desenvolvimento de uma sociedade de barbárie, devido a existência desta espécie de consumidor, denominado por Bauman, os consumidores falhos. Além disso, esses consumidores não se enquadram na perspectiva abordada por Octavio Ianni de conscientização para romper com o sistema vigente. Partindo do princípio do crescente consumo em massa, esta classe não deseja romper com as estruturas mercantis, por que também deseja acumular capital. Desta forma ela não rompe o sistema, o mantem. 
Uma forma de aprofundar a discussão de Octavio Ianni com respeito a individualidade, é trazer um mecanismo utilizado pela politica neoliberal para consolidar-se no cenário mundial: a repressão violenta de todas as solidariedades criadas dentro dos movimentos sociais urbanos e das classes trabalhadoras. Como características do Estado neoliberal já apresentadas, este adota uma politica de corte referente aos gastos públicos no qual a responsabilidade para se manter na sociedade recai sobre o individuo. Assim, a grande e violenta repressão aos movimentos sociais provoca uma destruição dessa relação social possibilitando a não existência de um sentimento forte e coeso de classe social, trazendo base para a dominação do sistema neoliberal. Essa medida ocasiona em um enfraquecimento da representatividade dessa classe. A grande competitividade gerada pelo sistema neoliberal é um fator primordial para a consolidação de uma sociedade de indivíduos, já que estes não querem apenas a “defender os seus interesses através de uma mudança social”, mas sim participar ativamente desse processo de acumulação do capital.

A sugestão de transformação Octavio Ianni assemelha-se a visão marxista, de encontrar na classe subalterna (no caso de Marx, a operária) o poder para mudar o poder estatal. Contudo, é importante salientar que não trata-se de um projeto fácil, no qual as classes periféricas vão reunir-se e conscientizar-se homogeneamente. O que se deve analisar é que a integração do estado com a sociedade civil não é uma ação que deverá ser conduzida somente pelos indivíduos. No atual estagio do capitalismo, é utópico pensar nessa possibilidade, já que existe toda uma conjuntura internacional no qual as nações estão inseridas, mostrando que as mudanças deste tipo, não são somente inerentes ao nacional. Primeiramente, os movimentos sociais devem concentrar-se no seu objetivo central segundo David Harvey: confrontar o poder de classe. Assim, pondo as diferenças étnicas em segundo plano, países diferentes, com diversos conceitos de democracia podem lutar por politicas igualitárias e uma justiça econômica. Além disso, é preciso desconstruir a perspectiva de marxismo utópico, pois será necessário muito mais que conscientização para remover uma lógica tão antidemocrática e entrincheirada, como o neoliberalismo.