MENSAGEM

quinta-feira, 11 de agosto de 2011

História da Informática como ela realmente surgiu

 


1.1 A História da Informática:

A história da informática nos leva a várias décadas atrás, onde a disputa pelo título de Primeiro Computador do mundo era muito acirrada. Devido ao fato dos primeiros computadores serem maquinas mecânicas sempre surgem duvidas ao referir-se ao primeiro computador, mais podemos nos referir ao MIT (Massachussetts Institute of Tecnology) desenvolvido em 1931 por Vannevar Bush, como sendo primeiro computador. Dentre suas muitas características, podemos citar que ele era analógico e foi feito para resolver equações simples, o que atualmente nos chamamos de calculadora simples de bolso. Por utilizar elementos analógicos, o MIT trazia junto com seu surgimento muitos problemas, uma vez que um elemento analógico pode assumir qualquer valor entre -∞ e +∞ na natureza, com este problema, uma variável poderia apresentar um valor diferente do verdadeiro ao sofrer a interferência de qualquer ruído. Teríamos então que encontrar uma solução, onde a probabilidade de erro das variáveis fosse menor. Uma outra base numérica foi criada, a Binária, que era constituído apenas por dois algarismos “0” e “1”, tendo apenas 2 valores possíveis a questão dos ruídos está resolvida, pois qualquer valor diferente de “0” ou “1” será descartado. A principio não foi depositada muita confiança e atenção a esta nova base binária, mas graças ao matemático inglês George Boole a situação foi revertida. Boole criou uma lógica binária, a qual representava muito mais de que as condições “sim” e “não”, “ligado” e “delisgado”, etc, estas eram condições especiais criadas a partir do “falso” “verdadeiro”, como a condição “E” para a interseção de dois conjuntos e “OU” para a união de dois conjuntos. Com isto já temos condições suficientes para criar um circuito eletrônico.
Após este significante avanço com a “álgebra booleana”, o interesse para continuar construindo computadores cada vez melhores e menores foi aumentando de forma gradativa, o que seria depois uma verdadeira corrida de “caça ao tesouro”.
Em 1937 surgiria o primeiro computador eletromecânico, o MARK1 desenvolvido por Howard Aiken, que contou com o apoio da IBM e da marinha que custeou todos os gastos. Apesar de termos visto que a Álgebra de Boole trouxe melhorias e ânimo para as empresas que estavam na corrida por desenvolverem computadores, ainda contamos com outros problemas, entre eles o tamanho, pegando como exemplo o MARK1, ele tinha 18m de comprimentos por 2m de altura, tendo como comparação os micros atuais, tínhamos um verdadeiro monstro, mas estes são os passos da evolução Sorriso.
O primeiro computador eletrônico do mundo teria sido o ABC, digo teria, por que o desenvolvedor abandonou o projeto após 5 anos de trabalho, o que realmente foi lamentável.
Com a chegada da Segunda Guerra Mundial, a  eletro-eletrônica avançou muito, os serviços secretos dos países queriam construir computadores, em sua maioria para codificação de mensagens, apesar de ter um fim triste, para ser usado em guerras, os computadores começaram a ser construídos a todo vapor e cada um melhor de que o outro. Do lado da Alemanha Hitler desenvolveu o Z3 em 1941, já do lado dos aliados a Inglaterra construiu um computador muito melhor de que o Z3, o Colossus,  que inclusive conseguia decifrar as mensagens codificadas pelo Z3. A guerra fez o mundo ver que a hora de fabricar estes equipamentos tinha chegado, e no mesmo ano em que foi lançado o Colossus (1943) foi iniciado o projeto do ENIAC, o computador dos Estados Unidos da América, porém o mesmo só foi concluído em 1946, após o fim da guerra. Se achamos o MARK1 grande, é por que não tinha sido construído o ENIAC, pois este possui 170m2 e pesava 30 toneladas, maior que a casa da maioria da população brasileira Sorriso.
Em 1945 John Von Neumann, Arthur Burks e Herman Goldstine adicionaram um novo marco na evolução dos computadores, até o momento toda a programação desde computadores é feita através de ligação de cabos em conectores, o que demorava muito tempo. A idéia deles era fazer com que os computadores pudessem ser programados através de programas, rotinas de manipulação de dados. Que se utilizasse de instruções do próprio processador. A idéia deste trio deu certa, e está viva até hoje, com algumas modificações e melhorias, obvio, mas seguindo a idéia inicial dos três idealizadores. O primeiro computador baseado na idéia deles foi o EDSAC seguido do EDVAC, com isto o tamanho dos computadores diminuiu bastante Sorriso.
A partir daí a evolução foi grande, porém estes computadores ainda eram feitos em suas maioria para usos militares, e eram operados apenas pelos seus próprios desenvolvedores, não tinham pessoas que operasse os mesmos. Em 1951 a IBM lançou o UNIVAC primeiro computador comercial. A IBM gostou do resultado e começou a fabricar computadores comerciais ainda com as mesmas características acima citadas. Somente em 1963 foi lançado o primeiro “mini-computador” o PDP-5.
Na década de 60 tivemos uma outra corrida que favoreceu a evolução dos computadores, desta vez menos catastrófica, pois se trata da Corrida Espacial e não da guerra. Os americanos como sempre querendo ser os primeiros em tudo, gastaram bilhões em pesquisas para eles terem o privilégio de serem os primeiros a chegarem ao espaço, e quem ganhou com isto fomos nós, pois foi criado um pólo de pesquisas chamado de ARPA (Advanced Research Projects Agency) de onde surgiram vários conceitos que refletem diretamente em tudo que existe no mundo da informática. Ela trouxe a interação homem-máquina, tendo como conseqüências o vídeo-game, as redes descentralizadas de computadores, etc. Assim como a ARPA foram criados outros pólos de pesquisas que muito contribuíram para evolução da interação  homem-máquina podemos citar como exemplo o MIT (Massachusetts Institute of Technology) e o SRI (Standford Research Institute), porém muito mais importante ainda foi o PARC (Palo Alto Research Center) criada pelo Xérox em 1970. Neste centro (PARC) foi desenvolvido toda a base de comunicação visual a qual estamos acostumados hoje, como ícones, janelas e a estrutura WYSIWYG (What You See Is What You Get - O que você vê é o que você obtém), apesar de possuir toda esta tecnologias já na década de 70 a Xérox não estava interessada da utilização da mesma em micro pessoais, não só ela como todas as empresas que estavam contribuindo para este avanço tecnológico na área de informática; estavam visando apenas a implantação em empresas.(...)

PRECISÃO DE UM GPS

Qual é a precisão de um GPS?

Os receptores de GPS de hoje são extremamente precisos, graças ao design de multi-canais paralelos. Após a aquisição dos satélites, os sinais são mantidos até mesmo em mata densa ou locais urbanos, com edifícios altos Certos fatores atmosféricos e outras fontes de erro podem afetar a precisão de receptores de GPS. Os receptores de GPS mais modernos vem equipados com WAAS ( Sistema de Aumento de Ampliação de Área), que tem a capacidade de melhorar a precisão, a menos de três metros em média. Não é exigido nenhum equipamento adicional ou pagamento de taxas, para utilização do WAAS. Os usuários também podem melhorar a precisão com o GPS Diferencial (DGPS), que corrige os sinais de GPS para uma média de três a cinco metros.

GPS

MEMÓRIA DE UM COMPUTADOR

A memória é um dispositivo que permite ao computador armazenar dados por certo tempo. Atualmente o termo é geralmente usado para definir as memórias voláteis, como a RAM, mas seu conceito primordial também aborda memórias não voláteis, como o disco rígido. Parte da memória do computador é feita no próprio processador; o resto é diluído em componentes como a memória RAM, memória cache, disco rígido e leitores de mídias removíveis, como disquete, CD e DVD.
Nos computadores modernos, cada posição da memória é configurado para armazenar grupos de oito bits (chamado de um byte). Cada byte consegue representar 256 números diferentes; de 0 a 255 ou de -128 a +127. Para armazenar números maiores pode-se usar diversos bytes consecutivos (geralmente dois, quatro ou oito). Quando números negativos são armazenados, é utilizada a notação de complemento para dois.
A memória do computador é normalmente dividida entre primária e secundária, sendo possível também falar de uma memória "terciária".

UM POUCO DA HISTÓRIA

Z1, computador eletro-mecânico construído por Konrad Zuse.
O primeiro computador eletro-mecânico foi construído por Konrad Zuse (19101995). Em 1936, esse engenheiro alemão construiu, a partir de relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Zuse tentou vender o computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de desenvolver seus computadores.
Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha americana, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos em três segundos.
Simultaneamente, e em segredo, o Exército Americano desenvolvia um projeto semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchy, cujo resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC)[2], capaz de fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra, quando foi anunciado ao mundo.

O COMPUTADOR

Computador é uma máquina capaz de variados tipos de tratamento automático de informações ou processamento de dados. Exemplos de computadores incluem o ábaco, a calculadora, o computador analógico e o computador digital. Um computador pode prover-se de inúmeros atributos, dentre eles armazenamento de dados, processamento de dados, cálculo em grande escala, desenho industrial, tratamento de imagens gráficas, realidade virtual, entretenimento e cultura.
No passado, o termo já foi aplicado a pessoas responsáveis por algum cálculo. Em geral, entende-se por computador um sistema físico que realiza algum tipo de computação. Existe ainda o conceito matemático rigoroso, utilizado na teoria da computação.
Assumiu-se que os computadores pessoais e laptops são ícones da Era da Informação[1]; e isto é o que muitas pessoas consideram como "computador". Entretanto, atualmente as formas mais comuns de computador em uso são os sistemas embarcados, pequenos dispositivos usados para controlar outros dispositivos, como robôs, câmeras digitais ou brinquedos.As primeiras máquinas de computar
Pascaline, máquina calculadora feita por Blaise Pascal.
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.
A primeira máquina de verdade foi construída por Ediin, sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina calculadora, que fazia apenas somas e subtrações.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a respeito do que fazer com os números.

 

O CELULAR

permite a transmissão bidireccional de voz e dados utizáveis em uma área geográfica que se encontra dividida em células (de onde provém a nomenclatura celular), cada uma delas servida por um transmissor/receptor. A invenção do telefone celular ocorreu em 1947 pelo laboratório Bell, nos EUA.[1]
Há diferentes tecnologias para a difusão das ondas eletromagnéticas nos telefones móveis, baseadas na compressão das informações ou na sua distribuição: na primeira geração (1G) (a analógica, desenvolvida no início dos anos 1980), com os sistemas NMT e AMPS; na segunda geração (2G) (digital, desenvolvida no final dos anos 1980 e início dos anos 1990): GSM, CDMA e TDMA; na segunda geração e meia (2,5G) (uma evolução à 2G, com melhorias significativas em capacidade de transmissão de dados e na adoção da tecnologia de pacotes e não mais comutação de circuitos), presente nas tecnologias GPRS, EDGE, HSCSD e 1xRTT; na terceira geração (3G) (digital, com mais recursos, em desenvolvimento desde o final dos anos 1990), como UMTS e EVDO; na terceira geração e meia (3,5G), como HSDPA, HSPA e HSUPA. Já em desenvolvimento a 4G (quarta geração).
Exemplo de um telefone celular/telemóvel clássico (padrão antigo)
Aparelhos análogos baseados no rádio já eram utilizados pelos autoridades policiais de Chicago na década de trinta, entre outras tecnologias.
O primeiro celular lançado no Brasil foi pela TELERJ, na cidade do Rio de Janeiro em 1990, seguida da cidade de Salvador[1].
Segundo a União Internacional das Telecomunicações, o Brasil é sexto maior mercado do mundo em telefonia celular e atualmente, são 202,94 milhões[2] de aparelhos em uso no Brasil.

CARTÃO DE MEMÓRIA

Cartão de Memória

Cartão de memória ou cartão de memória flash é um dispositivo de armazenamento de dados baseados na tecnologia Flash, um tipo de memória baseado no EEPROM (Electrically-Erasable Programmable Read Only Memory) desenvolvido pela Toshiba nos anos 1980. Os chips de memória Flash são parecidos com a memória RAM (Random Access Memory) usada nos computadores, porém suas propriedades fazem com que os dados não sejam perdidos quando não há mais fornecimento de energia (por exemplo, quando a bateria acaba ou o dispositivo é desligado). Amplamente utilizado em câmeras fotográficas digitais, filmadoras digitais, videogames de mesa e portáteis, celulares, Palms, PDAs, MP3 Players, PCs e diversos outros aparelhos eletrônicos, oferecem grande capacidade de regravação, não utilizam energia para transferir ou armazenar dados, são extremamente portáteis e contam com ótima durabilidade.

O NOTEBOOK

OS TABLETS

 

Tablet: que bicho é esse?
Computadores em forma de prancheta são uma das novas tendências da tecnologia pessoal
Os tablets foram apresentados ao mundo no início de 2010 e, com o lançamento do iPad, ganharam força e prometem ser uma das principais tendências da tecnologia pessoal para os próximos anos.
 
Leia também:
Mas afinal, o que é um tablet e o que você pode fazer com ele? Confira a seguir as respostas para essas e outras perguntas sobre tablets.
O que é um tablet?
Um tablet é um computador em forma de prancheta eletrônica, sem teclado e com tela sensível ao toque. Para ter uma idéia de como é um, basta pensar em um “iPhone gigante”, com tela entre 7 e 10 polegadas. Todos os tablets já vem com conexão Wi-Fi e alguns também usam conexão 3G.
Já posso comprar um tablet?
Sim. No Brasil há dois modelos distribuídos oficialmente, o Galaxy Tab, da Samsung e o iPad da Apple. Fora esses, há dezenas de modelos "genéricos" disponíveis em sites de comércio eletrônico. O número de tablets de grandes fabricantes disponíveis no Brasil deve aumentar nos próximos meses.
Qual o preço?
No Brasil, os preços começam na faixa de R$ 1.600. Nos Estados Unidos, o iPad mais barato custa US$ 500.
Quem fabrica?
Por enquanto, Apple, Samsung, Motorola, Dell e Asus são alguns dos nomes mais famosos. A HP terá seu tablet até junho de 2011.
O que posso fazer com um tablet?
O principal foco dos tablets está no acesso à internet. Navegação na web, e-mail e leitura e edição de documentos simples são algumas das principais atividades que podem ser feitas com eles. Além disso, é possível assistir a vídeos, ver fotos e ouvir músicas.
Devido a limitações de poder de processamento e interface, não é viável trabalhar com programas pesados, como o Photoshop ou abrir arquivos pesados de aplicativos como Word, Excel e PowerPoint.
Outro grande apelo dos tablets são os aplicativos. Esses programas permitem acessar notícias e redes sociais em uma interface mais confortável, entre outras tarefas. Há aplicativos para as mais diversas funções, desde simuladores de guitarra e bateria até programas para ensino de química e biologia. O iPad, da Apple, é o tablet que tem o maior número de aplicativos.
Quais os sistemas usados nos tablets?
No momento, são basicamente cinco. A aposta da Microsoft é o Windows 7, que está em alguns tablets da HP e da Asus voltados principalmente para uso em empresas. O segundo sistema é o Android, do Google, baseado em Linux. Ele está em tablets da Motorola, da Samsung e da Dell, entre outros fabricantes.
Além desses, há o iOS, usado no iPad, da Apple. O quarto concorrente de peso é o webOS. Ele será usado nos tablets da HP, que chegam ao mercado em junho de 2011.
A RIM, fabricante dos celulares BlackBerry, também tem um sistema próprio. Ele é usado no Playbook, tablet que chega aos Estados Unidos em abril de 2011.
Além desses, há muitas variações do sistema Linux criadas por cada fabricante.
Os tablets são similares aos e-readers (leitores de livros digitais)?
No tamanho, sim. Mas as semelhanças param por aí. As telas dos tablets são coloridas e sensíveis ao toque, enquanto as dos e-readers são monocromáticas e não respondem à pressão dos dedos. E-readers servem exclusivamente para ler jornais, livros e revistas, enquanto tablets possuem outras funções.

O PENDRIVE

Este pequeno dispositivo já é obrigatório no bolso de muitos, e alguns até não vivem mais sem ele, pelo fato de ser um acessório prático e fácil de usar, compatível com praticamente qualquer sistema.
Tecnicamente o pendrive é um dispositivo portátil de armazenamento com memória flash, acessível através da porta USB. Sua capacidade varia de modelo para modelo, mas os pendrives mais atuais já passam dos gigabytes de memória. Por ser pequeno e ter uma grande capacidade, ele já marcou a morte dos velhos e saudosos disquetes de 3,5 polegadas. Os CDs até tentaram substituir os discos flexíveis, mas sua portabilidade e praticidade não é maior que a dos pendrives. Não há hoje nenhuma mídia portátil tão rápida na gravação e leitura dos dados, como é com os pendrives, o que os tornou populares muito rapidamente.
O termo “pendrive”, apesar de ser em inglês, não é utilizado nessa língua. Os países falantes da língua inglesa utilizam o termo “USB Flash Drive” ou outro nome similar. Pendrive pode ter sido o nome escolhido por alguns países pelo fato dos primeiros dispositivos portáteis com memória flash terem sido criados com aparência que lembrava uma caneta (“pen” em inglês). Outra possibilidade é a de que estes acessórios são tão pequenos que podem ser considerados até mesmo mais práticos de carregar que uma caneta comum.
Alguns exemplos de pendrives

HISTÓRIA DO DVD

No início de 1990 dois tipos de discos-ópticos de alta capacidade estavam em desenvolvimento: um era o MultiMedia Compact Disc (MMCD), liderado pela Philips e Sony, e o outro era o Super Density Disc (SD), patrocinado pela Toshiba, Time-Warner, Matsushita Electric (Panasonic), Hitachi, Mitsubishi, Pioneer, Thomson e JVC. O presidente da IBM, Lou Gerstner, tinha a proposta de unir os dois sistemas, evitando a repetição dos problemas da década de 1980, com os videocassetes dos formatos VHS e Betamax.
Philips e Sony abandonaram o formato MMCD e concordaram o formato da Toshiba com duas modificações relacionadas com a tecnologia implicada. A primeira foi a geometria que permitisse o "push-pull" (pular) das faixas (assim como no CD, podem ser feitos saltos de uma música para outra, enquanto numa videocassete não há como fazer isso rapidamente), que era uma tecnologia conjunta da Philips e Sony. A segunda era a adoção do sistema Philips EFMPlus. O EFMPlus, foi criado por Kees A. Schouhamer Immink, que também criou o EFM: é 6% menos eficiente que o sistema SD da Toshiba, o que resultou numa capacidade de 4,7GB ao invés dos originais 5GB do SD. A grande vantagem do EFMPlus é sua grande resiliência e resistência a intempéries tais como arranhões e impressões digitais. O resultado foi o DVD 1.5, anunciado ao público em 1995 e terminado em setembro de 1996. Em maio de 1997, o Consórcio DVD mudou para Fórum DVD, que é aberto a todas as companhias (não somente a Philips, Sony e Toshiba).
Os primeiros DVD Players (leitores de DVD) e discos estavam disponíveis em Novembro de 1997 no Japão, Março de 1998 nos Estados Unidos, 1999 na Europa e 2000 na Austrália. No Brasil a tecnologia começou a ganhar força em 2002 e 2003. O primeiro filme em DVD lançado nos Estados Unidos foi o Twister em 1996. O filme foi um teste para o Surround Sound 2.1. No Brasil, o primeiro DVD de filme foi Era uma vez na América, da FlashStar lançado em 1998. Em 1999 o preço dos DVD Players baixou para 300 dólares. A rede de supermercados Wal-Mart começou a vender DVD Players mesmo tendo pouca procura em comparação com os vídeos VHS, mas logo outras lojas seguiram o Wal-Mart e o DVD rapidamente se tornou popular nos Estados Unidos. Devido à desvalorização da moeda brasileira em relação aos dólares e à demora na decisão sobre a região a ser adotada no Brasil, bem como outros fatores, o DVD só se popularizou no Brasil em 2003, tomando quase 80% do mercado de vídeos. Um atraso de quase um ano, segundo fabricantes do setor.

[Os DVD possuem por padrão a capacidade de armazenar 4,7 GB de dados (capacidade nominal), enquanto que um CD armazena em média de 700 MB(cerca de 14,6 % da capacidade de um DVD). Os chamados DVD de dual-layer (dupla camada) podem armazenar até 8,5 GB. Apesar da capacidade nominal do DVD comum gravável, é possível apenas gravar aproximadamente 4.38 GB de informações (insira um DVD-R qualquer em seu computador e constate), e com o tamanho máximo de cada arquivo de 1 GB numa gravação normal. O tamanho máximo de arquivo varia conforme o tipo de gravação: UDF, ISO normal, DVD-video etc. Por exemplo, para gravar um arquivo com cerca de 2 GB, é necessário escolher a opção UDF mode. Apresenta resolução de 500 linhas (horizontais). A qualidade de imagem e som do DVD são bem superiores as das fitas de vídeo VHS.[2].

 

quarta-feira, 10 de agosto de 2011

A tecnologia renovando o Processo Educativo

://br.geocities.com/spereirag

quarta-feira, 29 de outubro de 2008

A tecnologia renovando o Processo Educativo

A educação nos dias atuais está passando por um processo de renovação de espaços, de resignificação de conteúdos e de valores, tendo como ponto de partida todas as mudanças ocorridas na sociedade. Um novo paradigma surge no horizonte da civilização moderna em decorrência do desenvolvimento tecnológico na informação e na comunicação. As sociedades sentem a urgência de desenvolver programas capazes de promover a necessária inserção e participação ativa nesse mundo que, aos poucos, se descortina e traz a possibilidade de múltiplas conexões, em uma velocidade jamais vista. A escola como instituição integrante e atuante dessa sociedade e desencadeadora do saber sistematizado, não pode ficar fora ou a margem deste dinamismo (Kenski,1998). Fora da escola, professores e alunos, estão permanentemente em contato com tecnologias cada vez mais avançadas, onde a máquina transforma, modifica e até substitui as tarefas humanas. Eles vivem e atuam nesta realidade como cidadãos participantes, mas não “conseguem” introduzir estas “novidades” dentro da escola, pois necessitam cumprir conteúdos programáticos exigidos. A tecnologia, mais especificamente, o uso do computador, além de renovar o processo ensino-aprendizagem, vai propiciar o desenvolvimento integral do aluno, valorizando o seu lado social, emocional, crítico, imaginário,deixando margens para exploração de novas possibilidades de criação (Kenski, 1998) Portanto, a informática, serve para explorar novas possibilidades pedagógicas e contribuir para uma melhoria do trabalho docente em sala de aula, valorizando o aluno como sujeito do processo educativo.

Medindo o próprio corpo


Além da curiosidade, conhecer os números do corpo ajuda a fornecer informações para um diagnóstico. Isso significa que os números dizem muito sobre a saúde de uma pessoa. Se eles estão fora da média, é melhor investigar e consultar um médico.
Medir é comparar. Apresentamos algumas medidas médias que podem ser utilizadas em uma atividade que os alunos podem realizar para conhecer o corpo humano e comparar com outros objetos de dimensões semelhantes. Algumas medidas utilizadas até hoje foram estabelecidas a partir de medidas do corpo humano, como por exemplo a polegada, que corresponde a uma distância de 2,54 cm. É comum encontrar essa medida na descrição do tamanho da tela de um televisor ou de um monitor de computador.

Nova ferramenta em sala de aula



Dicas

Veja o que os pesquisadores Márcio Rogério Martins e Gláucia da Silva Brito apontam como necessário para o bom uso dos recursos tecnológicos no dia a dia das aulas:

- A tecnologia deve fazer parte de um processo de ensino diferenciado, não servindo apenas como uma nova ferramenta para um formato convencional.


- Utilizar novos recursos não significa desprezar os métodos tradicionais. A tecnologia depende dos temas e usos planejados para cada conteúdo.


- É essencial que o professor seja valorizado na criação do projeto, podendo influenciar na sua metodologia.


- Além de auxiliar no ensino dos conteúdos, os projetos também devem estimular os alunos ao uso consciente dos equipamentos tecnológicos.

Além da tecnologia
A compra de computadores e equipamentos pode ser bem vista por professores e alunos, mas apenas o investimento em tecnologia não é capaz de “revolucionar” o ensino. Quem garante é a professora e pesquisadora da Universidade Federal do Paraná, Gláucia da Silva Brito.

Para Gláucia, o ponto mais importante não é apenas o de disponibilizar os equipamentos, mas ter a tecnologia envolvida em um bom projeto educacional – o que envolve a necessidade de aprendizagem dos alunos, o potencial dos equipamentos e a participação dos professores no processo.


O diretor do Dom Bosco concorda. “O computador por si só não faz nada, mas, atrelado ao conteúdo desenvolvido para ele, pode ser um diferencial para facilitar o trabalho do docente e estimular os jovens”, diz Antunes.


De qualquer forma, Gláucia defende que a tecnologia deve ser vista como fundamental. “Os adolescentes já chegam à Escola muito avançados no tema e a questão passa a ser o modo pelo qual o professor vai conseguir decidir os meios e momentos de usar a tecnologia”, defende a pesquisadora.


Márcio Rogério Martins, pesquisador da Universidade Federal do Rio Grande do Sul, também vê o papel do professor como fundamental no uso de tecnologias educacionais. Para ele, o ganho dos alunos pode ser maior quando há um estímulo permanente dos docentes diante das potencialidades dos recursos tecnológicos no processo de ensino.

sexta-feira, 5 de agosto de 2011

MEDIDAS DE INFORMATICA


Que significa as medidas na informática ?

Todos nós ouvimos falar de mega, giga ou até mesmo tera bytes. Mas o que esses nomes significam? segue uma explicação.


Primeiramente, vamos entender como é possível representar uma informação, existem duas formas de representar uma informação, análogicamente ou digitalmente, por exemplo uma fita k-7, disco de vinil, gravação de imagem fotografia em película ou filme em película, fita magnética, etc são analógicos. Já a informação digital é limitada a 0 e 1 ( verdadeiro ou falso ), não é tão susceptível a interferencias como no sinal analógico, então é uma opção segura para os computadores que precisam passar informações precisas aos seus usuários.

Você sabe o significado de Bit ? é uma contração de Binary Digit que significa, claro, digito binário. Essa é a menor unidade de informação "armazenável" não deve ser confundido como a menor unidade de medida da informação, pois representa apenas valores que, somente em conjunto (octeto ou byte), formarão a informação em si, que é o produto do processamento desse conjunto de dados.

Há outras medidas como o Byte que equivale a 8 bits, o Kbyte que equivale a 1024 bytes ou 8182 bits, Megabyte ou 1024 Kbytes, 1.048.576 bytes ou 8.388.608 bits, Gigabyte que é um conjunto de 1024 Megabyte e um Terabyte que é um conjunto de 1024 Gigabyte.


Exemplos mais comuns, quando você olha o espaço em disco do seu pendrive, dvd, cd, disco rígido do seu notebook ou desktop, você vai perceber que nas propriedades dessa unidade terá uma medida. Basta você olhar na tabela abaixo e ver qual medida corresponde com a qual você está vendo e saber quanto de espaço total, livre e ocupado está essa unidade.

Tabela:


Bits

Byte

Megabyte

Gigabyte

Terabyte

Exabyte

drive, unidade c, meu computador, pc, windows

No exemplo vemos o Espaço Livre em GB ( GigaByte ) e o Tamanho Total em GigaByte também.

propriedade do computador, disco cheio, disco vazio, disco ocupado, windows xp, windows
Neste outro caso temos medida em bytes e em GB, para chegar a essas informações do seu disco local basta clicar com o botão direito na unidade desejada dentro de meu computador e ir em propriedades.

UNIDADES DE MEDIDA DE INFORMATICA

Unidades de medida em Informática
Em Informática há três medidas fundamentais:
1. Velocidade do Computador
A velocidade do computador mede a rapidez com que o processador está a trabalhar, ou seja, a rapidez com que efectua cálculos ou outras operações. A unidade de medida é o Hz (Hertz), mais propriamente MHz (Mega Hertz - milhões de Hertz), ou, como se usa já recentemente o GHz (Giga Hertz - milhares de milhões de Hertz)
- 1 Hertz significa 1 impulso por segundo -
Os primeiros computadores pessoais trabalhavam a uma velocidade um pouco superior a 4 MHz.
Actualmente encontramos simples computadores pessoais a trabalhar a 2,5 GHz.
2. Desempenho do Computador
O desempenho do computador, mede o número de operações (instruções) que o processador efectua por segundo e a unidade de medida é o MIPS (Milhões de Instruções Por Segundo)
O Desempenho é sempre inferior à Velocidade.
3. Capacidade de Memória do Computador
A Capacidade de Memória, mede a capacidade que o sistema tem para armazenar dados ou informação tanto em dispositivos de armazenamento primário (RAM e ROM) como em dispositivos de armazenamento secundário (disquetes, CDs, DVDs, Disco rígido, tapes, etc)
Mede-se em BYTES ou seus múltiplos (Kb - Kilobyte, Mb - Megabyte, Gb - Gigabyte, Tb - Terabyte, etc...)
1 Kb = 1024 Bytes
1 Mb = 1024 Kb = 1024x1024 bytes
1 Gb = 1024 Mb = 1024x1024 Kb = 1024x1024x1024 bytes

MEDIDAS DE VOLUME

As medidas de volume possuem grande importância nas situações envolvendo capacidades de sólidos. Podemos definir volume como o espaço ocupado por um corpo ou a capacidade que ele tem de comportar alguma substância. Da mesma forma que trabalhamos com o metro linear (comprimento) e com o metro quadrado (comprimento x largura), associamos o metro cúbico a três dimensões: altura x comprimento x largura.

As unidades de metro cúbico são: quilômetros cúbicos (km³), hectômetros cúbicos (hm³), decâmetros cúbicos (dam³), metros cúbicos (m³), decímetros cúbicos (dm³), centímetros cúbicos (cm³), milímetros cúbicos (mm³). Observe a tabela e os métodos de transformação de unidades de volume:


1 – Transformando 12km³ em m³ = 12 x 1000 x 1000 x 1000 = 12 000 000 000 m³
2 – Transformando 2m³ em cm³ = 2 x 1000 x 1000 = 2 000 000 cm³
3 – Transformando 1000cm³ em m³ = 1000: 1000 : 1000 = 0,001 m³
4 – Transformando 5000dm³ em m³ = 5000 : 1000 = 5 m³
5 – Transformando 50 000 000m³ em km³ = 50 000 000 : 1000 : 1000 : 1000 = 0,05 km³

De acordo como Sistema Internacional de medidas (SI), o metro cúbico é a unidade padrão das medidas de volume. Um metro cúbico (1m³) corresponde a uma capacidade de 1000 litros. Essa relação pode ser exemplificada em conjunto com a Geometria, através de um cubo com arestas medindo 1 metro.



 

PESOS E MEDIDAS

FÓRMULA PARA MEDIR MASSA CORPORAL

IMC = peso / (altura)2

Segundo o IMC, quem é considerado acima do peso e quem é obeso?
Antes de tudo, é preciso salientar que o Índice de Massa Corporal é apenar um indicador, e não determina de forma inequívoca se uma pessoa está acima do peso ou obesa.  
A Organização Mundial de Saúde usa um critério simples:
Condição
IMC em adultos
abaixo do peso
< 19,1
< 20,7
no peso normal
19,1 - 25,8
20,7 - 26,4
marginalmente acima do peso
25,8 - 27,3
26,4 - 27,8
acima do peso ideal
27,3 - 32,3
27,8 - 31,1
obeso
> 32,3
> 31,1
abaixo do peso
abaixo de 18,5
no peso normal
entre 18,5 e 25
acima do peso
entre 25 e 30
obeso
acima de 30
A vantagem do sistema da Organização Mundial de Saúde é que ele é simples, com números redondos e fáceis de utilizar.
Há outros critérios mais detalhados. Os resultados da NHANES II survey (National Health and Nutrition Examination Survey), uma pesquisa realizada nos Estados Unidos entre 1976-1980, indicaram a adoção dos seguintes critérios:
Condição
IMC em Mulheres
IMC em Homens