Informática educativa

sexta-feira, 19 de março de 2010 às 19:55

O objetivo da informática educativa é utilizar o computador como recurso didático para as práticas pedagógicas nos diversos componentes curriculares, incentivando a descoberta tanto do aluno quanto do professor e preocupando-se com "quando", "por que" e "como" usar ainformática para que a mesma contribua efetivamente para a construção do conhecimento.

Embora muitas escolas possuam essas tecnologias disponíveis, as mesmas não são utilizadas como deveriam, ficando muitas vezes trancadas em salas isoladas longe do manuseio de alunos e professores. Esta parceria entre educação e tecnologia é muito dificil de ser efetivada. No que se refere a tecnologia digitais, principalmente, os professores mais conservadores tem dificuldade de interação. Eles já admitem utilizar o computador e a internet para preparar suas aulas,mas não conseguem ainda utilizar os mesmos na sua atividades em sala de aula, como instrumento pedagógico.

Para que se implemente uma política eficiente de ensino especializado em informática, não basta saber utilizar bem as ferramentas. É desejável que gestores e professores tenham um planejamento consistente e objetivos bem definidos a fim de se alcançar resultados adequados. Naturalmente, a formação em Informática educativa pode colaborar muito nesse sentido.

É importante que os agentes de ensino definam atividades em que os alunos utilizem o computador como recurso didático e pedagógico. As aulas devem ser planejadas antes que sejam aplicadas em ambiente computacional. Nesse contexto, a abordagem contrucionista - em que o aluno constrói algo utilizando o computador como meio - tem sido utilizada com grande sucesso.[1]

Entre outros cuidados, é necessário, quando se programa uma atividade para o ensino da informática, que os objetivos a serem atingidos sejam expostos aos alunos. A elaboração das atividades deve considerar como atingir os resultados almejados, quão significativa será a aprendizagem proporcionada pela situação a ser criada e se os recursos a serem utilizados são os mais adequados.

…organizações muito competitivas ou que apresentam um elevado grau de isolamento entre os funcionários terão mais dificuldades de criar um ambiente de troca. O perfil normalmente realizado de forma individual em sua sala de aula dificulta muito a criação de uma cultura de colaboração, o que faz surgir a necessidade da gestão propiciar momentos de troca de experiências entre os professores (e os funcionários). Nos casos em que esta cultura já esteja instaurada na escola, fica muito mais fácil a implementação do sistema de organização e disseminação de informações. (VIEIRA 2002, p. 37).

Porém, mais importante do que as técnicas e o planejamento, é a postura do educador que mais influenciará o resultado do processo de ensino e aprendizagem. Sobre isso, vale a pena citar o professor José Manuel Moran, da ECA-USP:

Faremos com as tecnologias mais avançadas o mesmo que fazemos conosco, com os outros, com a vida. Se somos pessoas abertas, as utilizaremos para comunicarmos mais, para interagir melhor. Se somos pessoas fechadas, desconfiadas, utilizaremos as tecnologias de forma defensiva, superficial. Se somos pessoas abertas, sensíveis, humanas, que valorizam mais a busca que o resultado pronto, o estímulo que a repreensão, o apoio que a crítica, capazes de estabelecer formas democráticas de pesquisa e comunicação. Então somos verdadeiros Educadores.[2]

O fato de ter uma sala com computadores não significa necessariamente ter informatização do ensino, como não basta papel e caneta para se escrever um bom texto. Primeiramente é preciso que exista um planejamento, o qual indicará os passos a serem seguidos. A informatização do ensino, não pode ser vista como solução para todos os problemas e nem fazer alusão de que todas as dificuldades relacionadas ao ensino-aprendizagem estarão sanadas, mas não podemos medir esforços para utilizar tudo o que possa contribuir para sua melhoria.

Porém para que neste ambiente virtual gigantesco o objetivo central não se perca é preciso que o educador seja um mediador e oriente o educando. Assim como na vida real a virtual também apresenta opções e caminhos que nos levam à fins diversos e é aí que o educador deve intervir, de maneira a contribuir para o desenvolvimento de valores pessoais e sociais levando a construção de uma consciência critica. Tendo por finalidade a formação de cidadãos capazes de avaliar suas atitudes e escolhas, como também o mundo em que vivem.

A informática pode ser incorporada em todos as modalidades educacionais. Uma dessas modalidades é a Educação Infantil. Baseando-se naepistemologia genética de Piaget pode-se concluir que a introdução da informática para as crianças pode ser favorável ao desenvolvimento. Essa teoria de Piaget afirma que no Período Simbólico, que vai dos dois aos quatro anos de idade, a criança é capaz de criar imagens mentais que substituem o objeto real, e que, no Período Intuitivo - que vai até os sete anos - a criança tenta decifrar o porque dos acontecimentos. Analisando as características de tais períodos podemos afirmar que o computador é um bom recurso às crianças dessa faixa etária.

O computador pode ser utilizado como um recurso tecnológico que desenvolva o raciocínio infantil, visto que, é uma excelente forma, tanto de mostar imagens, como de demonstrar às crianças como os acontecimentos ocorrem. O computador também desperta um súbito interesse em relação a conteúdos além da matéria que lhe foi exposta em sala de aula. É um ótimo motivador para complementar as aulas.

As idéias do MEC também podem ser utilizadas como argumento favorável a implantação do computador na Educação Infantil, pois afirma que a escola deve relacionar os diversos materiais disponíveis, como pode ser visto no Parecer feito em 1998:

Ao reconhecer as crianças como seres íntegros, que aprendem a ser e conviver consigo próprias, com os demais e o meio ambiente de maneira articulada e gradual, as Propostas Pedagógicas das Instituições de Educação Infantil devem buscar a interação entre as diversas áreas de conhecimento e aspectos da vida cidadã, como conteúdos básicos para a constituição de conhecimentos e valores. Desta maneira, os conhecimentos sobre espaço, tempo, comunicação, expressão, a natureza e as pessoas devem estar articulados com os cuidados e a educação para a saúde, a sexualidade, a vida familiar e social, o meio ambiente, a cultura, as linguagens, o trabalho, o lazer, a ciência e a tecnologia.


fonte: wikipedia

Fale ao telefone com tradução em tempo real: nova tecnologia da Microsoft

sexta-feira, 5 de março de 2010 às 18:42
A Microsoft apresenta uma nova tecnologia que permite tradução quase instantânea em uma conversa telefônica O idioma ainda é uma barreira cultural no mundo globalizado. Muitas vezes, precisamos nos comunicar de forma rápida e eficiente com pessoas do outro lado do mundo, e nem sempre falamos a mesma língua.


A gigante de Bill Gates mostrou na TechFest deste ano uma nova tecnologia para otimizar conversas telefônicas entre pessoas que não falam a mesma língua. O evento acontece na Índiae é o maior encontro de ciência e tecnologia da Ásia.

Como funciona?

O programa consiste em um interface semelhante aà de um programa de mensagens instantâneas. Quando a pessoa fala ao telefone, ele transcreve o que foi dito em poucos segundos e exibe a conversa na tela. Logo em seguida é possível escutar a tradução.

Ao pausar sua fala, imediatamente o programa começa a fazer a tradução, mas é possível falar enquanto ele traduz, o que acelera o processo. Claro que a tradução leva alguns segundos e a conversa não pode, ainda, ser imediata. Mesmo assim, o programa se mostra eficiente em seu vídeo de exibição.

Além de visualizar a conversa em forma de texto, uma janela logo abaixo exibe como sua fala está sendo traduzida. O vídeo abaixo mostra dois pesquisadores, um conversando em inglês e o outro em alemão. Logo abaixo da conversa, o americano pode ver seu texto traduzido para o alemão e traduzido para o inglês novamente. Assim, é possível conferir se a tradução está fiel ao que foi dito.


Obviamente, esse tipo de tradução não produz um texto 100% correto. A Microsoft utiliza neste projeto a mesma tecnologia presente no Bing. Os problemas de tradução são semelhantes aos encontrados quando tentamos traduzir um texto com as ferramentas disponíveis na internet.

É complicado traduzir expressões e manias de linguagem presentes em uma conversa informal. Mas para conferências e telefonemas no trabalho, por exemplo, um programa como este pode ser muito útil.

A rapidez de sua tradução, ao captar a fala das pessoas, torna uma conversa bilíngue muito mais dinâmica. Além disso, as traduções podem não estar sempre corretas, mas passam a noção certa do assunto que está sendo discutido.

Novo monitor 3D não exige o uso dos óculos especiais

às 18:40
Empresa de Cingapura desenvolveu uma tecnologia capaz de exibir imagens 3D sem precisar de aparatos visuais.

Até o ano passado, o cinema 3D se resumia ao IMAX, enquanto uma televisão 3D na sala de estar era impossível. Em janeiro de 2010, a CES surpreendeu a todos com uma série de inovações relativas à terceira dimensão.

Foram apresentados televisores, aparelhos de blu-ray e até mesmo monitores 3D. Tudo foi muito charmoso, inovador e empolgante, a não ser por um detalhe: para “enxergar” o 3D, era preciso utilizar um certo tipo de óculos especial.

Alguns meses depois, a Sunny Ocean traz uma boa notícia: não é preciso faze uso dos óculos esquisitões se a televisão ou o monitor fizer uso da tecnologia certa. A empresa de Cingapura demonstrou na CeBIT 2010 um monitor de 27 polegadas que mostra conteúdo 3D utilizando um sistema ótico diferenciado, sem a necessidade dos óculos.

3D sem óculos

Além disso, a empresa vem trabalhando em uma espécie de estúdio 3D, que pode apresentar conteúdo em três dimensões em até 64 perspectivas e, novamente, sem o uso dos óculos. O tamanho dos monitores pode variar de 7 a 100 polegadas. Entretanto, o único produto que será comercializado ainda este ano será o monitor apresentado, de 27 polegadas.

CeBIT 2010


Como um HD funciona

às 18:31

    Como um HD funciona


    Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados de platters. O nome "disco rígido" vem justamente do fato de os discos internos serem extremamente rígidos.

    Os platters são compostos de duas camadas. A primeira é chamada de substrato, e nada mais é do que um disco metálico, feito de ligas de alumínio. Mais recentemente, alguns fabricantes passaram a utilizar também vidro, que oferece algumas vantagens, como a maior dureza, embora também seja mais difícil de se trabalhar. Os primeiros HDs com discos de vidro foram os IBM Deskstar 75GXP, lançados em 2001.

    Independentemente do material usado, o disco precisa ser completamente plano. Como os discos giram a grandes velocidades e as cabeças de leitura trabalham extremamente próximas da superfície magnética, qualquer variação seria fatal. Para atingir a perfeição necessária, o disco é polido em uma sala limpa, até que se torne perfeitamente plano. Vem então a parte final, que é a colocação da superfície magnética nos dois lados do disco.

    Como a camada magnética tem apenas alguns microns de espessura, ela é recoberta por uma fina camada protetora, que oferece alguma proteção contra pequenos impactos.

    Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar qualquer vibração dos discos, mesmo a altas rotações. Este é mais um componente que passa por um processo de polimento, já que os discos devem ficar perfeitamente presos e alinhados. No caso de HDs com vários discos, eles são separados usando espaçadores, novamente feitos de ligas de alumínio.

    Finalmente, temos o motor de rotação, responsável por manter uma rotação constante. O motor é um dos maiores responsáveis pela durabilidade do disco rígido, pois uma grande parte das falhas graves provém justamente do motor.

    Os HDs mais antigos utilizavam motores de 3.600 rotações por minuto, enquanto que atualmente são utilizados motores de 5.400, 7.200 ou 10.000 RPM. Nos HDs de notebook ainda são comuns motores de 4.200 RPM, mas os de 5.400 RPM já são maioria. Embora não seja o único, a velocidade de rotação é sem dúvida o fator que influencia mais diretamente no desempenho.

    Para ler e gravar dados no disco, são usadas cabeças de leitura eletromagnéticas (heads) que são presas a um braço móvel (arm), o que permite seu acesso a todo o disco. O braço de leitura é uma peça triangular, também feita de ligas de alumínio, para que seja ao mesmo tempo leve e resistente. O mecanismo que movimenta o braço de leitura é chamado de actuator.

    Nos primeiros discos rígidos, eram usados motores de passo para movimentar os braços e cabeças de leitura. Eles são o mesmo tipo de motor usado nos drives de disquete, onde ao receber um impulso elétrico o motor move o braço por uma curta distância, correspondente ao comprimento de uma trilha. O problema é que eles eram muito suscetíveis a problemas de desalinhamento e não permitiam densidades de gravação muito altas.

    Os discos contemporâneos (qualquer coisa acima de 80 MB) utilizam um mecanismo bem mais sofisticado para essa tarefa, composto por um dispositivo que atua através de atração e repulsão eletromagnética, sistema chamado de voice coil. Basicamente temos um eletroímã na base do braço móvel, que permite que a placa controladora o movimente variando rapidamente a potência e a polaridade do ímã. Apesar de parecer suspeito à primeira vista, esse sistema é muito mais rápido, preciso e confiável que os motores de passo. Para você ter uma idéia, os HDs do início da década de 80, com motores de passo, utilizavam apenas 300 ou 400 trilhas por polegada, enquanto um Seagate ST3750640AS (de 750 GB) atual utiliza nada menos do que 145.000.

    Aqui temos um diagrama mostrando os principais componentes do HD:

    Para que o HD possa posicionar a cabeça de leitura sobre a área exata referente à trilha que vai ser lida, existem sinais de feedback gravados na superfícies do disco, que orientam o posicionamento da cabeça de leitura. Eles são sinais magnéticos especiais, gravados durante a fabricação dos discos (a famosa formatação física), que são protegidos através de instruções de bloqueio incluídas no firmware do HD contra alteração posterior. Esses sinais eliminam os problemas de desalinhamento que existiam nos primeiros HDs.

    Ao ler um arquivo, a controladora posiciona a cabeça de leitura sobre a trilha onde está o primeiro setor referente a ele e espera que o disco gire até o setor correto. Este tempo inicial, necessário para iniciar a leitura, é chamado de tempo de acesso, e mesmo os HDs atuais de 7.200 RPM fica em torno de 12 milésimos de segundo, o que é uma eternidade em se tratando de tempo computacional. O HD é relativamente rápido ao ler setores seqüenciais, mas ao ler vários pequenos arquivos espalhados pelo HD, o desempenho pode cair assustadoramente. É por isso que existem programas desfragmentadores, que procuram reorganizar a ordem dos arquivos, de forma que eles sejam gravados em setores contínuos.

    Outro dado interessante é a maneira como as cabeças de leitura lêem os dados, sem tocar na camada magnética. Se você tiver a oportunidade de ver um disco rígido aberto, verá que, com os discos parados, as cabeças de leitura são pressionadas levemente em direção ao disco, tocando-o com uma certa pressão. Aqui temos o braço de leitura de um HD, depois de removido. Veja que mesmo sem o disco magnético entre elas, as duas cabeças de leitura pressionam-se mutuamente:

    Apesar disso, quando os discos giram à alta rotação, forma-se uma espécie de colchão de ar, que repele a cabeça de leitura, fazendo com que ela fique sempre a alguns nanômetros de distância dos discos. É o mesmo princípio utilizado na asa de um avião; a principal diferença neste caso é que a cabeça de leitura é fixa, enquanto os discos é que se movem, mas, de qualquer forma, o efeito é o mesmo. Como veremos a seguir, os HDs não são fechados hermeticamente, muito menos a vácuo, pois é necessário ar para criar o efeito.

    Esta foto mostra a cabeça de leitura "flutuando" sobre o disco em movimento. A distância é tão curta que mesmo ao vivo você tem a impressão de que a cabeça está raspando no disco, embora na realidade não esteja. Como a cabeça de leitura se movimenta rapidamente durante a operação do disco, é muito difícil tirar fotos. Para conseguir tirar esta, precisei "trapacear", desmontando o actuator e suavemente movendo a cabeça da área de descanso para o meio do disco. :)

    Os discos magnéticos são montados diretamente sobre o eixo do motor de rotação, sem o uso de correias ou qualquer coisa do gênero. É justamente este design simples que permite que os discos girem a uma velocidade tão grande.

    Embora mais potente e muito mais durável, o motor de rotação usado nos HDs é similar aos usados nos coolers. Nos HDs antigos, eram usados motores sleeve bearing, o sistema mais simples e menos durável, que foi usado nos HDs de 3600 RPM. Em seguida, foram adotados motores ball-bearing, onde são usados rolamentos para aumentar a precisão e a durabilidade. Nos HDs modernos, é utilizado o sistema fluid-dynamic bearing, onde os rolamentos são substituídos por um fluído especial, que elimina o atrito, reduzindo o ruído e o nível de vibração.

    Aqui temos o mesmo HD da foto anterior completamente desmontado, mostrando o interior do motor de rotação:

    Assim como a maioria dos modelos de baixa capacidade, este HD utiliza um único disco, mas a maioria dos modelos utiliza dois, três ou quatro, que são montados usando espaçadores. O HD possui duas cabeças de leitura para cada disco (uma para cada face), de forma que um HD com 4 discos utilizaria 8 cabeças de leitura, presas ao mesmo braço móvel.

    Embora usar mais discos permita construir HDs de maior capacidade, não é comum que os fabricantes utilizem mais de 4, pois a partir daí torna-se muito difícil (e caro) produzir componentes com a precisão necessária para manter todos os discos alinhados. Antigamente, era comum que HDs de alta capacidade (e alto custo :), sobretudo os destinados a servidores, possuíssem 6, ou até mesmo 12 discos, mas eles saíram de moda a partir da década de 90, devido à baixa demanda. Desde então, os fabricantes padronizaram a produção em torno dos HDs com até 4 discos e quem precisa de mais capacidade compra vários e monta um sistema RAID. No caso dos servidores, é muito comum o uso de racks, com um grande número de HDs SAS ou SATA.

    Naturalmente, qualquer HD aberto fora de uma sala limpa acaba sendo impregnado por partículas de poeira e por isso condenado a apresentar badblocks e outros defeitos depois de alguns minutos de operação.

    Todo HD é montado e selado em um ambiente livre de partículas, as famosas salas limpas. Apesar disso, eles não são hermeticamente fechados. Em qualquer HD, você encontra um pequeno orifício para entrada de ar (geralmente escondido embaixo da placa lógica ou diretamente sob a tampa superior), que permite que pequenos volumes de ar entrem e saiam, mantendo a pressão interna do HD sempre igual à do ambiente. Esse orifício é sempre protegido por um filtro, que impede a entrada de partículas de poeira.


    Orifício de ventilação do HD

    Devido a isso, a pressão do ar tem uma certa influência sobre a operação do HD. Os HDs são normalmente projetados para funcionar a altitudes de até 3.000 metros acima do nível do mar. Em altitudes muito elevadas, a pressão do ar é menor, comprometendo a criação do colchão de ar. Para casos extremos (uso militar, por exemplo), existem HDs pressurizados, que podem trabalhar a qualquer altitude.

    Internamente, o HD possui um segundo filtro, que filtra continuamente o ar movimentado pelos discos. Ele tem a função de capturar as partículas que se desprendam dos componentes internos durante o uso, devido a desgaste ou choques diversos. Aqui temos uma foto de um, preso num dos cantos da parte interna do HD:


    Filtro interno

    Enquanto o HD está desligado, as cabeças de leitura ficam em uma posição de descanso. Elas só saem dessa posição quando os discos já estão girando à velocidade máxima. Para prevenir acidentes, as cabeças de leitura voltam à posição de descanso sempre que não estão sendo lidos dados, apesar dos discos continuarem girando.

    É justamente por isso que às vezes, ao sofrer um pico de tensão, ou o micro ser desligado enquanto o HD está sendo acessado, surgem setores defeituosos. Ao ser cortada a energia, os discos param de girar e é desfeito o colchão de ar, fazendo com que as cabeças de leitura possam vir a tocar os discos magnéticos.

    Para diminuir a ocorrência desse tipo de acidente, nos HDs modernos é utilizado um sistema que recolhe as cabeças de leitura automaticamente para a área de descanso quando a energia é cortada (tecnologia chamada de auto-parking). A área de descanso é também chamada de "landing zone" e engloba algumas das trilhas mais centrais do disco, uma área especialmente preparada para receber o impacto do "pouso" das cabeças de leitura. Uma das tecnologias mais populares é a LZT (Laser Zone Texture), uma tecnologia desenvolvida pela IBM, onde um laser é usado para produzir pequenas cavidades ao longo da zona de pouso, que reduzem o atrito com a cabeça de leitura:


    Outra técnica consiste em usar "rampas" feitas de material plástico, posicionadas na área externa dos discos, que suspendem as cabeças de leitura, evitando que elas toquem os discos mesmo quando eles param de girar. Esta tecnologia foi inicialmente usada em HDs de notebook, mas recentemente passou a ser usada também nos de 3.5" para desktops. Ela pode parecer simples, mas na verdade exige bastante tecnologia, devido à precisão necessária:


    Rampas de descanso para as cabeças de leitura

    Apesar de evitar danos físicos, o auto-parking nada pode fazer para evitar perda de dados ao desligar o micro incorretamente. Mesmo que todos os arquivos estejam salvos, ainda existem dados no cache de disco (criado pelo sistema operacional, usando parte de memória RAM) e também no cache do HD, que utiliza memória SDRAM (também volátil). Para acelerar as operações de gravação, todos os arquivos (sobretudo os pequenos) são salvos inicialmente nos caches e depois transferidos para os discos magnéticos em momentos de ociosidade. Quando o micro é desligado abruptamente, os dados em ambos os caches são perdidos, fazendo com que você sempre perca as últimas alterações, muitas vezes em arquivos que acreditava estarem salvos.

    Por causa de tudo isso, é sempre importante usar um nobreak em micros de trabalho. A longo prazo, os dados perdidos e possíveis danos ao equipamento por causa de quedas de energia acabam custando muito mais do que um nobreak popular.

    Mesmo assim, por melhores que sejam as condições de trabalho, o HD continua sendo um dispositivo baseado em componentes mecânicos, que têm uma vida útil muito mais curta que a de outros componentes do micro. De uma forma geral, os HDs para desktop funcionam de forma confiável por de dois a três anos (em um PC usado continuamente). Depois disso, é melhor substituir o HD por um novo e mover o antigo para outro micro secundário, onde ele não vá armazenar informações importantes, pois a possibilidade de defeitos começa a crescer exponencialmente.

    Fala-se muito sobre a vulnerabilidade dos HDs com relação a ímãs. Como os HDs armazenam os dados em discos magnéticos, colocar um ímã suficientemente forte próximo a ele pode apagar rapidamente todos os dados. Existem inclusive "desmagnetizadores", que são eletroímãs ligados na tomada, que você passa sobre os HDs e outros discos magnéticos, justamente com a intenção de apagar os dados rapidamente.

    Entretanto, se você abrir um HD condenado, vai encontrar dois ímãs surpreendentemente fortes instalados dentro do mecanismo que move a cabeça de leitura. Naturalmente, estes ímãs não danificam os dados armazenados (senão não estariam ali ;). O principal motivo disso é que eles estão instalados numa posição perpendicular aos discos magnéticos. Se você remover os ímãs e colocá-los sobre outro HD, vai ver que no outro dia uma boa parte dos dados terão sido perdidos.

    Se você (como todos nós) é do tipo que não consegue desmontar um micro sem deixar cair parafusos nos locais mais inacessíveis do gabinete, tem dificuldades em colocar os parafusos dos dois lados ao instalar o HD e ainda por cima nunca acha uma chave de fenda magnética para comprar, pode usar esses magnetos "roubados" do HD para transformar qualquer chave de fenda em uma chave magnética. Basta "encaixar" os ímãs nela quando quiser o efeito. Esses magnetos são feitos de uma liga contendo neodímio e, além de parafusos, permitem levantar objetos um pouco mais pesados, como martelos, por exemplo... ;)

    Naturalmente, você deve tomar cuidado de não passá-los sobre discos magnéticos, a menos que queira intencionalmente apagá-los. Se você deixar a chave em contato com os ímãs por um longo período, ela continuará magnetizada (por algum tempo) mesmo depois de retirá-los.

    Ao contrário da crença popular, chaves magnéticas não são perigosas para os HDs, pois os magnetos usados são muito fracos se comparados aos magnetos usados no mecanismo de leitura e no motor de rotação do HD. Os próprios discos magnéticos são relativamente resistentes a forças magnéticas externas, de forma que ímãs de baixa potência não oferecem grande perigo.


Por dentro de uma fábrica de chips

às 16:21

Entenda como um punhado de areia se transforma em processadores e chips de memória flash.


de ser utilizado como processador ou para armazenagem de dados, os chips de silício são cada vez mais onipresentes no dia a dia das pessoas. Desde seu celular até seu computador – passando por iPod, pendrive e câmera digital – todos esses aparelhos utilizam pelo menos um chip de silício.

Apesar de diferenças estruturais significativas, a produção de chips para processamento de dados ou armazenagem de informação é muito semelhante. Ambos os produtos surgem de wafers (bolachas, em tradução direta) de silício tratadas com pigmentos, esculpidas quimicamente e recortadas ao final do processo.

A fantástica fábrica de wafers

No começo de fevereiro de 2010 a IM Flash Technologies – joint venture da Intel e da Micron Technologies – abriu as portas da sua fábrica em Lehi, Utah, para diversos membros da imprensa.

A IMFT Lehi é uma fábrica exclusivamente dedicada à produção de memória NAND Flash, mas como o processo produtivo de wafers não difere muito, o local servirá de exemplo neste artigo.

IMFT Lehi

O prédio da IMFT Lehi é enorme, e como você pode conferir, fica num cenário de montanha de dar inveja. Aliás, vale lembrar: as fotos utilizadas neste artigo são de autoria do pessoal do PC Perspective, um dos blogs convidados a visitar a fábrica durante sua instalação e início da produção.

Tecnologia além do chip

O prédio da fábrica é um show à parte. Toda a estrutura é mantida nos pilares dos andares mais baixos, e nenhuma parede interna do andar ocupado – CleanroomBallroom Fab” na imagem abaixo - suporta carga, servindo apenas como divisórias de ambientes.

Corte esquemático da fábrica IMFT Lehi

Com isso, o andar principal torna-se um enorme salão de vão livre. Nele os operários transitam, operam equipamentos e carregam informação para o maquinário espalhado nos andares inferiores – Clean Subfab eUtility level.

Um ponto importante – e bastante interessante – do processo de fabricação é que, em nenhum momento, os operários entram em contato direto com os wafers de silício. Mesmo assim as normas de operação exigem que os funcionários utilizem máscaras completas – deixando apenas os olhos descobertos – e roupas especiais para evitar a contaminação por partículas na fábrica.

Visão interna mostrando as perfurações no assoalho da plantaNa foto ao lado você percebe que o assoalho do andar é todo perfurado. Isso é mais uma providência tomada para impedir a contaminação por poeiras e outras partículas no ambiente da fábrica.

Como a temperatura e a umidade do ar são controladas, a engenharia dos andares utiliza o próprio ar-condicionado para gerar um fluxo descendente, carregando pó e qualquer outro elemento estranho para o andar mais baixo do prédio, onde apenas serviços de manutenção são desempenhados.

Todo o material produzido é manuseado por máquinas. Robôs programados carregam os FOUP (Front Opening Unified Pod – cartucho unificado aberto pela frente) com as bolachas pelas diversas estações de fabricação, fazendo com que o trabalho humano seja principalmente de manutenção, acompanhamento e resolução de problemas.

Ensopado e churrasco

O processo de obtenção dos wafers é relativamente simples. Antes de tudo é necessário se obter silício – um dos principais componentes da areia. Obviamente determinados tipos de areia contêm um percentual maior de silício em sua composição, o que os torna ideais para a obtenção do material.

Com a areia correta carregada, além de alguns outros elementos necessários para a obtenção das propriedades elétricas necessárias a um chip de computador, cria-se um melt ao derreter a mistura de areia e outras cargas.

Processo de obtenção das barras de silício que serão fatiadas em wafers

Pronto o melt, aplica-se um cristal de silício extremamente puro (em torno de 99,99% de silício) e sem falhas estruturais. O silício presente no melt se agrupa em torno deste cristal quase puro, formando uma barra de silício com praticamente a mesma pureza – com uma parcela mínima dos aditivos usados na mistura inicial.

Quando a barra de silício já tem tamanho suficiente, ela é retirada e levada para o corte. Os wafers são fatias transversais da barra cristalina, mais ou menos como um churrasqueiro faz com uma linguiça.

Da bolacha à lasca

Com o wafer recortado, o disco de cristal de silício passa por uma série de ajustes visando remover imperfeições e preparar a superfície para a impressão dos circuitos.

Wafer de 300mm com pingmentosDepois de ter sua face polida, cada bolacha recebe várias camadas de pigmentos e outras substâncias químicas. Essas camadas extras receberão a impressão do circuito responsável pelo funcionamento do chip.

Essa impressão é feita de maneira semelhante a uma gravura, em um processo chamado fotolitografia. O desenho dos circuitos é criado em uma máscara – em um tamanho bem maior do que o do chip – e projetado através de lentes sobre as camadas que foram adicionadas depois do polimento.

Os locais onde a luz incide sobre o wafer são impressionados pela luz – não muito diferente do que acontece em uma fotografia – e tratados com agentes químicos para remover as partes indesejadas no circuito. Essa é a impressão dos caminhos dos elétrons.

Perceba que um wafer hoje considerado como estado da arte tem 300 mm de diâmetro – o próximo passo é aumentar essa medida para 450 mm – e chips de computador são muito menores do que isso. Cada disco recebe a impressão de vários chips, que serão posteriormente destacados e destinados às embalagens escuras que você encontra dentro da sua máquina.

Imagem macro de dies de 25nmCada wafer é dividido, através da impressão dos circuitos, em dies – a área correspondente ao espaço ocupado por um elemento do circuito. No caso das bolachas de 300 mm utilizadas hoje, um único disco pode entregar até bilhões de dies.

Nem todos os dies são funcionais, entretanto. Contando o espaço de manipulação pelas máquinas, as áreas com informação de produção e falhas de impressão ou deposição de camadas, uma parcela de cada wafer é desperdiçada.

Como cada die não forma um circuito completo, esses bilhões de espaços tornam-se milhares – e em alguns casos apenas centenas – de chips. Depois de completado o processo de impressão, os chips são recortados do wafer e embalados em plástico para receber seu destino final.

Os chips criados por esse processo – como já foi dito antes – são utilizados tanto em processadores como em memória flash. O que diferencia um do outro são o tamanho final – chips de memória têm um formato padrão, o que não acontece com processadores – e o circuito impresso na etapa da fotolitografia .

O pessoal do PC Perspective colocou uma comparação interessante entre os tamanhos dos dois tipos de chip, que você confere nas fotos a seguir. Perceba que os chips de memória são bem menores que os de processadores (a moeda de quarter - à esquerda - tem aproximadamente o tamanho da moeda de 50 centavos brasileira, enquanto a de cent - à direita - tem o tamanho da nossa moeda de 1 centavo).

Processador em comparação com um quarter americano Cip de memória flash comparado a um cent americano

Saindo da fábrica

Drive SSD com 10 chips NADN flash de 16 GB. Cada chip usa 3 dies de 4 GB.No total, o processo de fabricação de um chip – da extração do silício até as ligações elétricas e acondicionamento em plástico – dura duas semanas. A IMFT Lehi, ao atingir sua capacidade máxima de produção, fabricará dois mil chips por dia, prontos para a venda a empresas como a Intel e a Micron.

Dentro de cada computador, celular, MP3 player ou praticamente qualquer equipamento que você utiliza está – pelo menos – um desses componentes. Agora você já sabe toda a jornada que faz com que areia se torne um eletrônico refinado e de altíssima tecnologia.

fonte: baixaki

Saiba tudo o que você paga ao comprar um game.

às 01:39

Quando falamos sobre pirataria, há algumas semanas, muitas pessoas expressaram a opinião de que se os jogos originais fossem mais baratos, em território nacional, elas deixariam as cópias ilegais de lado. No entanto, constatamos uma grande ilusão por parte de alguns de que o preço baixaria a níveis absurdamente pequenos — mesmo se não houvesse imposto algum, isso não aconteceria.

Afinal de contas, basta fazer um pouco de matemática simples para entender que não veremos o preço de grandes lançamentos por menos de R$ 100,00, mesmo que um milagre faça com que toda a tributação sobre o setor desapareça. Veja abaixo uma comparação feita com o preço padrão de um “blockbuster”:

  • Estados Unidos — 50 dólares — R$92,73 (utilizando a taxa de câmbio de 11/02/10)

Se adicionarmos o lucro do vendedor, e assumindo que exista apenas ele de intermediário, cem reais é o mínimo que seria atingido; ou seja, nada dos 30 ou 40 reais que muitos acham “justo” para um título cujo investimento de produção foi de milhões de dólares.

Você gostaria de comprar Mass Effect 2 por cem reais?

Tributos

Fazendo as contas

Mas então por que um game no Brasil é vendido a exorbitantes 250 reais, ainda considerando um grande “blockbuster”? Para entender, vamos fazer algumas contas. Abaixo segue uma pequena lista dos tributos que incidem sobre uma cópia de um jogo eletrônico, de acordo com a pesquisa que realizamos:

  • Imposto de Importação: 20%
  • Imposto sobre Produtos Industrializados: 30%
  • PIS/Cofins: 9,25%
  • Imposto sobre Circulação de Mercadorias e Serviços: 18 - 25%

Esses são apenas os impostos, e não contam os custos de importação — tentamos obter esses de algumas empresas que comercializam games no Brasil, mas não recebemos resposta em tempo de inseri-las neste artigo. Ou seja, transporte, lucro de intermediários, fretes e outros gastos nesse sentido não estão sendo contabilizados.

Peguemos o preço obtido acima, R$ 92,73. Com toda a tributação — que se aplica cumulativamente, na ordem exposta — o preço passa a R$ 157,35. Ou seja, mesmo que ninguém esteja lucrando nada, e todos os envolvidos estejam trabalhando de graça (o que é um cenário absurdo e exclusivamente hipotético), este é o preço de um jogo, para que entre de forma legal no país.

Nem a foice de Dante consegue cortar os preços

Se passarmos a um cenário simulado, puramente para fins de exercício mental, no qual existem três envolvidos — uma distribuidora internacional, uma distribuidora nacional e a loja na qual a cópia está sendo vendida — e cada um deles coloca em cima do preço a que recebe o produto um lucro de 10%, a coisa fica ainda mais compreensível (todos os valores abaixo são aproximados):

Os R$ 92,71 passam a R$ 101,98 antes mesmo de entrar no Brasil. Aí incidem os impostos, que levam o game a R$ 185,78. A distribuidora nacional então incute seus custos e lucro, aumentando esse valor para R$ 204,38. A loja então embute seus lucros, e o preço que você na prateleira é o de R$ 224,81. Parece familiar? Isto porque nossa situação hipotética é bastante modesta.

Indignação

Você pode estar pensando, a essa altura: “mas isso é uma tremenda pilantragem!”. E com razão, já que o preço mais do que dobrou — o preço final de nosso exercício mental realizado acima é 242,50% maior do que o preço original do produto; sendo que, ao ser vendido por 50 dólares no exterior, a cópia já levou em consideração a produção, fabricação e distribuição do game por lá.

A situação é ainda pior quando consideramos que não existe indústria nacional para substituir os produtos que estão sendo taxados. Ou seja, existe uma proteção a uma indústria praticamente inexistente, que não se beneficia dessas medidas. Se mais games entrassem no Brasil, inclusive, as empresas de fora poderiam instalar-se aqui e trazer tecnologia que seria absorvida pelas companhias nacionais.

Consoles sofrem ainda mais

Já que levantamos o assunto de consoles, vale lembrar que as plataformas sofrem ainda mais do que os games. Isto porque os impostos são mais altos e os custos de transporte, armazenamento e logística em geral para a vinda deles ao Brasil é ainda maior. Façamos algumas contas como as que fizemos para games acima:

  • PlayStation 3 Slim 120Gb nos Estados Unidos — 299,99 dólares — R$ 556,24 (com a cotação de 10/02/10).

Os impostos incidentes sobre as plataformas seguem abaixo:

  • Imposto de Importação - 20%
  • Imposto sobre Produtos Industrializados - 50%
  • PIS/Cofins - 9,25%
  • Imposto sobre a Circulação de Mercadorias e Serviços - 18 - 25%

Ou seja, os consoles pagam muito mais IPI e um Imposto de Importação ligeiramente maior. Mas, como são mais caros que um game, o resultado é ainda maior. Sem contar custos adicionais, assumindo mais uma vez que as pessoas trabalhem de graça, o custo sobe para algo em torno de R$ 1367,31 após os impostos. Já é quase três vezes o preço original. No entanto, existe um porém.

Se verificarmos o preço de um PS3 Slim em diversas lojas, ele é encontrado por algo em torno de R$ 1399,00. Ou seja, a margem de lucro em cima deles é bem menor, e os custos são aliviados através da produção em massa. Além da política de ganhar dinheiro em cima de games, e não de consoles, obviamente.

Se comparado aos games, ele até que sai por um preço razoável...

Se adicionássemos os lucros e custos dos intermediários, o preço subiria ainda mais! Ou seja, embora não tenhamos nenhuma resposta oficial, imaginamos que os consoles são vendidos aos distribuidores internacionais a um preço inferior ao que vemos acontecer com os game; cujo preço é proporcionalmente muito maior para nós, se comparado ao de consoles.

Mas nós entramos direto nos cálculos e mostramos muitos números, sem dizer por que eles são desse jeito. Então aproveitemos a nossa deixa sobre a indústria nacional e passemos a uma breve explanação sobre a razão de ser de tanta tributação sobre um de nossos hobbies favoritos.

Razões

Quem quis assim?

Como bem sabemos, a indústria da informática é um ramo relativamente novo, especialmente no Brasil. Assim, as leis que discorrem sobre o assunto surgiram, na forma como as conhecemos hoje, apenas na década de 90. A Lei nº 8248, de 23 de outubro de 1991, “dispõe sobre a capacitação e competitividade do setor de informática e automação, e dá outras providências”, segundo seu próprio texto.

Nela, existem inúmeras disposições sobre benefícios, incentivos e outras definições do setor, mas deixa de lado os jogos eletrônicos em específico. Por isso, surgiu em 2007 um projeto de lei do deputado Carlito Merss, que visava incluir os games nos benefícios concedidos pela lei supracitada. Ou seja, haveria apoio legal à indústria.

No entanto, o projeto não parece ter ido adiante e infelizmente continuamos a ter uma tributação pesada sobre o mercado de jogos eletrônicos. Segundo o projeto de lei do deputado, o preço de um console pode chegar a 257% do valor FOB — free on board, estilo de importação largamente utilizado e que representa o preço do produto na hora em que está no navio pronto para ser encaminhado ao destino.

A razão principal para tamanha tributação consiste da aplicação de um princípio de direito tributário: o da essencialidade. De acordo com esse princípio, produtos que não sejam essenciais, como o próprio nome indica, sofrem tributação maior.

Art. 1º Aplicar medida de salvaguarda, sob a forma de elevação da alíquota do imposto de importação, por meio de adicional à Tarifa Externa Comum - TEC, sobre as importações de brinquedos acabados a seguir relacionados, classificados nos respectivos códigos tarifários, de acordo com o seguinte cronograma:

[...]

9504.10.10 Jogos de Vídeo, exceto peças e componentes para fabricação dos brinquedos desta posição

9504.10.91 Cartuchos, exceto peças e componentes para fabricação dos brinquedos desta posição

9504.10.99 Outras partes e acessórios, exceto peças e componentes para fabricação dos brinquedos desta posição

Ou seja, jogar video game não é um direito, muito menos algo essencial ao cidadão brasileiro. E, aos olhos de nosso ordenamento jurídico, é até mesmo menos importante do que outras formas de entretenimento que possuem incentivos e regulamentações muito mais apropriados e bem pensados.

O caminho de um produto

Desde o desenvolvedor até a loja

Um dos objetivos iniciais de nosso artigo era explicar passo a passo o caminho percorrido por um título, desde sua criação até a chegada às lojas de varejo. Porém, inúmeras das empresas brasileiras de distribuição já não possuem assessoria de imprensa ou informações concretas nesse sentido. Portanto, precisaremos adiar e estender um pouco mais a pesquisa para trazer dados concretos.

O que já podemos adiantar é que o caminho é longo, e cheio de obstáculos. Desde a saída do software da empresa de desenvolvimento, o envio a uma empresa que o coloca em discos e cria as cópias, a manufatura das embalagens, a distribuição aos diferentes mercados... Ou seja, realmente é algo que precisa de informações precisas, e não vale a pena trazê-las fragmentadas. Quem sabe em um futuro próximo não conseguimos condensar as informações e trazê-las em formato conciso.

Solução

Existe uma?O governo ri à toa e embolsa a grana

Difícil dizer, mas o primeiro passo consiste, sem dúvida nenhuma, de uma análise do cenário da indústria brasileira de video games — realizada pelo próprio governo ou apresentada a ele por alguém. Somente a partir daí poderão ser tomadas decisões sensatas. Com um estudo desse tipo, o governo perceberá rapidamente que os profissionais capacitados que nosso país forma acabam indo ao exterior para encontrar posições dignas de sua formação.

Ao diminuir os impostos e permitir uma maior inserção das empresas e dos produtos internacionais no mercado interno, a custos mais baixos, o governo fomenta a indústria e permite que o consumidor em geral passe a apoiar os esforços genuínos, ao invés de recorrer à pirataria.

Mas esperar que a resposta venha do céu — ou, para ser mais exato, do governo — não adianta muito. O esforço deve partir principalmente das pessoas envolvidas no ramo, na forma de cobranças e apoio àqueles que têm o poder de mudar alguma coisa. Até lá, vamos continuar a pagar muito mais ao nosso governo do que às pessoas que de fato criaram o produto.


o que é Microsoft?

terça-feira, 2 de março de 2010 às 17:07
Microsoft Corporation (NASDAQ: MSFT) é a uma empresa multinacional de tecnologia informática dos Estados Unidos da América, que desenvolve e fabrica licenças e suporta uma ampla gama de produtos software para dispositivos de computador.[4] Emprega cerca de 89 mil pessoas em 105 países e as suas receitas foram de cerca de 51,12 bilhões de dólares americanos em 2007.[5]
fundada a 4 de Abril de 1975 por Bill Gates e Paul Allen[6] cujo objectivo é desenvolver e comercializar interpretadores da linguagem BASIC. Hoje é uma das empresas de tecnologiaque mais investe em pesquisa e desenvolvimento no mundo.

Foi eleita pelo Great Place to Work Institute (GPTW) como a nona melhor empresa para se trabalhar no Brasil.[7] Seu nome deriva das palavras MICROco

História

A Microsoft foi fundada em 1975 por Bill Gates e Paul Allen. O primeiro produto desenvolvido pela empresa foi uma versão do interpretador BASIC, para o computador Altair 8800 da MITS. Em 1977 é lançado o Microsoft FORTRAN, para computadores baseados em CP/M.

Em 1980 a IBM planeja lançar seu computador pessoal com o sistema CP/M, mas as negociações com a Digital Research falham e a IBM procura a Microsoft para desenvolver o seu sistema operacional. Sem ter um sistema para entregar, a Microsoft acerta um contrato não exclusivo de licenciamento com a IBM e procura a Seattle Computers para comprar o seu sistema Q-DOS. Em 1982 a Microsoft começa a desenvolver aplicações para o Macintosh da Apple, lança o Microsoft COBOL e a planilha eletrónica Multiplan para MS-DOS. No ano seguinte anuncia o Microsoft Word e o Microsoft Windows. Em 1985 a Microsoft e a IBM assinam acordo para desenvolvimento conjunto de um futuro sistema operacional, no mesmo ano lança o Microsoft Windows 1.0 por 99 dólares. Em1987 a Microsoft compra o programa de apresentações PowerPoint e lança a planilha eletrônica Excel. Em 1988 a Apple acusa a Microsoft de plágio sobre o seu Macintosh OS (contudo este se baseia no sistema gráfico do Xerox Alto) com o Windows 2.0, no ano seguinte formam uma aliança para desenvolver o padrão de fontes TrueType.

Em 1990 a Microsoft apresenta o Windows 3.0 para computadores pessoais e o OS/2 desenvolvido com a IBM para estações de trabalho. Nos anos seguintes anuncia em conjunto com outras empresas os padrões Multimidia PC, Advanced Power Management e o Plug and Play. Em 1992 a Microsoft e a IBM encerram o acordo de cooperação e dividem o sistema desenvolvido, a IBM passa a desenvolver o OS/2 4.0 e a Microsoft anuncia o Windows NT 3.0, no mesmo ano lança o Microsoft Access para Windows.

Em 1995 é lançado o Windows 95, um sistema operacional completo para computadores pessoais que elimina a necessidade do MS-DOS. No mesmo mês lança o Internet Explorer, parte do pacote Windows 95 Plus!, vendido separadamente. No ano seguinte lança o Windows NT 4.0, com o visual do Windows 95 e a segurança do Windows NT.

Em 1997 a Microsoft compra a WebTV e investe 150 milhões de dólares na concorrente Apple. No ano seguinte lança o Windows 98 incorporado ao Internet Explorer, iniciando um processo de monopólio movido pelo governo dos Estados Unidos, esse processo terminou em 2001 com a condenação da empresa. Em 1999 lança a segunda versão do Windows 98, chamada SE, uma forma de contornar o erro cometido com o IE, alegando que o SO não poderia funcionar sem o IE incorporado. Esta versão trouxe algumas melhorias e aprimoramentos, mas manteve-se o mesmo núcleo problemático e instável do Windows 95.

Edifício da Microsoft na Argentina.

Em fevereiro de 2000 lança o Windows 2000 (com atraso), uma melhoria do Windows NT com interface mais parecida com o Windows 98, mais segurança e mais robustez. Inicialmente voltado para a corporação, existiram várias versões como a Professional, Server, Advanced Server, Data Center Server, entre outras mais específicas como o Enterprise Server para sistemas de Grande Porte. Com a carência de uma atualização do ambiente doméstico, em meados de outubro deste mesmo ano, entrega ao público o Windows Me, uma versão mais aprimorada do Windows 98 com diversos recursos, mas com muitos erros e bugs, no qual foi praticamente ignorada pelo mercado.

Em 2001 lança o Windows XP juntando as linhas de sistemas operacionais Windows 95/98/Me para computadores pessoais, com o Windows NT/2000 para estações de trabalho, introduzindo uma nova interface gráfica. No mesmo ano lança a Xbox, a seu primeiro console de videogame que ia competir com o Sony PlayStation e o Nintendo GameCube.

Curiosamente, em meados de 1999, a Microsoft estava desenvolvendo uma versão do Windows 2000 para usuários domésticos no qual se chamaria Home Editon. Mas este projeto ficou engavetado e somente em 2001 foi apresentando para o público como WINDOWS XP HOME EDITION.

No inicio de 2007 lança oficialmente (com atraso), o Windows Vista com uma interface gráfica avançada, mais estável e com uma versão mais segura do Internet Explorer, entretanto, mais lento e "pesado" para os computadores da época, no qual o levou muito rápido do topo ao solo, gerando diversas insatisfações e críticas do público em geral.

Em 2007, é lançado o OFFICE 2007 com nova interface, maior produtividade e segurança.

Em 1994, antes do lançamento do Windows 95, a empresa já havia sido processada por pressionar fabricantes de equipamentos a lançar seu produto apenas para sua plataforma operacional. Por tal acto a empresa foi multada em um milhão de dólares norte-americanos por dia até que cessasse as perseguições de que se referiram os pressionados.A partir de 1998 foi envolvida numa disputa legal com o governo federal dosEstados Unidos a respeito do uso de prática ilegais com o objetivo de criação e manutenção de um monopólio na área de software. Este processo acabou em 2001 com o veredito de condenação da empresa, e a imposição de novas normas de conduta para o mercado de tecnologia. As evidências levantadas durante o julgamento contribuíram para aumentar junto ao público a percepção de que a empresa se utilizou de práticas anti-competitivas para alcançar a posição dominante que desfruta até hoje no mercado. Muitos dos processos foram movidos por consumidores de 18 estados americanos, e não apenas por empresas, que a acusaram de desrespeitar os direitos do consumidor. E após o pagamento de mais de 3 bilhões de dólares em indenizações a empresa pôde continuar com seus negócios.

Torre Norte no CENU em São Paulo, sede da Microsoft no Brasil.[8]

Tradicionalmente, o movimento de software livre abriga os maiores críticos dos produtos Microsoft, em especial o Windows, considerado por muitos um produto instável e inseguro, e o crescimento de soluções livres como o sistema operacional GNU/Linux, que cresceu muito em número de usuários, o navegador Firefox, o servidor Apache e o conjunto de programas de escritório OpenOffice.org, sendo as maiores ameaças ao futuro dos negócios de empresa, juntando a Google e a Apple, que têm crescido muito nos últimos anos.

Em 30 de Janeiro de 2007 a Microsoft realizou o lançamento do Windows Vista em diversas versões destinadas à diversos públicos como: Starter, Home Basic, Home Premium, Business e Ultimate, além de estar disponível para sistemas 32 bits e 64 bits. A empresa não respeita os padrões da Internet, como os definidos pelo W3C, que ainda não são adotados pelo navegador Internet Explorer.

Mais tarde, no dia 10 de Janeiro de 2009, é lançada a versão de testes do Windows 7 (Seven), a nova versão do sistema operacional para PC. As falhas e críticas que foram registadas no Windows Vista não foram corrigidas, como consumo de memória e sobrecarregamento de processadores excessivos, além de falta de agilidade e insegurança. A versão beta já disponibiliza atualizações da própria Microsoft e o pré-lançamento de drivers de empresas fabricantes de hardware como; nVidia, AMD, Realtek Semicondutor Corp., entre outras.

Finalmente no dia 22 de outubro 2009, a Microsoft lançou o Microsoft Windows 7, sendo bem mais leve do que o seu antecessor, o Microsoft Windows Vista. A Microsoft introduziu no Windows 7 uma nova barra de tarefas (superbar), novas funções de compartilhamento domestico (grupo domestico), Interface AERO mais leve, menor consumo de memoria RAM, nova central de ações, windows defender, mais seguraça, controle de alertas do UAC, gravador de imagens ISO e outras novas funções (aero peek, aero shake).


Microsoft vs Apple

Bill Gates era um estudante fascinado por computadores e se dedicava a estudar lógica e linguagens de programação. Desenvolveu um sistema operacional juntamente com seu amigo Paul Allen para o computador Altair, esse foi o inicio do sucesso de Bill. Steve Jobs também era fascinado por computadores, mas ao contrario de Bill, Steve se aprimorou na área de hardware, ou seja, no desenvolvimento de computadores. A sua idéia era criar computadores pessoais (PC’s), pois até então somente as grandes corporações tinham acesso aos computadores. Após várias tentativas fracassadas finalmente Steve ganha o reconhecimento de sua idéia, então surge a Apple. Com o passar do tempo novos projetos são criados e comprados, com estas uniões surge o Macintosh, uma inovação para época, um computador pessoal com sistema operacional totalmente gráfico e com inúmeras novidades, entre elas o "mouse". Bill Gates com o passar do tempo percebe que o seu sistema desenvolvido em Fortran para o Altair era inútil para o novo conceito de Pc’s, então compra o sistema da Companhia Seattle e o denomina de DOS, este novo sistema fazia a comunicação entre usuário e máquina via linha de comando e era distribuído na nova linha de computadores da IBM. Mas ao saber da existência de um sistema gráfico no Macintosh, Bill determina a seus programadores que criem um sistema igual, que ficou sendo o Windows.

Produtos

A Microsoft produz hoje, uma grande variedade de programas, incluindo sistemas operacionais (Microsoft Windows, como a nova versão que acaba de chegar no Brasil, o Windows 7, e outras versões mais antigas como o Windows Server 2008, Windows Vista, Server 2003, XP,Windows Mobile, entre outros) programas de escritório (pacote Office que contém Word, Excel, Outlook, Powerpoint, InfoPath, Project,OneNote, Visio, Access e Publisher ou Frontpage), ambientes de desenvolvimento de programas (Visual Studio, Web Matrix, Microsoft Plataform Builder e Microsoft Target Designer) e servidores como o SGBD SQL Server e o servidor de correio eletrônico Exchange, entre outros. A Microsoft também produz o navegador Internet Explorer e um conjunto de programas online, o Windows Live, como o já muito conhecido Windows Live Messenger, o também conhecido Windows Live Hotmail, o Windows Live SkyDrive, entre muitos. Além de produzir programas, a Microsoft actua no mercado de serviços on line (com o portal MSN, Windows Live), fabrico de equipamentos, produzindo periféricos (como Mouse, teclados e Joysticks), o console de jogos eletrônicos Xbox e o player de mídia Zune).

A empresa criou a partir de 2001, uma nova tecnologia chamada Microsoft .NET. Tal tecnologia é um framework para isolar os programas dos sistemas operacionais.

A empresa tem um departamento dedicado ao desenvolvimento de jogos, a Microsoft Games Studios, onde são feitos os jogos das séries Age of Empires, Fable, Dungeon Siege, Halo, Supreme Commander, Microsoft Flight Simulator, entre outros.

mputer e SOFTware.

fonte: wikipédia


Microsoft
Microsoft wordmark.svg
TipoPública (NASDAQ: MSFT)
FundaçãoAlbuquerque, Novo México (4 de Abril de 1975)
SedeEstados Unidos Redmond, Washington,Estados Unidos da América
Fundador(es)Bill Gates
Paul Allen
Pessoa(s) chaveSteve Ballmer (Presidente)[1]
Ray Ozzie (CSA)
Craig Mundie (CRSO)
Empregados89,809 em 105 países (2008)[2]
IndústriaProgramas de computador
Editoração
Pesquisa e desenvolvimento
Peças de computador
Videojogos
ProdutosLista de ferramentas e serviços da Microsoft
CotaçãoUS$ 259.75 Bilhões (2007)
Valor de mercadoGreen Arrow Up.svg US$ 36.286 Bilhões (2008)[3]
ReceitaGreen Arrow Up.svg US$ 17.681 Bilhões (2008)[3]
LucroGreen Arrow Up.svg US$ 22.492 Bilhões (2008)[3]
FaturamentoGreen Arrow Up.svg US$ 60.420 Bilhões (2008)[3]
Renda líquidaGreen Arrow Up.svg US$ 72.793 Bilhões (2008)[3]
WebsiteMicrosoft.com

AKITUDO INFORMÁTICA | Powered by Blogger | Entries (RSS) | Comments (RSS) | Designed by MB Web Design | XML Coded By Cahayabiru.com Distribuído por Templates