Fortaleza, Quarta-feira, 17 Abril 2024

Tecnologia da Informação

Mostrando itens por tag: Sistemas

Segunda, 29 Agosto 2016 19:34

Informação

Informação

Informação é o resultado do processamento, manipulação e organização de dados, de tal forma que represente uma modificação (quantitativa ou qualitativa) no conhecimento do sistema (pessoa, animal ou máquina) que a recebe.

Informação enquanto conceito, carrega uma diversidade de significados, do uso quotidiano ao técnico. Genericamente, o conceito de informação está intimamente ligado às noções de restrição, comunicação, controle, dados, forma, instrução, conhecimento, significado, estímulo, padrão, percepção e representação de conhecimento.

É comum nos dias de hoje ouvir-se falar sobre a Era da Informação, o advento da "Era do Conhecimento" ou sociedade do conhecimento. Como a sociedade da informação, a tecnologia da informação, a ciência da informação e a ciência da computação em informática são assuntos e ciências recorrentes na atualidade, a palavra "informação" é freqüentemente utilizada sem muita consideração pelos vários significados que adquiriu ao longo do tempo.
Etimologia

De acordo com o Dicionário Contemporâneo da Língua Portuguesa, informação vem do latim informatio,onis, ("delinear, conceber ideia"), ou seja, dar forma ou moldar na mente, como em educação, instrução ou treinamento.

A palavra do grego antigo para forma era μορφή (morphe; cf. morfo) e também εἶδος (eidos) "tipo, ideia, forma, 'aquilo que se vê', configuração", a última palavra foi usada famosamente em um sentido filosófico técnico por Platão (e mais tarde Aristóteles) para denotar a identidade ideal ou essência de algo (ver Teoria das ideias). "Eidos" também pode ser associado com pensamento, proposição ou mesmo conceito.
Informação como mensagem

Informação é o estado de um sistema de interesse (curiosidade). Mensagem é a informação materializada. Informação é a qualidade da mensagem que um emissor envia para um ou mais receptores. Informação é sempre sobre alguma coisa (tamanho de um parâmetro, ocorrência de um evento etc.). Vista desta maneira, a informação não tem de ser precisa. Ela pode ser verdadeira ou mentirosa, ou apenas um som (como o de um beijo). Mesmo um ruído inoportuno feito para inibir o fluxo de comunicação e criar equívoco, seria, sob esse ângulo, uma forma de informação. Um ruído é usado na teoria da comunicação para se referir a qualquer coisa que interfira na comunicação. Todavia, em termos gerais, quanto maior a quantidade de informação na mensagem recebida, mais precisa ela é.

Este modelo assume que há um emissor definido e ao menos um receptor. Refinamentos do modelo assumem a existência de uma linguagem comum entendida pelo emissor e ao menos por um dos receptores. Uma variação importante identifica a informação como algo que pode ser comunicado por uma mensagem do emissor para um receptor capaz de compreender a mensagem. Todavia, ao exigir a existência de um emissor definido, o modelo da informação como mensagem não acrescenta qualquer significado à idéia de que a informação é algo que pode ser extraída de um ambiente, por exemplo, através de observação, leitura ou medição.

Informação é um termo com muitos significados dependendo do contexto, mas como regra é relacionada de perto com conceitos tais como significado, conhecimento, instrução, comunicação, representação e estímulo mental. Declarado simplesmente, informação é uma mensagem recebida e entendida. Em termos de dados, pode ser definida como uma coleção de factos dos quais conclusões podem ser extraídas. Existem muitos outros aspectos da informação visto que ela é o conhecimento adquirido através do estudo, experiência ou instrução. Mas, acima de tudo, informação é o resultado do processamento, manipulação e organização de dados numa forma que se some ao conhecimento da pessoa que o recebe. A teoria da comunicação analisa a medida numérica da incerteza de um resultado. A teoria da comunicação tende a usar o conceito de entropia da informação, geralmente atribuído a Claude Shannon. Outra forma de informação é a informação Fisher, um conceito de R.A. Fisher.

Mesmo que informação e dados sejam freqüentemente usados como sinônimos, eles realmente são coisas muito diferentes. Dados representam um conjunto de fatos não associados e como tal, não têm utilidade até que tenham sido apropriadamente avaliados. Pela avaliação, uma vez que haja alguma relação significativa entre os dados e estes possam mostrar alguma relevância, são então convertidos em informação. Agora, estes mesmos dados podem ser usados com diferentes propósitos. Assim, até que os dados expressem alguma informação, não são úteis.
Medindo a entropia da informação

A visão da informação como mensagem entrou em destaque com a publicação em 1948 de uma influente dissertação de Claude Shannon, A Mathematical Theory of Communication. Esta dissertação fornece as fundações da teoria da informação e dota a palavra informação não somente de significado técnico mas também de medida. Se o dispositivo emissor é igualmente capaz de enviar qualquer um dentre um conjunto de  mensagens, então a medida preferida da "informação produzida quando uma mensagem é escolhida do conjunto" é o logaritmo da base dois de  (esta medida é chamada auto-informação). Neste artigo, Shannon prossegue:

“A escolha de uma base logarítmica corresponde a escolha de uma unidade para medir a informação. Se a base 2 é usada, as unidades resultantes podem ser chamadas dígitos binários, ou mais resumidamente, bits, uma palavra sugerida por J. W. Tukey. Um dispositivo com duas posições estáveis, tais como um relé ou um circuito flip-flop, pode armazenar um bit de informação. N de tais dispositivos podem armazenar N bits…”

Um meio complementar de medir informação é fornecido pela teoria algorítmica da informação. Em resumo, ela mede o conteúdo de informação duma lista de símbolos baseando-se em quão previsíveis eles são, ou, mais especificamente, quão fácil é computar a lista através de um programa de computador: o conteúdo de informação de uma seqüência é o número de bits do menor programa capaz de computá-lo. A seqüência abaixo deveria ter uma medida de informação algorítmica muito baixa dado que é um padrão perfeitamente previsível e a medida que o padrão continua, a medida não deveria alterar-se. A informação de Shannon deveria retornar a mesma medida de informação para cada símbolo, visto que são estatisticamente aleatórios, e cada novo símbolo incrementaria a medida:

123456789101112131415161718192021

É importante reconhecer as limitações da teoria de informação tradicional e da teoria algorítmica de informação da perspectiva do significado humana. Por exemplo, ao referir-se ao conteúdo significante de uma mensagem, Shannon observou: "freqüentemente, mensagens possuem significado; estes aspectos semânticos da comunicação são irrelevantes para o problema de engenharia. O aspecto significativo é que a mensagem real é uma selecionada de um conjunto de mensagens possíveis" (grifo no original).

Michael Reddy observou que "'sinais' da teoria matemática são 'padrões que podem ser trocados'. Não há mensagem contida no sinal, os sinais expressam a capacidade de escolher dentre um conjunto de mensagens possíveis." Em teoria da informação, "o sistema deve ser projetado para operar com qualquer seleção possível, não apenas com aquela que será realmente escolhida, visto que esta é desconhecida ao tempo do projeto".


Informação como padrão

 

Zebra em ASCII


Zebra em ASCII

Imagem de uma zebra construída em ASCII,

sistema utilizado para codificar informações em computadores.


Informação é qualquer padrão representado. Esta visão não assume nem exatidão nem partes que se comuniquem diretamente, mas em vez disso, assume uma separação entre o objeto e sua representação, bem como o envolvimento de alguém capaz de entender este relacionamento. Logo, este ponto de vista parece exigir uma mente consciente. Considere-se o seguinte exemplo: a estatística econômica representa uma economia, todavia de forma não precisa. O que é geralmente denominado como dados em computação, estatística e outros campos, são formas de informação neste sentido. Os padrões eletromagnéticos numa rede de computadores e dispositivos periféricos estão relacionados a algo além do padrão em si mesmo, tais como caracteres de texto para serem exibidos e entradas de teclado. Sinais, signos e símbolos estão também nesta categoria. Por outro lado, de acordo com a semiótica, dados são símbolos com uma sintaxe determinada e informação são dados com uma determinada semântica. Pintura e desenho contém informação ao nível em que representam algo tal como uma miscelânea de objetos sobre uma mesa, um retrato ou uma paisagem. Em outras palavras, quando um padrão de alguma coisa é transposta para o padrão de alguma outra coisa, o último é a informação. Este tipo de informação ainda assume algum envolvimento da mente consciente, seja da entidade construindo a representação, ou da entidade que a interpreta.
Informação e Semiótica

Beynon-Davies explica o conceito multi-facetado de informação em termos de sinais e de sistemas de signos-sinais. Os signos em si, podem ser considerados em termos de quatro níveis inter-dependentes, camadas ou ramos da semiótica: pragmática, semântica, sintaxe e empirismo. Estas quatro camadas servem para conectar o mundo social, por um lado com o mundo físico ou técnico, por outro lado ...

Pragmática está preocupada com o propósito de comunicação. A pragmáticas relaciona a questão dos sinais com o contexto no qual os sinais são usados. O foco da pragmática é sobre as intenções dos agentes reais subjacentes ao comportamento comunicativo. Em outras palavras, a pragmática estabelece uma ligação do idioma com a ação.

Semântica se preocupa com o significado de uma mensagem transmitida em um ato comunicativo. A semântica considera o conteúdo da comunicação. A semântica é o estudo do significado dos sinais - a associação entre sinais e comportamento. A semântica pode ser considerada como o estudo da relação entre símbolos e seus referentes ou conceitos, particularmente a forma como os sinais se relacionam com o comportamento humano.

Sintaxe está preocupada com o formalismo utilizado para representar uma mensagem. A sintaxe como uma área estuda a forma de comunicação em termos de lógica e gramática dos sistemas de signos. A sintaxe é dedicada ao estudo da forma e não ao conteúdo de sinais e sistemas de signos.
Outras visões da informação
Informação como estímulo sensorial

Frequentemente, a informação é vista como um tipo de estímulo a um organismo ou a um determinado dispositivo. Neste sentido, a informação é um conhecimento inscrito ou gravado sob uma forma escrita, oral ou audiovisual. A informação comporta então um elemento de sentido, sendo um significado transmitido a um ser consciente por meio de uma mensagem veiculada em um meio que pode ser impresso, um sinal elétrico, uma onda sonora, etc.
Informação como uma influência que leva a transformação

Informação é qualquer tipo de padrão que influencia a formação ou transformação de outros padrões. Neste sentido, não há necessidade de que uma mente consciente perceba, muito menos reconheça, tal padrão.
Informação como uma propriedade na física

Informação tem um papel bem definido em física. Exemplos disto incluem o fenômeno da armadilha quântica, onde partículas podem interagir sem qualquer referência a sua separação ou à velocidade da luz.
Informação e dados

As palavras informação e dados, são intercambiáveis em muitos contextos. Todavia, não são sinônimos. Por exemplo, de acordo com a observação de Adam M. Gadomski (1993), dados é tudo que pode ser processado e as informações são dados que descrevem um domínio físico ou abstra(c)to. Knuth aponta que o termo dados se refere a representação do valor ou quantidade medida ao passo que informação, quando usada em um sentido técnico, é o significado daquele dado.
Informação como registros

Registros (ou registosPE) são uma forma especializada de informação. Essencialmente, registros são informações produzidas como subprodutos de actividades comerciais ou transações, ou conscientemente como um registo de tais actividades ou transações e retidas em virtude do seu valor. Primariamente o seu valor é como evidência das atividades da organização, mas eles também podem ser conservados por seu valor informativo. O gerenciamento de registros (Records management) de sons garantem que a integridade dos registros seja preservada enquanto forem necessários.

Referências

↑ Serra, J. Paulo. Manual de Teoria da Comunicação. Covilhã: Livros Labcom, 2007. 203 p. p. 93-101. ISBN 978-972-8790-87-5

↑ Petzold, Charles. Code: The Hidden Language of Computer Hardware and Software (em inglês). Redmond: Microsoft Press, 2000. 393 p. p. 72-73. ISBN 0-7356-1131-9

↑ a b Shannon, Claude E.; Weaver, Warren. The Mathematical Theory of Communication (em inglês). Illinois: Illini Books, 1949. 117 p. Library of Congress Catalog Card nº 49-11922

↑ Salomon, David. Data Compression: The Complete Reference. 2 ed. [S.l.]: Springer, 2000. p. 279. ISBN 0-387-95045-1

↑ The Bell System Technical Journal, Vol. 27, p. 379, (Julho de 1948).

↑ Blackburn, Perry L.. The Code Model of Communication. [S.l.]: SIL International, 2007. ISBN 1-55671-179-4

↑ Niemeyer, Luci. Elementos de Semiótica Aplicados ao Design. 2ª ed. Rio de Janeiro: Novas Idéias/2AB Editora, 2007. p. 35. ISBN 85-86695-31-9

↑ Beynon-Davies, P.. Information Systems: an introduction to informatics in Organisations. Basingstoke, UK: Palgrave, 2002. ISBN 0-333-96390-3

↑ Beynon-Davies, P.. Business Information Systems. Basingstoke, UK: Palgrave, 2009. ISBN 978-0-230-20368-6

↑ Barros, Diana Luz Pessoa de. Teoria Semiótica do Texto. 4ª ed. São Paulo: Ática, 2005. ISBN 85-08-03732-5

↑ Gudwin, Ricardo; Queiroz, João. Semiotics and Intelligent Systems Development. Hershey: Idea Group Publishing. Capítulo: V - Symbols:Integrated Cognition and Language, p. 130. ISBN 1-59904-063-8|

↑ Oliveira, Marlene de (coordenadora). Ciência da Informação e Biblioteconomia: Novos Conteúdos e Espaços de Atuação. Belo Horizonte: Editora UFMG, 2005. ISBN 85-7041-473-0

↑ Knuth, Donald E.. Selected Papers on Computer Science. Cambridge: Cambridge University Press. 274 p. p. 1-2. ISBN 1-1881526-91-7

Bibliografia

BEKENSTEIN, Jacob D. (Agosto, 2003). Informação no universo holográfico. Scientific American. Recuperado de Reference Center.

BRETON, P. & PROULX S (1989). L’explosion de la communication; la naissance d’une nouvelle ideologie. Paris: La D’couverte, 1989.

FLORIDI, Luciano, (2005). 'Is Information Meaningful Data?', Philosophy and Phenomenological Research, 70 (2), pp. 351 - 370. Disponível online em Floridi.

FLORIDI, Luciano, (2005). 'Semantic Conceptions of Information', The Stanford Encyclopedia of Philosophy (Edição de Inverno, 2005), Edward N. Zalta (ed.). Disponível online em Semântica.

Publicado em Informação
Sábado, 27 Agosto 2016 16:31

Sistema

Sistemas de informação e ciência da computação

Em ciência da computação e ciência da informação, sistema pode ser também uma função Sub-rotina ou um algoritmo. Para o primeiro caso existem os sistemas de cálculo, como os numerais romanos, e vários sistemas para preenchimento de formulários, e no segundo caso há os de catalogação, como vários sistemas de biblioteca e de livrarias que usam a Classificação facetada de Dewey, por exemplo. Isto ainda se encaixa com a definição de componentes que são interconectados (neste caso, no intuito de facilitar o fluxo de informações)


1)Sub-rotina
Em ciência da computação, mais especificamente no contexto da programação, uma sub-rotina (função, procedimento ou mesmo subprograma) consiste em uma porção de código que resolve um problema muito específico, parte de um problema maior (a aplicação final). O conceito de função difere da noção de procedimento, já que devolve um valor, se bem que, em algumas linguagens, esta distinção não é sequer existente; por exemplo, em C, a implementação de um procedimento é uma função do tipo void. No contexto da programação orientada a objetos, estas sub-rotinas são encapsuladas nos próprios objetos, passando a designar-se métodos.

2)Algoritmo
Algoritmo é uma sequência finita de instruções bem definidas e não ambíguas, cada uma das quais devendo ser executadas mecânica ou eletronicamente em um intervalo de tempo finito e com uma quantidade de esforço finita.

O conceito de algoritmo é frequentemente ilustrado pelo exemplo de uma receita culinária, embora muitos algoritmos sejam mais complexos. Eles podem repetir passos (fazer iterações) ou necessitar de decisões (tais como comparações ou lógica) até que a tarefa seja completada. Um algoritmo corretamente executado não irá resolver um problema se estiver implementado incorretamente ou se não for apropriado ao problema. Jean Luc Chabert



Um sistema (do grego σύστημα systēma, através do latim systēma), é um conjunto de elementos interdependentes de modo a formar um todo organizado. É uma definição que acontece em várias disciplinas, como biologia, medicina, informática, administração, direito. Vindo do grego o termo "sistema" significa "combinar", "ajustar", "formar um conjunto".

Todo sistema possui um objetivo geral a ser atingido. O sistema é um conjunto de órgãos funcionais, componentes, entidades, partes ou elementos e as relações entre eles, a integração entre esses componentes pode se dar por fluxo de informações, fluxo de matéria, fluxo de sangue, fluxo de energia, enfim, ocorre comunicação entre os órgãos componentes de um sistema.

A boa integração dos elementos componentes do sistema é chamada sinergia, determinando que as transformações ocorridas em uma das partes influenciará todas as outras. A alta sinergia de um sistema faz com que seja possível a este cumprir sua finalidade e atingir seu objetivo geral com eficiência; por outro lado se houver falta de sinergia, pode implicar em mau funcionamento do sistema, vindo a causar inclusive falha completa, morte, falência, pane, queda do sistema etc.

Vários sistemas possuem a propriedade da homeostase, que em poucas palavras é a característica de manter o meio interno estável, mesmo diante de mudanças no meio externo. As reações homeostáticas podem ser boas ou más, dependendo se a mudança foi inesperada ou planejada.

Também pode-se construir modelos para abstrair aspectos de sistemas, como por exemplo um modelo matemático, modelos de engenharia de software, gráficos.

Em termos gerais, sistemas podem ser vistos de duas maneiras:


  
1) através da análise, em que se estuda cada parte de um sistema separadamente a fim de recompô-lo posteriormente.

2) através de uma visão holista, em que se entende que o funcionamento do sistema como um todo, constitui um fenômeno único, i.e., irredutível em suas partes.

Fonte: Wikipedia

Publicado em Sistemas
Página 2 de 2


Insira aqui o seu Nome e E-Mail para receber gratuitamente as atualizações do Blog do Anísio Alcântara

Nós também detestamos SPAM. Prometemos nunca enviar nenhum E-Mail indesejado para sua caixa postal.





| Principal | Contato | Webmail | Notícias | Android App | NASA Ao Vivo | Águias Ao Vivo | Radio FM | TV Assembléia | Livros Grátis |


Copyright © 2012 Anísio Silva de Alcântara. All Rights Reserved.


O Blog do Anísio Alcântara foi publicado no dia 25 de Março de 2012