quarta-feira, 22 de novembro de 2006

[ ci # 0003 ] CANAIS DE COMUNICAÇÃO FORMAL DESCENDENTE

São os canais de comunicação mais importantes nas empresas, muito enfatizados pelos gestores. Este é o primeiro tipo de comunicação de que nos lembramos quando falamos de comunicação nas empresas entre gestores e subordinados.


Os canais de comunicação formal descendente mais utilizados são:


  • a cadeia de comando


  • os comunicados e avisos distribuídos ou afixados


  • o "jornal da empresa"


  • as comunicações insertas nas folhas de salário


  • os manuais


  • os "handbooks" ou panfletos


  • o relatório anual


  • os registos de voz e imagem


A cadeia de comando é a linha ao longo da qual flui a autoridade do topo da organização ao indivíduo situado no ultimo escalão hierárquico da empresa. É o canal de comunicação usado mais frequentemente e pode revestir a forma de comunicação oral e escrita, sendo a mais frequente a que se traduz no contacto pessoal face a face. As comunicações escritas são normalmente utilizadas para assuntos de maior relevância para a empresa e/ou para o gestor. O papel dos gestores intermédios é importante neste canal para que os trabalhadores recebam a informação com o mínimo de distorção possível.


A afixação de avisos e comunicados serve grande parte das vezes para os gestores comunicarem aos seus subordinados informações que lhes interessam. Este canal deve ser considerado suplementar, uma vez que muitas das vezes não são lidos ou, porque afixados durante muito tempo, poderão ficar desactualizados.


O jornal da empresa, usado normalmente por empresas de dimensão significativa, destina-se geralmente a transmitir informações sobre novos produtos, política e evolução da empresa, ou assuntos de interesse para os empregados. Algumas informações - actividades recreativas e culturais, prémios ou campeonatos em que houve participação, empregados que completam um certo número de anos de serviço, etc. - são uma excelente oportunidade para se desenvolver o espírito de equipa, a coesão e os valores morais; de forma geral, a cultura da organização.


As comunicações insertas nas folhas de remuneração são um outro canal que, usado em equilíbrio, pode ter interesse, uma vez que todos as lêem.


Os panfletos e "handbooks" são sobretudo usados para dar a conhecer aos novos membros da empresa os aspectos gerais do seu funcionamento e políticas da empresa em termos de recursos humanos. Tendo sempre presente que nem sempre são lidos pelos destinatários são, ainda assim, usados para comunicar a instituição de novos sistemas de avaliação, planos sociais de complemento de reforma, etc.


O relatório anual contém, para além das contas, informação sobre a actividade da empresa ao longo do ano e reflecte a posição dos seus órgãos de gestão. Destina-se sobretudo aos accionistas, embora tenha vindo a interessar crescentemente aos funcionários e restantes stakeholders.


Os registos de voz e imagem transmitem mensagens e simultaneamente "aproximam" os gestores de topo dos empregados, debelando a dispersão geográfica da organização. Outras formas de comunicação têm vindo a desenvolver-se a par da evolução das novas tecnologias de informação: a videoconferência, o videotexto, o teleprocessamento de dados, são exemplos desses canais de comunicação.

[ ci # 0002 ] O QUE DEVE SER COMUNICADO

Segundo inquéritos feitos por Henry Mintzberg e outros, grande parte dos gestores gasta cerca de 80% do seu tempo comunicando com as pessoas, quer internamente, quer externamente. Em relação às pessoas que constituem a empresa, os gestores de nível intermédio geralmente gastam mais tempo a comunicar com os seus subordinados [comunicação vertical descendente], menos com os seus superiores [comunicação vertical ascendente], situando-se o tempo gasto com os outros departamentos [comunicação horizontal] numa zona intermédia.


Os cientistas das áreas de comportamento têm demonstrado que a motivação dos trabalhadores é impossível sem uma comunicação eficaz. Os trabalhadores têm necessidade de conhecer bem quais os objectivos da organização e devem participar na sua definição, saber o que deles se espera. Devem ser ouvidos e entendidos pelos seus supervisores, o que não é conseguido se existirem barreiras significativas à comunicação ne empresa.


A globalização do ambiente externo da empresa e a necessidade de mudança tornam mais evidente a importância de transmissão de informação e conhecimentos, trazendo maior complexidade ao sistema de comunicação e, por vezes, constituindo uma barreira adicional à comunicação eficaz.


No ambiente interno da empresa, os trabalhadores devem receber informações, no mínimo, sobre:


  • Como se espera que as suas tarefas sejam desempenhadas


  • Os salários e, de modo geral, sistemas de retribuição


  • A sua posição na estrutura organizacional da empresa


  • As alterações que possam afectar o futuro da empresa, nomeadamente a sua segurança


  • As políticas, regras e procedimentos da empresa.

[ ci # 0001 ] COMUNICAÇÃO INSTITUCIONAL - O PROCESSO

[a partir de Sebastião Teixeira, "Gestão das Organizações", McGraw-Hill]

Começámos por definir gestão como o processo de obter resultados com o esforço de outros. Ora, para os subordinados saberem exactamente o que deles se pretende, que tipo de tarefas devem desempenhar para melhor serem atingidos os objectivos globais da empresa, devem disso ter um perfeito conhecimento, isto é, deve existir uma comunicação eficaz.


Comunicação é o processo de transferência de informações, ideias, conhecimentos ou sentimentos entre as pessoas. Pode utilizar diversos meios e canais mas é difícil conceber como é que os objectivos de uma organização podem ser atingidos sem comunicação. Não será exagero afirmar que os gestores que obtêm sucesso em grande parte o devem à sua capacidade para comunicar com as pessoas. Está provado que os gestores passam a maior parte do seu tempo comunicando com os subordinados.


A comunicação fornece, pois, os meios através dos quais os membros da organização podem ser induzidos a implementar as acções planeadas, e a fazê-lo motivados e com entusiasmo.


O processo de comunicação implica a existência de três elementos: emissor, receptor e canal de transmissão.


Emissor é a pessoa ou entidade que tem uma ideia ou mensagem para comunicar a outra pessoa ou pessoas. É a fonte de origem da comunicação.


Receptor é a pessoa ou pessoas que recebem a comunicação que lhes é transmitida.


Canal de transmissão é o meio através do qual as comunicações são transmitidas entre as pessoas e pode revestir-s de várias formas, desde a voz humana à rede de televisão, passando pelo fax, correio normal ou informático.


O emissor deve codificar as mensagens de tal modo que estas, sendo perfeitamente transmitidas, serão descodificadas pelo receptor, de modo a atribuír-lhe o mesmo significado. Se à informação recebida o receptor não atribui o mesmo significado que o emissor pretendia, isso significa que houve falhas, ou barreiras. Estas podem resultar de deficiências na codificação [por exemplo, uso de linguagem não apropriada] ou de problemas do próprio receptor que não descodificou convenientemente a mensagem [discurso em sentido figurado não interpretado desse modo].


É de evidenciar a importância do feedback, isto é, o retorno [receptor-emissor] da informação, que permite ao emissor verificar se a comunicação foi ou não perfeitamente recepcionada.


Por exemplo, na comunicação oral, as palavras são transmitidas através de meios tão diferentes como conversação cara a cara, por telefone, rádio, televisão; os livros, artigos e cartas correspondem a canais escritos; os sentidos do tacto, cheiro, gosto, são canais de comunicação não verbais [embora para um cego, quando lê em braille, o tacto seja um canal verbal de comunicação].


No entanto, muitas comunicações de grande importância são realizadas sem que uma palavras seja pronuniciada. É a comunicação não verbal.


sábado, 18 de novembro de 2006

[ tctp # 0008 ] TEORIA JAKOBSONIANA DA FUNÇÃO POÉTICA DA LINGUAGEM - RESUMO

Segundo Jakobson, a comunicação verbal pressupõe necessariamente a interacção de seis "factores inalienáveis", que podem ser assim esquematicamente representados:
CONTEXTO
EMISSOR... MENSAGEM... DESTINATÁRIO
CONTACTO
CÓDIGO
Cada um destes factores origina uma função linguística específica. No entanto, é difícil a apresentação de uma mensagem que realize apenas uma destas funções. Verifica-se em cada mensagem a presença de mais do que uma função, impondo uma delas o seu predomínio sobre as outras, a função predominante. A estrutura verbal de uma mensagem depende primariamente da função que nela é predominante.
Em Jakobson, a distinção das seis funções da linguagem verbal é a seguinte:
  1. Função expressiva ou emotiva - centrada sobre o sujeito emissor. "Uma expressão directa da atitude do sujeito em relação àquilo de que fala. Tende a dar a impressão de uma certa emoção, verdadeira ou fingida. As interjeições representam o estrato da língua puramente emotivo, mas a função emotiva é inerente, em vário grau, a qualquer mensagem, quer se considere o nível fónico, quer o nível gramatical ou lexical. A informação veiculada pela linguagem não pode ser restringida à informação do tipo cognitivo.
  2. Função conativa - denominada apelativa por Bühler, orientada para o destinatário, encontra a sua manifestação mais pura no vocativo e no imperativo. As frases imperativas, ao contrário das declarativas, não podem ser submetidas a uma prova de verdade, nem transformadas em frases interrogativas.
  3. Função referencial - também chamada denotativa ou cognitva, orientada para o referente, para o contexto.
  4. Função fática - é predominante nas mensagens que têm por finalidade "estabelecer, prolongar ou interromper a comunicação, verificar se o circuito funciona [...], fixar a atenção do interlocutor ou assegurar que esta não frouxa".
  5. Função metalinguística - ocorre "quando o emissor e/ou o receptor julgam necessário averiguar se ambos utilizam na verdade o mesmo código". Quando o discurso está centrado no código, desempenha uma função metalinguística. Esta função representa um instrumento importante nas investigações lógicas, mas o seu papel é também relevante na linguagem quotidiana.
  6. Função poética - centrada sobre a própria mensagem. "A orientação [Einstellung] para a mensagem enquanto tal, o centro de interesse incidindo sobre a mensagem considerada por si mesma, é o que define a função poética da linguagem". Esta função não constitui a função exclusiva do conjunto de textos que Jakbson designa por "arte da linguagem", trata-se apenas da sua função dominante. A função poética pode, contudo, desempenhar um papel secundário, embora muito importante, em mensagens cuja função dominante seja uma das outras funções [publicidade, propaganda política, em que a função dominante é a função conativa].

[ tctp # 0007 ] A TORRE DE BABEL


A linguagem é comum a todos os homens. Não há diferenças de natureza entre as línguas. Há apenas diferenças culturais. Não há línguas "simples" e línguas "complexas". Todas são igualmente simples e complexas. Há já muito tempo que se fez justiça à teoria dos "estádios", que hierarquizava as línguas, do estádio primitivo ao desenvolvimento, em função do grau de civilização dos seus locutores.

Todas as línguas têm em comum certas propriedades e características "universais", que definem, precisamente, a linguagem. Pois o que se visa, através da extraordinária variedade de línguas existentes, é a unidade da linguagem humana, aquilo que a especifica, em relação aos códigos de comunicação não humanos. Aliás, a procura de uma língua original única, o mito da torre de Babel, responsável pela diversidade linguística, a nostalgia do paraíso perdido da língua única, ligam-se, num plano mítico, à procura que hoje se faz dos universais de linguagem, das operações mentais que sustentam o funcionamento de todas as línguas [1].

Todas as línguas possuem uma dupla articulação, em unidades de sentido [palavras ou morfemas] e unidades fónicas [vogais e consoantes]. Todas elas constituem sistemas cujas unidades se definem em relação ao conjunto do sistema organizado pela sua estrutura. O som mantém com o sentido uma relação a que se chama arbitrária [isto é, convencional]. Todas as línguas comportam a redundância [que é um excesso de meios em relação à informação transmitida], a ambiguidade, dissemetrias, irregularidades, todas elas têm a possibilidade de, a partir de um número de signos teoricamente finito, produzir enunciados em número infinito. Todas elas têm um carácter evolutivo perpétuo, cuja suspensão significa a sua morte; todas elas autorizam a invenção, a criatividade, as deslocações de sentido, as figuras de estilo, o jogo. Todas elas estão estruturadas a três níveis: o do som, o do arranjo gramatical, o do sentido. Há, finalmente dois aspectos que parecem ser óbvios: a mensagem linguística é linear [o que permite distingui-la, por exemplo, da mensagem musical, que autoriza a sobreposição de notas; o canto em cânone trata a voz como se fosse um instrumento]; as unidades linguísticas são discretas, ou seja, isoláveis umas das outras [o que, na escrita, é materializado pelo branco]: se o espectro de cores constitui um contínuo cujas fronteiras são arbitrariamente traçadas pela língua, a cadeia falada constitui, pelo contrário, uma sequência de unidades distintas.


[1] Maria Yaguello in Alice no País da Linguagem, Editorial Estampa

[ tctp # 0006] LUGAR DA LÍNGUA ENTRE OS FACTOS HUMANOS. A SEMIOLOGIA.

[ Ferdinand de Saussure in Curso de Linguística Geral, Dom Quixote]

A língua, assim delimitada no conjunto dos factos de linguagem, é classificável como facto humano, ao passo que a linguagem o não é.
Acabamos de ver que a língua é uma instituição social; mas vários são os traços que a distinguem das outras instituições - políticas, jurídicas, etc. Para compreendermos a sua natureza especial, temos de fazer intervir uma nova ordem de factos.
A língua é um sistema de sinais para exprimir ideias e, portanto, comparável à escrita, ao alfabeto dos surdos-mudos, aos ritos simbólicos, às fórmulas de cortesia, às saudações militares, etc. Só que ela é o mais importante de todos estes sistemas.
Podemos portanto conceber uma ciência que estude a vida dos sinais dentro da vida social; ela formaria uma parte da psicologia social e, por conseguinte, da psicologia geral. Chamar-lhe-emos semiologia [do grego sémeîon, "sinal"]. Estudaria em que consistem os sinais, que leis os regem. Uma vez que ainda não existe, não podemos dizer o que será; mas tem direito à existência e o seu lugar está desde já determinado. A linguística não é mais do que uma parte dessa ciência geral, as leis que a semiologia descobrir serão aplicáveis à linguística, e esta achar-se-á assim ligada a um campo bem definido no conjuto dos factos humanos.
Compete ao psicólogo determinar o lugar exacto da semiologia; a tarefa é definir os elementos que fazem da língua um sistema especial no conjunto dos factos semiológicos. Retomaremos adiante esta questão; neste momento só insistiremos num ponto: se agora, pela primeira vez, pudemos conceder à linguística um lugar entre as ciências, é porque a ligamos à semiologia.
Porque razão esta não é ainda reconhecida como ciência autónoma, com objecto próprio como qualquer outra? É que caímos num ciclo vicioso: por um lado, nada é mais próprio que a língua para fazer compreender a natureza do problema semiológico; mas, para a colocarmos convenientemente, seria preciso estudarmos a língua em si mesma; ora, até agora sempre a abordamos em função de outra realidade, a partir de outros pontos de vista.
Em primeiro lugar, há a concepção superficial do grande publico: a língua não é mais que uma nomenclatura, o que impede qualquer investigação sobre a sua verdadeira natureza.
Em seguida, há o ponto de vista do psicólogo, que estuda o mecanismo do signo em cada indivíduo; é o método mais fácil, mas não conduz além da execução individual e não atinge o signo, que é social por natureza.
Ou então, quando um estudioso descobre que o signo deve ser encarado socialmente, só se interessa pelos traços da língua que a aproximam das outras instituições, das que dependem mais ou menos da nossa vontade; e desta forma se esquece o verdadeiro objectivo e se desprezam as características privativas dos sistemas semiológicos em geral e da língua em particular. Com efeito, o signo escapa sempre numa certa medida à vontade individual ou social: é esse o seu carácter essencial; mas é também o menos evidente.
Assim, esta característica só aparece claramente na língua, mas manifesta-se nos pormenores que menos se estudam, e, por isso, não se vê bem a necessidade duma ciência semiológica. Para nós, pelo contrário, o problema linguístico é acima de tudo semiológico, e o desenvolvimento da nossa teoria vai sempre buscar a sua significação a este facto importante. Se quisermos descobrir a verdadeira natureza da língua, temos de a encarar no que ela tem de comum com todos os outros sistemas do mesmo tipo; e alguns factores linguísticos que nos parecem muito importantes à primeira vista [por exemplo, o mecanismo do aparelho fonador], só devem ser considerados em segundo plano, se servirem apenas para distinguir a língua dos outros sistemas. Assim, além de fazer luz sobre o problema linguístico, pensamos que, tomando como signos os ritos, os costumes, etc., todos estes factos aparecerão numa outra perspectiva, e sentiremos a necessidade de agrupá-los na semiologia e de explicá-los pelas leis desta ciência.

[ tctp # 0005 ] ESCOLAS PROCESSUAL E SEMIÓTICA, AS DIVERGÊNCIAS



  • A escola processual aproxima-se das ciências sociais, da psicologia e sociologia em particular. O seu estudo incide sobre os actos de comunicação.


  • A escola semiótica aproxima-se da linguística e das disciplinas de arte. O seu estudo tende a debruçar-se sobre os trabalhos de comunicação.


  • Quanto à interpretação da nossa definição de comunicação como interacção social através de mensagens, a escola processual define essa interacção social como o processo pelo qual uma pessoa se relaciona com outra ou afecta o comportamento, estado de espírito ou reacção emocional de outra e, é claro, vice-versa.


  • A semiótica, por seu lado, define interacção social como aquilo que constitui o membro de uma cultura ou sociedade determinadas.


  • Relativamente à forma como entendem o que constitui uma mensagem, esta é também fonte de divergência. Para a escola processual, a mensagem é o que é transmitido pelo processo de comunicação. Muitos dos seus seguidores consideram que a intenção é um factor crucial para decidir sobre o que constitui uma mensagem. A intenção do emissor pode ser explícita ou implícita, consciente ou inconsciente, mas tem que ser recuperável através de análise. A mensagem é o que o emissor nela coloca, independentemente dos meios utilizados.


  • Para a semiótica a mensagem é uma construção de signos que, pela interacção com os receptores, produzem significados. O emissor definido como transmissor da mensagem perde importância, a ênfase vira-se para o texto e a forma como este é "lido". Ler é o processo de descobrir significados que ocorre quando o leitor interage ou negoceia com o texto e tem lugar quando este traz aspectos da sua experiência cultural e os relaciona com os códigos e os signos que formam o texto. Envolve também um entendimento comum acerca do que o texto trata. Assim, leitores com experiências sociais diferentes ou de diferentes culturas poderão encontrar significados diferentes no mesmo texto. A mensagem não é algo enviado de A para B, mas sim um elemento numa relação estruturada cujos outros elementos incluem a realidade exterior e o produtor/leitor. A produção e leitura são vistas como processos paralelos, se não idênticos, por ocuparem o mesmo lugar nesta relação estruturada. Esta estrutura não é estática, mas sim uma prática dinâmica, podendo ser representada por um triângulo no qual as setas representam uma interacção constante.

[ tctp # 0004 ] AS PRINCIPAIS ESCOLAS NO ESTUDO DA COMUNICAÇÃO

Existem duas escolas principais no estudo da comunicação. A primeira vê a comunicação como transmissão de mensagens e estuda o modo como os emissores e os receptores codificam e descodificam. Estuda o modo como os transmissores usam os canais e os meios de comunicação. Considera a comunicação um processo pelo qual uma pessoa afecta o comportamento ou o estado de espírito de outra.

Nesta escola, a existência de efeitos inferiores ou diferentes dos desejados tende a ser considerada em termos de fracasso de comunicação, analisando os estádios do processo com o objectivo de determinar onde ocorreu essa falha.

A esta escola chama-se processual.

A segunda escola vê a comunicação como uma produção e troca de significados. Estuda a forma como as mensagens, ou textos, interagem com as pessoas de modo a produzir significados. Usa termos como significação e os mal-entendidos não são considerados necessariamente fracasso de comunicação. Esta escola considera que estes podem advir de diferenças culturais entre o emissor e o receptor. O seu principal método de estudo é a semiótica [ciência dos signos e dos significados], que é também o nome desta escola.

[ tctp # 0003 ] COMUNICAÇÃO - UMA INTRODUÇÃO

[ a partir de John Fiske, Introdução ao Estudo da Comunicação ]

Toda a comunicação envolve signos e códigos. Os signos são artefactos ou actos que se referem a algo que não a eles próprios. Os códigos são os sistemas nos quais os signos se organizam e determinam a forma como os signos se podem relacionar uns com os outros.


Estes signos e códigos são transmitidos ou tornados acessíveis a outros e transmitir ou receber signos/códigos/comunicação é a prática das relações sociais.


A comunicação é central para a vida da nossa cultura. O estudo da comunicação implica o estudo da cultura na qual ela se integra.


Poderá dizer-se que a definição geral de comunicação é: "Interacção social através de mensagens".

sexta-feira, 17 de novembro de 2006

[ tctp # 0002 ] REDUNDANCY AND ENTROPY

[Jhon Michael Underwood, "Cultsock"]


Important note: This section is based on my attempt to understand Shannon's information theory. I am almost completely innumerate, so am far from sure that I have grasped his understanding of the terms. In so far as I think I have understood them, I am not persuaded that they are particularly useful to an understanding of everyday communication between human beings. They are, however, terms which you will come across in your study of communication, so I suppose you should have some idea of what they mean. I have searched the Web for articles on the subject. Those I have discovered seem to fall into three categories:


highly technical articles which I do not understand
articles by authors working in the 'humanities' side of communication which plainly misrepresent Shannon's ideas articles by authors working in the 'humanities' side of communication which appear to explain the concepts accurately, but fail to make a link between them and human-to-human communication
Should you know of any articles on the Web which do not suffer from these problems, please
e-mail me and I'll post a link to them. Alternatively, should you wish to post an article of your own, please send it to me and I'll post it on this site.


REDUNDANCY


If you're familiar with 'redundancy', you may wish to go straight to entropy.
You have probably had the experience of being criticized for redundancy by your English teacher. By 'redundancy' she means unnecessary verbiage, or perhaps even tautologies, such as 'reversing back into the driveway'. In the criticism of English style, redundancy is considered to be a bad thing, but in natural communication systems a certain amount of redundancy is always built in. You'll be familiar with this if you've ever compressed a number of word-processed files to prepare them for sending via e-mail. They can generally be reduced to around half their size. To do that, the compression algorithm exploits the redundancy in the English spelling system.

A smpl xmpl s ths sntnc whch y cn prbbly ndrstnd wtht th vwls. Orthissentencewhichyoucanreadevenwithoutthespaces.

The first of those examples exploits the 'redundancy' of letters for vowel sounds, the second the 'redundancy' of spaces. You might also have little difficulty in filling in the missing word in this incomplete .......... You probably guessed that the word missing from the end of that sentence was 'sentence'; you might perhaps have expected 'sequence of words'; a bit oddly, you might have guessed 'test'; strangely, you might have thought 'crossword'; and, if you thought 'doughnut' or 'duck-billed platypus', you should seek help and/or study something else (dadaism and surrealism would be good starting points). However, even allowing for the oddest readers, it's a fair bet that you didn't guess 'quickly', 'turns', 'to speak', 'bright' or any such adverb, verb, infinitive or adjective simply because the rules of English don't allow those at that point. If I'm speaking quietly, or the environment is noisy, or I have an unfamiliar regional accent, I suppose you might think I asked 'Would you like some of the scheese?' But what you know about permitted consonant clusters in English leads you to conclude that I must have referred to 'this cheese' simply because we don't begin words with the sounds 's-ch'. As you can see, we're talking here about probabilities. If you're interested in seeing how Shannon develops this, it's in the next few paragraphs. If not, just skip it (it's actually quite entertaining).


Clearly in any language some characters have a greater probability of occurring than others. Thus, in English, E occurs with a frequency of .12 and W with a frequency of .02 (I know because Shannon says so). However, as we have just seen with 'scheese', the probability of a character occurring is also affected by the preceding character. So, in his exploration of redundancy in the English spelling system, Shannon is first forced to consider digrams: after the first letter is chosen the next one is chosen in accordance with the frequencies with which the various letters follow the first one. After that, he gets into a trigram structure ....
So, first of all, for the 26 characters of English plus a space using a zero-order approximation (i.e. where all characters are equally probable) this is what Shannon gets:


XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYD QPAAMKBZAACIBZLHJQD


The first-order approximation, where the characters have the frequency of English text, but are not influenced by what precedes them, gives us:


OCRO HLI RGWR NMIELWIS EU LL NBNESEBYA TH EEI ALHENHTTPA OOBTTVA NAH BRL


You might think that still looks like Klingon, but compare it with what was produced first and note the absence of Q's, X's and Z's.
When we apply a digram structure, this is what comes up:


ON IE ANTSOUTINYS ARE T INCTORE ST BE S DEAMY ACHIN D ILONASIVE TUCOOWE AT TEASONARE FUSO TIZIN ANDY TOBE SEACE CTISBE


Is this starting to look more familiar? I think I used to work with the guy who wrote that.
The trigram structure gives us:


IN NO IST LAT WHEY CRATICT FROURE BIRS GROCID PONDENOME OF DEMONSTURES OF THE REPTAGIN IS REGOACTIONA OF CRE


Blimey! This is starting to sound like cultural studies.
Shannon, rather than continuing with all the possible n-grams, then jumps to word units. In the following, the words are chosen independently of one another, but using their approximate frequencies in normal English:


REPRESENTING AND SPEEDILY IS AN GOOD APT OR COME CAN DIFFERENT NATURAL HERE HE THE A IN CAME THE TO OF TO EXPERT GRAY COME TO FURNISHES THE LINE MESSAGE HAD BE THESE


In the following the word-transition probabilities are correct:


THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE LETTERS THAT THE TIME OF WHO EVER TOLD THE PROBLEM FOR AN UNEXPECTED


Suddenly, this reads like a translation from French philosophy.
The redundancy of English is around 50%. As Shannon explains it, that means that 'when we write English around half of what we write is determined by the structure of the language and half is chosen freely' and '[redundancy] is the fraction of the structure of the message which is determined not by the choice of the sender, but rather by the accepted statistical rules governing the choice of the symbols in question'. This redundancy becomes evident to us if we send someone a telegram leave a short note, or quickly fire off an e-mail, in each of which we cut out many 'redundant' words or even letters.
With artificial communication systems we can deliberately add in redundancy as a means of error checking. For example, when your library user number is entered into your college's computer, the last digit of the number may well be a so-called 'check digit' which results out of a calculation automatically performed on the preceding digits when the library computer first issued you with a number. It is 'redundant' in that the preceding sequence of digits is sufficient to distinguish you from other library users. Its purpose is to check that the librarian has entered the preceding digits correctly. Thus, the redundancy is used to overcome possible noise (for comments on 'noise', see the section on the Shannon-Weaver model).
Similarly, since around 50% of English is redundant, it should be possible to save around 50% of the costs involved in the electronic transmission of messages in English. Something like that happens when a file is compressed. But, if there was some noise somewhere in the transmission process, obliterating some of the characters retained in the compressed message, then it would be impossible to reconstruct the original. Here again, it would be wise to build redundancy into the system.
In the digital encoding of messages, the redundancy may take the form of a 'parity bit'. The letter A is represented in binary as 01000001. To transmit a letter A digitally, we just need to transmit those 8 digits. But if the line's noisy and a digit is dropped, transmitting, say, 010000?1 we can't tell which letter was transmitted. It might have been an A if the missing digit was 0. But if the missing digit was 1, then the letter would have been C. OK, in normal English, we can figure it out from the context, but what if we've already reduced the redundancy in the English? In that case, adding a parity bit, an extra redundant digit, will overcome the problem. If the sequence of 8 bits contained an even number of 1's, the parity bit will be 0; if it contained an odd number, it will be 1. So, if we receive 010000?10, the extra 0 on the end tells us we should have received an A (01000001); if we receive 010000?11, the extra 1 on the end tells us we should have received a C (01000011). Of course, if the line is so noisy that we lose two digits, tough. Mind you, if we expect a lot of noise, we could always agree to send a parity digit after every four bits instead of every eight. It might seem daft to send extra bits that aren't really needed. But, assume that we've reduced a text of 10,000 characters to, say, 8,000 characters by eliminating some of the redundancy. For every character we transmit, we also send a parity bit, i.e. 8,000 parity bits. 8,000 bits is the equivalent of 1,000 characters, so we're still ahead.
Deliberately engineered redundancy such as that is not uncommon in natural communication either. For example, teachers have long adhered to the prescription to 'tell them what you're going to tell them; tell them; then tell them what you've told them'. Again, though, it may be fine in principle, but doesn't necessarily work in practice as all of us who have slept through almost an entire lecture can testify.


Channel redundancy
As mentioned above, one of the purposes of redundancy in natural communication systems would appear to be to overcome any possible noise, as well as to increase reliability. When I say 'the two men are standing in the room', why do I say the plural three times and the present tense twice (in other words why can't I say 'the two man standing....')? And why can't I just jumble up the words in any old order? Presumably because the redundancy helps me to overcome noise in the source if I have a speech defect, noise in the channel if there's a lorry just going past or noise in the receiver if she's not paying full attention. So, if it's particularly important for me to emphasize that there are two men in the room, I can hold up two fingers to emphasize that at the same time as I say the word 'two'. When I do that I am using the visual channel. I am exploiting what is known as channel redundancy. Of course, it's not quite as simple as that because non-verbal communication could also be used to disavow what I am saying in the verbal channel, but you get the general idea. So to make sure someone gets the message, you send them a letter, a telegram and an e-mail. Again, you get the idea, but again you might appreciate that it's not as simple as that. After all, the receiver of your message could be pretty annoyed and not reply ever again as a result. Just think of the insurance company which sends you junk mail, rings you up for a survey and sends a salesman around. The message definitely reaches the receiver, but the insurance man had better have some life insurance of his own if he doesn't sod off soon. The point I'm making here is that it's probably not wise to take aspects of information theory and attempt to apply them directly to human-to-human communication.


***


ENTROPY


Entropy in thermodynamics
Ah, well... should I confess that I don't really understand what is meant by this? After the first couple of pages, Shannon's paper fairly rapidly fills up with mysterious squiggles which I believe are known as equations. There's also a lot of arcane talk about logarithms, whatever they may be. He also often uses phrases that mathematicians love such as 'it follows that...' and 'thus it can easily be seen that...' Well, by Shannon maybe, but not by me. So you should take what follows with an entire salt mine.
If you already know about thermodynamic entropy, you can skip the next bit and jump to the part about cybernetic entropy.
Those of you with more alert minds than I, or closer to your schooldays than I, may recall the term entropy from what you learned about the second law of thermodynamics. If you were to ask me what the law states, I would look around at the piles of crap on my desk, scratch my balding head, recall my irritation at the sticking SHIFT key on this keyboard, and tell you it states that everything falls apart and time only moves in the direction of things falling apart. And, just before my fifitieth birthday, I can tell you my experience does not falsify this law. Anyway, hang on a minute while I go and look up a definition ..... now, where did I put that encyclopaedia?

Entropy always increases in any closed system not in equilibrium, and remains constant for a system which is in equilibrium

That's what it says here anyway. So what is entropy?
Entropy is interpreted as a measure of the disorder among the atoms making up the system, since an initially ordered state is virtually certain to randomize as time proceeds.
I knew it had something to do with the state of my desk. There's a delicious smell of fresh coffee emanating from the kitchen as I write this. The smell is due to smelly coffee molecules escaping from the coffee pot and scurrying up my nose. They are leaving the initially ordered state of the coffee pot and moving into an increasingly 'disordered state', i.e. spreading around the house. There's nothing in Newton's laws to say that they shouldn't all spontaneously end up in a more ordered state, for example by all going back into the coffee pot. In fact, if we could have a film of the whole process and were to run it backwards we would find those molecules doing nothing which conflicts with Newton's laws of motion. Somehow, though, the piles of crap on my desk suggest that that's not going to happen if we leave the molecules to their own devices. As I know from my desk, increased order only comes about as a result of the input of work. The second law of thermodynamics says that things are going to get more random, more shuffled. Eventually, I shall die, be eaten up by bacteria and all my molecules will spread out just like the coffee molecules and - who knows? - maybe you'll get to breathe in one of my 1025 nitrogen atoms. I shall then have reached a state of maximum entropy (in the not too distant future if I keep smoking). The universe itself will eventually come to a halt, according to the second law of thermodynamics (not that that will bother me much).

Entropy in information theory
But what has thermodynamic entropy to do with information theory and with human-to-human communication? Hmmm.... I'm getting well out of my depth here, but, if I've understood correctly, thermodynamic entropy is a measure of disorder whilst cybernetic or statistical entropy is a measure of uncertainty. As far as I can see, the two are really only formally related in the sense that both are expressed as the logarithm of a probability. Entropy (I think) can be understood as the opposite of redundancy. Here are some examples:


1. If we have a computer whose job is to transmit the letter A all the time, there is 100% redundancy in its message. We receive


AAAAAA?AA?AAAAAAAA?A


No problem, we know that the missing letters are A's.


2. If the computer's job is to send out all the letters from A to Z in alphabetical sequence over and over again, then redundancy would also be at a maximum, entropy zero. We receive


ABCD?FG


and we know with absolute certainty what the missing letter is.


3. If, however, the computer's task is to transmit the letters A to Z in a random sequence, sending each one only once until it's gone through all 26 letters, redundancy decreases and entropy rises. Say we receive this sequence during one transmission of the 26 letters:


PQGHWMNBCVZSTERUYAX


We know that the next letter must be one of these: DFIJKLO How do we know? Because none of those has been sent yet. But we don't know which one. Remember that Shannon defined redundancy as 'the fraction of the structure of the message which is determined not by the choice of the sender, but rather by the accepted statistical rules governing the choice of the symbols in question'. The accepted statistical rules in our example are that the computer should send each character of the alphabet once only, but in any sequence. So the redundancy in the system is what tells us that DFIJKLO are the characters which remain as the 'choice of the sender'. In this instance, then, redundancy is reduced over the previous examples and entropy has increased.


4. Now suppose that the computer's task is to choose a character at random from the 26 in the alphabet and send it.
There are no further constraints in this example, no further limits on the computer's 'free choice'. We receive


XFOMLRXKHRJFFJUJZLPWCFWKCYJFFJ


How do we know what the next letter is going to be? We don't. Choosing at random, the computer could send us any one of the 26 letters. There is some redundancy in that we know that the next sequence will not be. We know with certainty that the next letter will be one of our 26, but we don't know which one. So, in this case, redundancy is very low, entropy very high.


As you can see, there is a parallel between the concepts of thermodynamic and cybernetic entropy. In our last example, there is a higher degree of disorder (as in thermodynamic entropy) and a higher degree of uncertainty (as in cybernetic entropy). Weaver, in his introduction to Shannon's paper, makes the parallel explicit:

Thus for a communication source one can say, just as he would also say it of a thermodynamic ensemble: This situation is highly organized, it is not characterized by a large degree of randomness or of choice -- that is to say, the information (or the entropy) is low.

All well and good, but where does that get us? The point is that an increase in entropy is equivalent to an increase in information. In examples 1 and 2 above, information is low. In example 4 it is very high. You may object that none of those examples contain any information. They don't come anywhere near telling you the time, who won the World Cup or whether the pubs are open yet (I wish!). Quite so, but information and meaning are not the same thing, as far as Shannon is concerned. Weaver pointed this out in his introduction to Shannon's paper:

The word information, in this theory, is used in a special sense that must not be confused with its ordinary usage. In particular information must not be confused with meaning. In fact, two messages, one of which is heavily loaded with meaning and the other of which is pure nonsense, can be exactly equivalent, from the present viewpoint, as regards information.
You can see how this applies to the English language. Before I start typing my English sentence, the possibilites are virtually infinite. As soon as I have typed the first letter: "I", the possible choice of the next letter is constrained. At least, according to the Oxford English dictionary it is, as no word begins with two i's. Once I've typed "In" the possibilities are even more limited. Once I've typed "Inf", redundancy is starting to increase. Once I've typed "Informati", redundancy is very high, because the only choices open to me are o and v. Here entropy is very low. According to Shannon, the information is high after my first "I" because entropy is high. Therefore, the totally random sequence of characters in example 4) above has a high information content because entropy is high. The next character in the sequence cannot be predicted at all. We would have to send the whole message as it stands, there is no way we could compress it as we can the English language. There is no redundancy, so nothing we can cut out. This is quite well summed up by Weaver: information is a measure of one’s freedom of choice when one selects a message
I hope that makes it clear that the higher the entropy, the greater the information. We could also express that as: the higher the uncertainty, the greater the information; or: the higher the unpredictability, the greater the information.
'Well, all right,' you might object, 'but XFOMLRXKHRJFFJUJZLPWCFWKCYJFFJ conveys no information at all.' Smugly, I reply, 'You're confusing information with meaning!' 'Fair enough,' you say irritably, 'let me rephrase what I said: XFOMLRXKHRJFFJUJZLPWCFWKCYJFFJ conveys no meaning. So, frankly, I don't see what all this talk of entropy has to do with human communication, which, when all's said and done, is all about trying to convey meanings, not random strings of letters.' At this point in the conversation, I might try to change the subject.
Weaver ends his introduction to Shannon's paper with:


The concept of information developed in this theory at first seems disappointing and bizarre--disappointing because it has nothing to do with meaning, and bizarre because it deals not with a single message but rather with the statistical character of a whole ensemble of messages, bizarre also because in these statistical terms the two words information and uncertainty find themselves to be partners


So you and I may find consolation in the fact that we're not the only ones to find this all a bit odd.


'Entropy' in communication studies
Can we generalize from Shannon's theory which places the emphasis on the information content of messages, in his specialized use of the term, to the study of the semantic content (i.e. the meaning) of the messages in human-to-human communication? You'll come across communication theorists using the terms 'entropy' and 'entropic'. By 'communication theorists' here I am referring to those working within the humanities who study communication, I do not mean communication theorists in cybernetics. If I have understood Shannon's use of the term correctly (no money-back guarantee, I'm afraid), then it seems to me that many communication theorists (as I am using the term here) seem to misunderstand it and yet still claim to find it a useful concept. For example, referring to Shannon, Kellner and Best state:



For such information systems theorists, increase of entropy represents a progressive loss of information


1997 : 209


Whereas Weaver, in his introduction to Shannon's paper says:


Thus for a communication source one can say, just as he would also say it of a thermodynamic ensemble: This situation is highly organized, it is not characterized by a large degree of randomness or of choice -- that is to say, the information (or the entropy) is low.

In case anyone missed that, let me just summarize:



information theorist (Weaver): low entropy = low information


cultural theorists (Kellner and Best): high entropy = low information


It really doesn't take much thought for any lay person who's used a computer a bit to figure this out. To save storage space, or to reduce the size of a file we want to e-mail to someone, we compress the file. File compression works by squishing out redundant information. If the blue sky is represented by five lines of 100 pixels of the same shade of blue, we don't store 500 pixels, we store one, togtether with a couple of bytes that mean '100 wide' and 'five lines deep'. Although, in lay person's terms, we can't say that the compressed file contains 'more information' than the original uncompressed file, we can squash four images of the same size into the space occupied by just one of them. In that case we would all be prepared to say that the compressed file of four images contains 'more information' than just one image. Now, given that the compression is achieved by reducing redundancy, and, given also that entropy is the opposite of redundancy, it clearly follows that the higher the entropy, the higher the information. Well, it seems clear to me at any rate, but I'm a bit hesitant about saying so because it means I have to disagree with big-name theorists, but that's just tough.
So what on earth is the point of a term that hardly anybody seems to be able to agree on?
What do our 'humanities' communication theorists mean when they use the term 'entropy'? Here's a definition provided by John Fiske:


Redundancy is generally a force for the status quo and against change. Entropy is less comfortable, more stimulating, more shocking perhaps, but harder to communicate effectively.
(1982 : 17)

I think Shannon might have been surprised to learn that. What is Fiske getting at? He is drawing a parallel between redundancy and conventionality. From what we've seen of Shannon's theories, we might therefore expect him to say that the less conventional a message is, the more unpredictable it is, therefore the greater the information content. In fact, he doesn't reach that conclusion because he draws a distinction between entropy in form and entropy in content. So, for Fiske, there can be a high degree of redundancy in form together with a high degree of entropy in content. Examples he gives are Beethoven and Jane Austen.
Using the term in this sense, it is quite possible for entropy in form to have been high once and low now, as innovations are imitated, enter the mainstream and become conventions. It is surprising for us now that the composer Weber, after hearing Beethoven's 7th for the first time, commented that Beethoven was clearly 'ripe for the madhouse'. For Weber, the form of the 7th was highly entropic in this Fiskean sense; for us when we listen to it today, there is a higher degree of redundancy than there was for Weber. This is the fate of almost any creative artist, I guess, whether it's Beethoven, John Coltrane or Miles Davis - remember the old lady who commented on leaving a performance of Hamlet that she wasn't greatly impressed by it because it was full of quotations or John Cage's surprise on leaving a Webern concert to discover that it had sounded tuneful.
Consider the case of minimalist music for a moment. Today, minimalism has entered the mainstream, but back in the 60s it was avant-garde. At that time Terry Riley, Steve Reich, Tim Souster et al were breaking new ground. Steve Reich's 'It's Gonna Rain' consists of two tape recorders, each playing a loop of a preacher shouting 'it's gonna rain'. In Shannon's sense, surely, there was almost no entropy in the work. There was some entropy due to the fact that the two tape players played at slightly different speeds, with a slight unpredictability in the speed variation. Therefore, in Shannon's sense, there was virtually no information in the work. In Fiske's sense, though, where entropy means cutting down the 'redundancy' of conventional forms, entropy was high.
I don't know how consistently or usefully this term can be applied in this sense. I don't see how the use of the term 'entropic' is an advantage over 'unpredictable', 'surprising', 'novel' or 'shocking'. There used to be an advertising line for shampoo which ran 'Wash the city right out of your hair' The use of the word 'city' is surprising and therefore catches our attention. The artist Robert Rauschenberg begged the then considerably more famous artist de Kooning to give him a drawing. When he finally got it, he rubbed it out and exhibited it as 'Erased de Kooning by Robert Rauschenberg'. Rachel Whiteread filled an entire house with concrete so that when the house was demolished we were left with an inside-out house. Damien Hirst had a cow sawn into two halves and exhibited them in tanks of formaldehyde. All of these actions are surprising, shocking, novel, avant-garde, challenging. Frankly, I don't see what we gain by introducing the term 'entropic' to describe them. It seems to be used in a very loose sense which bears little relation to Shannon's original concept.
Still, this finally gets us to what you need to know. In the humanities, to describe a message as highly entropic is to say that it is unexpected, shocking, novel or surprising. So, if you would like people to know that you are a student of communication and every bit as capable of being as incomprehensible as a teacher of communication, don't say of a message 'this is very novel', say 'this is highly entropic'. Quite a fashion statement, huh? Or maybe it's only a fashion statement until 'entropic' enters mainstream usage, whereupon it becomes 'redundant'. Eh?


For further information, you may wish to consult the following websites:
Lucent Technologies' excellent website with very clear explanations
Bell Laboratories, where you can download a copy of Shannon's paper
Information Theory Society Web Page
Entropy in Information and Coding Theory
Entropy and its Role in Claude Shannon’s Theory of Communication

[ tctp # 0001 ] INTRODUÇÃO AO ESTUDO DA COMUNICAÇÃO - RESUMO

[Paula Ramalho Almeida, ISCAP]



"TOUT MONOLOGUE EST UN DIALOGUE"
[Paul Valéry, in Cahiers II]


...


COMUNICAÇÃO: DEFINIÇÃO

"Processo de troca de ideias, mensagens ou informações, através da fala, de sinais, da escrita ou de comportamento."

[Dicionário de Ciências da Comunicação, Porto Editora]

"Interacção social através de mensagens"

[Introdução ao Estudo da Comunicação, ASA]

"Deus disse: 'Faça-se luz.' E a luz foi feita."

[Bíblia, Génesis 13]

Século XX:

"Reconhecimento de que a linguagem não é apenas um instrumento de comunicação, mas também uma ferramenta para fazer o mundo existir"

[Misisa Landau, Antropóloga]


COMUNICAÇÃO: CONCEITO ETIMOLÓGICO

Do latim communicatio

Raiz munis: "estar encarregado de "
Prefixo co: "reunião"
Terminação tio: "actividade"

Do latim communis

"pôr em comum"
outras palavras com esta origem: Comunidade, Comunhão, Comunicação, Comum, Comunismo

Significado de communicatio


Produto do encontro social
Processo delimitado no tempo
Relação intencional exercida sobre outrém

PROCESSO DE COMUNICAÇÃO

Partilhamos um mesmo objecto de consciência
Exprime a relação entre consciências
Elementos:

x - Emissor, que envia a mensagem

y - receptor, que interpreta a mensagem

Nota: emissor e receptor não precisam de ocupar o mesmo lugar nem o mesmo tempo.



COMUNICAÇÃO: OUTROS CONCEITOS

Conceito biológico
Conceito pedagógico
Conceito histórico
Conceito sociológico
Conceito antropológico
Conceito dos dicionários:

"Acção de transmitir e receber mensagens, usando os meios e códigos convencionados; acto ou efeito de comunicar."

[Dicionário da Língua Portuguesa Contemporânea, Academia das Ciências de Lisboa]



NATUREZA DA COMUNICAÇÃO
Animal e humana




Signos e códigos

Signos: "Os signos são artefactos ou actos que se referem a algo que não a eles próprios, ou seja, são construções significantes."

Códigos: "Os códigos são os sistemas nos quais os signos se organizam e que determinam a forma como os signos se podem relacionar uns com os outros."

[Introdução ao Estudo da Comunicação, ASA]

Receber e transmitir signos

Prática das relações sociais
Prática inserida numa dada cultura

Criação e manutenção de uma realidade intersubjectiva ou intermundo

Intersubjectividade: conceito filosófico do alemão Edmund Husserl

É assim que o diálogo se transforma numa "troca intersubjectiva" e num "evento que liga dois eventos, o do locutor e do ouvinte."

[Paul Ricoeur, in Teoria de Interpretação: O discurso e o excesso de significação]

TEORIA DA COMUNICAÇÃO

CONJUNTO DE TEORIAS QUE PRETENDEM EXPLICAR OS DIVERSOS ASPECTOS DO FENÓMENO DA COMUNICAÇÃO. A TEORIA MATEMÁTICA DACOMUNICAÇÃO, CHAMADA "TEORIA DA INFORMAÇÃO", SERVIU DE BASE PARA REFLEXÕES POSTERIORES.

[Dicionário das Ciências da Comunicação, Porto Editora]


ESTUDO DA COMUNICAÇÃO

Duas escolas principais ou formas de pensar a comunicação


Escola "processual

Início com o Modelo de Comunicação de Shannon e Weaver [1949], concebido em plena guerra fria.

Semiótica

Semiótica: tradição enraizada em Charles Sanders Peirce

Semiologia: remonta aos trabalhos de Ferdinand de Saussure [nota: dif. de semeiologia]

Actualmente são encaradas como uma só disciplina.

ESCOLA PROCESSUAL: COMUNICAÇÃO COMO TRANSMISSÃO DE MENSAGENS

Interacção social: processo pelo qual uma pessoa afecta o comportamento/estado de espírito de outra.

Modo como emissores e receptores codificam e descodificam

Modo como transmissores utilizam canais e meios de comunicação

Eficácia, exactidão de actos de comunicação

Aproximação das ciências sociais [psicologia e sociologia]


MENSAGEM

O que é transmitido pelo processo de comunicação

É o que nela coloca o emissor

Intenção implícita, consciente ou inconsciente

Recuperável intenção do emissor através da análise


ESCOLA DA SEMIÓTICA: COMUNICAÇÃO COMO PRODUÇÃO E TROCA DE SIGNIFICADOS

Semiótica: ciência dos signos e dos significados / teoria geral dos signos

Interacção social: aquilo que constitui o indivíduo como membro de determinada cultura ou sociedade

Modo como mensagens - textos - interagem com pessoas para produzir significados

Papel dos textos em dada cultura

Significação nos trabalhos da comunicação

Aproximação da linguística e das disciplinas de arte


MENSAGEM

Transmissão de signos que, pela interacção com os receptores, produzem significados

Emissor perde importância

Ênfase no texto e na forma como é lido

Leitor interage ou negoceia com o texto

Por vezes

leitores diferentes = leituras diferentes


Escola Processual:




A ===» mensagem ===» B





Semiótica:

A PRAGMÁTICA

Estuda aspectos do significado e da linguagem dependentes de locutor e alocutário-interlocutores / co-enunciadores, tendo em conta

Contexto do enunciado

Princípios da comunicação

Objectivos do locutor

Estuda a deixis, actos de fala [actos locutórios, ilocutórios e perlocutórios]

Análise de conversação [ex: telefone, entrevista]

Diferente de sintaxe [relações entre signos] e semântica [significado dos signos]