Recent Changes

Saturday, January 7

  1. page home edited Arquitetura do Negócio de Governo ... de Administração Fazendária. Fazendária, sob a coorden…

    Arquitetura do Negócio de Governo
    ...
    de Administração Fazendária.Fazendária, sob a coordenação do professor Daniel de Mello Viero. Cada aluno
    Parte 1 - Gestão
    1.1. Gestão Estratégica
    (view changes)
    11:12 am

Sunday, December 18

  1. page Gestao-Estrategica-de-TI edited A complexidade do contexto atual em que vivemos obriga que as organizações deixem de tratar a TI a…
    A complexidade do contexto atual em que vivemos obriga que as organizações deixem de tratar a TI apenas como um problema tecnológico e passem a administrá-la como uma oportunidade de responder aos constantes desafios impostos pela atual conjuntura social, política e econômica na qual vivemos. A TI passa a configurar-se como fundamental em um processo de desenvolvimento, inovação e definição de estratégias em diferentes níveis - corporativo, de negócio e funcional.
    Se por um lado, os recursos tecnológicos tornam-se cada vez menos mais sofisticados e acessíveis, por outro, grande parte das organizações ainda não a consideram efetivamente em sua gestão estratégica. De qualquer forma, a tecnologia da informação representa uma mudança radical no modo de operar as organizações, e alterou a vida das pessoas de forma irreversível.
    Para utilizar com êxito os recursos de TI, é necessário criar uma visão estratégica, isto é, uma visão que, no contexto estratégico, seja não só capaz de alinhar as estratégias de negócios, de organização e de tecnologia da informação, mas também de abranger a estratégia competitiva e os modelos organizacionais que poderão direcionar o sistema de tecnologia da informação ou ser direcionados por ele, considerando algumas condições básicas como: integrá-la a outras ferramentas de gestão - adotá-la é apenas uma variável de decisão estratégica -, e ter consciência de que os benefícios realmente significativos virão a médio e longo prazo.
    É necessário utilizar a TI sob o enfoque da eficácia de seu emprego, comparando e analisando os resultados de sua aplicação no negócio, os impactos de seu uso na operação e estrutura das organizações, primando por:
    Necessidade de uma clara visão estratégica tanto do negócio quanto da TI, ou seja, necessidade de que se considere a TI um meio para obtenção de vantagens competitivas no negócio, um meio voltado ao mercado e ao usuário de TI;
    Manutenção da vantagem competitiva por mais tempo, com base na gestão da TI e no alinhamento estratégico com o negócio;
    Consideração de aspectos técnicos e operacionais, para que se atualizem as evoluções em TI e haja uma integração entre as estratégias e sua estrutura;
    Busca da eficácia, não somente da eficiência, por medir os resultados relativamente aos objetivos e às metas da organização;
    Importância de um bom relacionamento entre os executivos de TI e dos negócios;
    Avaliação da TI a partir de critérios variados, abrangendo aspectos técnicos, organizacionais e estratégicos;
    Gestão e avaliação dinâmicas da TI, com acompanhamento contínuo e flexível, a fim de que se possam promover mudanças e atualizações externas.
    Ainda em relação a uma estratégia organizacional, de certa forma o sucesso das organizações baseia-se em sua capacidade de adquirir, tratar, interpretar e utilizar a informação de forma eficaz. A gestão estratégica de TI, visando apoiar estes processos, pode ser um fator importante no aperfeiçoamento do uso da informação estratégica presente no ambiente, informação esta capaz de criar grande valor e manter as organizações unificadas a partir dos seguintes aspectos:
    Disponibiliza informações para a tomada de decisões e gerenciamento estratégico do negócio;
    Possibilita a automatização de tarefas rotineiras; auxilia o controle interno das operações;
    Aumenta a capacidade de reconhecer antecipadamente os problemas;
    Pode ser utilizada como ferramenta estratégica no processo de planejamento, direção e controle.
    Apesar do aumento do número de pequenas organizações que utilizam a TI no gerenciamento de seus negócios, percebe-se que poucas conseguem efetivar o potencial que esta ferramenta proporciona em relação à vantagem competitiva, pois o seu uso está voltado às tarefas operacionais e rotineiras e não a atividades do processo estratégico.

    (view changes)
    11:18 am
  2. page Big Data edited O volume de dados que a sua empresa produz, consome, armazena e acede continua a crescer exponenci…
    O volume de dados que a sua empresa produz, consome, armazena e acede continua a crescer exponencialmente. De acordo com estimativas da IDC, espera-se que o volume de dados cresça 44 vezes ao longo do próximo ano, até uns extraordinários 35,2 zetabytes a nível mundial.
    Mas os volumes de dados são apenas parte da equação dos sistemas Big Data. Os sistemas Big Data introduzem também mais velocidade e maior complexidade no tratamento dos dados. Os fluxos de informação movem-se a uma velocidade nunca antes vista, numa variedade de formatos estruturados e não-estruturados. As TI tradicionais esforçam-se para manter sistemas Big Data, mas não possuem o know-how suficiente.
    O que são sistemas Big Data?
    Os sistemas Big Data são todos os sistemas de armazenamento físico e lógico de dados cujas dimensões ou complexidade ultrapassam a capacidade das tecnologias normalmente utilizadas para os captar, gerir e processar a um custo razoável, e num período de tempo aceitável. São o resultado da confluência de três tendências tecnológicas:
    Transacções de grandes volumes de dados: Massive growth of transaction data volumes
    Interacção de grandes volumes de dados: Interacção de grandes volumes de dados: media sociais, tecnologias sensoriais, registos de telecomunicações, etc.
    Processamento de grandes volumes de dados: New highly scalable processing with Hadoop
    {big_data_infographic_informatica1.jpg}

    A nova fronteira da inovação, competição e produtividade: Big Data
    No dia a dia, a sociedade gera cerca de 15 petabytes de informações sobre as suas operações comerciais e financeiras, bem como sobre clientes e fornecedores. Um volume impressionante de dados também circula nas mídias sociais e nos dispositivos móveis. Outro volume, tão impressionante quanto, é gerado pelo número cada vez maior de sensores e outros equipamentos embutidos no mundo físico, como rodovias, automóveis, aeronaves, máquinas robóticas, entre outros. Um único segundo de vídeo em alta definição gera 2.000 vezes mais bytes que uma página de texto. Capturar, manusear e analisar esse imenso volume de dados é um grande desafio.
    ...
    O Big Data já se espalha por todos os setores da economia. Um estudo mostrou que em 2009 cada empresa americana com mais de mil funcionários armazenava, em média, mais do que 200 terabytes de dados. E, em alguns setores, o volume médio chegava a um petabyte.
    O uso de Big Data já começa a se mostrar como um fator diferenciador no cenário de negócios. Alguns casos citados no relatório da McKinsey mostram que algumas empresas conseguiram substanciais vantagens competitivas explorando de forma analítica e em tempo hábil um imenso volume de dados. O Big Data trabalha duas palavras-chave: uma é volume (são bancos de dados de grandes volumes) e a outra é velocidade (o manuseio e o tratamento analítico têm que ser feito muito rapidamente. Em alguns casos, até mesmo em tempo real). Isso se dá pela abrangência de dados que podem ser manuseados. Um Data Warehouse tradicional acumula dados obtidos dos sistemas transacionais como os ERP. Esses sistemas registram as operações efetuadas pelas empresas, como uma venda, por exemplo. Mas eles não registram informações sobre transações que não ocorreram, ainda que de algum modo estejam refletidas nas discussões sobre a empresa e seus produtos nas mídias sociais. A empresa também pode registrar diversas informações com a digitalização das conversas mantidas pelos clientes com os call centers e pelas imagens do movimento nas lojas registradas em vídeo. Essas informações, geralmente não estruturadas, já estão disponíveis, e o que o conceito de Big Data faz é integrá-las de forma a gerar um volume mais abrangente de informações, que permita à empresa tomar decisões cada vez mais baseadas em fatos e não apenas em amostragens e intuição.
    Claro que ainda existem grandes desafios pela frente. Um deles é a tecnologia para manusear rapidamente esse imenso volume de dados. Existem algumas tecnologias orientadas a tratar volumes muito grandes, como Hadoop e os sistemas de bancos de dados específicos, como o Cassandra - sistema Open Source utilizado hoje pelo Facebook, pelo Twitter e pelo Reddit, que precisam tratar com muita velocidade imensos volumes de dados de forma distribuída. Seu maior ambiente operacional lida mais de 100 terabytes em um cluster de 150 servidores. Outra tecnologia interessante é um appliance voltado a tratar grandes bases de dados, como a Netezza, recentemente adquirida pela IBM.
    Outra tecnologia que tem muito espaço para crescer no área de Big Data é denominada stream computing. A IBM recentemente anunciou o InfoSphere Streams, baseado em um projeto de pesquisas da IBM Research, chamado de System S. O paper do então System S pode ser visto neste link (pdf).
    A ideia de stream computing traz um novo paradigma, além de ser fantástica. No modelo de data mining tradicional, uma empresa filtra dados dos seus vários sistemas e, após criar um data warehouse, dispara “queries”. Na prática, faz-se garimpagem em cima de dados estáticos, que não refletem o momento, mas sim o contexto de horas, dias ou mesmo semanas atrás. Com o stream computing, essa garimpagem é efetuada em tempo real. Em vez de disparar queries em cima de uma base de dados estática, coloca-se uma corrente contínua de dados (streaming data) atravessando um conjunto de queries. Podemos pensar em inúmeras aplicações, sejam elas em finanças, saúde e até mesmo manufatura. Vamos ver este último exemplo: um projeto em desenvolvimento com uma empresa de fabricação de semicondutores monitora em tempo real o processo de detecção e classificação de falhas. Com o stream computing, as falhas nos chips sendo fabricados são detectadas em minutos, e não horas, ou mesmo semanas. Os wafers defeituosos podem ser reprocessados e, mais importante ainda, pode-se fazer ajustes em tempo real nos próprios processos de fabricação.
    Do ponto de vista arquitetural, o stream processing é uma evolução do paradigma inventado na IBM pelo System R nos anos 70 e 80, no qual o R indicava "relacional", ou bancos de dados relacionais, em que o objetivo era coletar os dados num banco e usar queries para processá-los mais tarde.
    A principal mudança conceitual proposta pelo InfoSphere Streams está na ideia de se processar os dados à medida que ele são gerados. Um exemplo são as transações de cartões de crédito criadas nos pontos de venda com o intuito de, por exemplo, bloquear transações classificadas como fraudulentas em tempo real.
    Naturalmente, a quantidade crescente de dados disponíveis em tempo real (streams de dados) vem aumentando rapidamente. No mercado financeiro transacionado pelas bolsas de valores, já atingimos a marca de mais de um milhão de transações por segundo. Portanto, o modelo de construção de aplicações para processamento de dados dessa natureza também tem que evoluir de modo que se possa acomodar tanto a quantidade, quanto a natureza desses dados, assim como a distribuição da carga de trabalho associada aos sofisticados algoritmos necessários para a análise e classificação desses dados.
    Está claro que novas oportunidades de negócios são possíveis, devido à capacidade de processamento das informações em tempo real de dados disponíveis de sensores de localização, como etiquetas de rádio-frequência (RFID), de GPS disponível em telefones celulares, de sensores em carros, entre outros. Enfim, o potencial é quase inesgotável.
    Além das tecnologias de tratamento analítico de dados, são necessárias evoluções significativas na maneira de se visualizar os dados. É um campo que tem demandado muita pesquisa. Existem resultados interessantes como “tag cloud”, clustergramas (pdf), History Flow e Spatial Information Flow, e um belo exemplo pode se encontrado aqui.
    Mas temos outros desafios além da tecnologia: a escassez de profissionais qualificados para tratar analiticamente as informações geradas por essas imensas bases de dados. Um artigo interessante, que foi publicado recentemente pelo Wall Street Journal - edição brasileira - aponta esse problema. O artigo “MBAs agora preparam mineiros de dados” pode ser acessado por este link.
    O artigo diz que diante do fluxo crescente de dados da internet e outras fontes eletrônicas, muitas empresas começaram a procurar gerentes que saibam interpretar os números usando uma prática em expansão: a análise de dados, também conhecida como inteligência empresarial. Mas encontrar profissionais qualificados tem se mostrado difícil. Em razão disso, nos próximos meses várias faculdades americanas, como a Faculdade de Pós-Graduação em Administração da Universidade Fordham e a Faculdade de Administração Kelley, da Universidade de Indiana, oferecerão disciplinas eletivas e cursos de extensão e mestrados em análise de dados; outros cursos e programas do tipo foram lançados no ano passado.
    Referencias:
    http://www.informatica.com/pt/products_services/Pages/big_data.aspx
    http://www.mckinsey.com/Insights/MGI/Research/Technology_and_Innovation/Big_data_The_next_frontier_for_innovation

    (view changes)
    4:11 am
  3. page Big Data edited A nova fronteira da inovação, competição e produtividade: Big Data No dia a dia, a sociedade ge…

    A nova fronteira da inovação, competição e produtividade: Big Data
    No dia a dia, a sociedade gera cerca de 15 petabytes de informações sobre as suas operações comerciais e financeiras, bem como sobre clientes e fornecedores. Um volume impressionante de dados também circula nas mídias sociais e nos dispositivos móveis. Outro volume, tão impressionante quanto, é gerado pelo número cada vez maior de sensores e outros equipamentos embutidos no mundo físico, como rodovias, automóveis, aeronaves, máquinas robóticas, entre outros. Um único segundo de vídeo em alta definição gera 2.000 vezes mais bytes que uma página de texto. Capturar, manusear e analisar esse imenso volume de dados é um grande desafio.
    Aí é que entra um assunto que começa a despertar atenção: o chamado Big Data. O termo se refere aos bancos de dados de tamanho significativamente maior que os que usualmente conhecemos. Além disso, as tecnologias atuais não se mostram muito adequadas para manuseá-los. É claro que é uma definição bastante subjetiva e móvel, pois um certo tamanho considerado grande pode se tornar pequeno em poucos anos. Hoje, os nossos discos backup em casa trabalham com o volume em terabyte. Os grandes bancos de dados já estão na escala dos petabytes.
    Tratar analiticamente esses dados pode gerar grandes benefícios para a sociedade e para as empresas. Recentemente, a McKinsey Global Institute publicou um relatório muito interessante sobre o potencial econômico do uso do Big data, chamado de “Big Data: The Next frontier for innovation, competition and productivity” que pode ser acessado aqui.
    O Big Data já se espalha por todos os setores da economia. Um estudo mostrou que em 2009 cada empresa americana com mais de mil funcionários armazenava, em média, mais do que 200 terabytes de dados. E, em alguns setores, o volume médio chegava a um petabyte.
    O uso de Big Data já começa a se mostrar como um fator diferenciador no cenário de negócios. Alguns casos citados no relatório da McKinsey mostram que algumas empresas conseguiram substanciais vantagens competitivas explorando de forma analítica e em tempo hábil um imenso volume de dados. O Big Data trabalha duas palavras-chave: uma é volume (são bancos de dados de grandes volumes) e a outra é velocidade (o manuseio e o tratamento analítico têm que ser feito muito rapidamente. Em alguns casos, até mesmo em tempo real). Isso se dá pela abrangência de dados que podem ser manuseados. Um Data Warehouse tradicional acumula dados obtidos dos sistemas transacionais como os ERP. Esses sistemas registram as operações efetuadas pelas empresas, como uma venda, por exemplo. Mas eles não registram informações sobre transações que não ocorreram, ainda que de algum modo estejam refletidas nas discussões sobre a empresa e seus produtos nas mídias sociais. A empresa também pode registrar diversas informações com a digitalização das conversas mantidas pelos clientes com os call centers e pelas imagens do movimento nas lojas registradas em vídeo. Essas informações, geralmente não estruturadas, já estão disponíveis, e o que o conceito de Big Data faz é integrá-las de forma a gerar um volume mais abrangente de informações, que permita à empresa tomar decisões cada vez mais baseadas em fatos e não apenas em amostragens e intuição.
    Claro que ainda existem grandes desafios pela frente. Um deles é a tecnologia para manusear rapidamente esse imenso volume de dados. Existem algumas tecnologias orientadas a tratar volumes muito grandes, como Hadoop e os sistemas de bancos de dados específicos, como o Cassandra - sistema Open Source utilizado hoje pelo Facebook, pelo Twitter e pelo Reddit, que precisam tratar com muita velocidade imensos volumes de dados de forma distribuída. Seu maior ambiente operacional lida mais de 100 terabytes em um cluster de 150 servidores. Outra tecnologia interessante é um appliance voltado a tratar grandes bases de dados, como a Netezza, recentemente adquirida pela IBM.
    Outra tecnologia que tem muito espaço para crescer no área de Big Data é denominada stream computing. A IBM recentemente anunciou o InfoSphere Streams, baseado em um projeto de pesquisas da IBM Research, chamado de System S. O paper do então System S pode ser visto neste link (pdf).
    A ideia de stream computing traz um novo paradigma, além de ser fantástica. No modelo de data mining tradicional, uma empresa filtra dados dos seus vários sistemas e, após criar um data warehouse, dispara “queries”. Na prática, faz-se garimpagem em cima de dados estáticos, que não refletem o momento, mas sim o contexto de horas, dias ou mesmo semanas atrás. Com o stream computing, essa garimpagem é efetuada em tempo real. Em vez de disparar queries em cima de uma base de dados estática, coloca-se uma corrente contínua de dados (streaming data) atravessando um conjunto de queries. Podemos pensar em inúmeras aplicações, sejam elas em finanças, saúde e até mesmo manufatura. Vamos ver este último exemplo: um projeto em desenvolvimento com uma empresa de fabricação de semicondutores monitora em tempo real o processo de detecção e classificação de falhas. Com o stream computing, as falhas nos chips sendo fabricados são detectadas em minutos, e não horas, ou mesmo semanas. Os wafers defeituosos podem ser reprocessados e, mais importante ainda, pode-se fazer ajustes em tempo real nos próprios processos de fabricação.
    Do ponto de vista arquitetural, o stream processing é uma evolução do paradigma inventado na IBM pelo System R nos anos 70 e 80, no qual o R indicava "relacional", ou bancos de dados relacionais, em que o objetivo era coletar os dados num banco e usar queries para processá-los mais tarde.
    A principal mudança conceitual proposta pelo InfoSphere Streams está na ideia de se processar os dados à medida que ele são gerados. Um exemplo são as transações de cartões de crédito criadas nos pontos de venda com o intuito de, por exemplo, bloquear transações classificadas como fraudulentas em tempo real.
    Naturalmente, a quantidade crescente de dados disponíveis em tempo real (streams de dados) vem aumentando rapidamente. No mercado financeiro transacionado pelas bolsas de valores, já atingimos a marca de mais de um milhão de transações por segundo. Portanto, o modelo de construção de aplicações para processamento de dados dessa natureza também tem que evoluir de modo que se possa acomodar tanto a quantidade, quanto a natureza desses dados, assim como a distribuição da carga de trabalho associada aos sofisticados algoritmos necessários para a análise e classificação desses dados.
    Está claro que novas oportunidades de negócios são possíveis, devido à capacidade de processamento das informações em tempo real de dados disponíveis de sensores de localização, como etiquetas de rádio-frequência (RFID), de GPS disponível em telefones celulares, de sensores em carros, entre outros. Enfim, o potencial é quase inesgotável.
    Além das tecnologias de tratamento analítico de dados, são necessárias evoluções significativas na maneira de se visualizar os dados. É um campo que tem demandado muita pesquisa. Existem resultados interessantes como “tag cloud”, clustergramas (pdf), History Flow e Spatial Information Flow, e um belo exemplo pode se encontrado aqui.
    Mas temos outros desafios além da tecnologia: a escassez de profissionais qualificados para tratar analiticamente as informações geradas por essas imensas bases de dados. Um artigo interessante, que foi publicado recentemente pelo Wall Street Journal - edição brasileira - aponta esse problema. O artigo “MBAs agora preparam mineiros de dados” pode ser acessado por este link.
    O artigo diz que diante do fluxo crescente de dados da internet e outras fontes eletrônicas, muitas empresas começaram a procurar gerentes que saibam interpretar os números usando uma prática em expansão: a análise de dados, também conhecida como inteligência empresarial. Mas encontrar profissionais qualificados tem se mostrado difícil. Em razão disso, nos próximos meses várias faculdades americanas, como a Faculdade de Pós-Graduação em Administração da Universidade Fordham e a Faculdade de Administração Kelley, da Universidade de Indiana, oferecerão disciplinas eletivas e cursos de extensão e mestrados em análise de dados; outros cursos e programas do tipo foram lançados no ano passado.

    (view changes)
    4:00 am

Saturday, December 17

Wednesday, December 14

  1. page FEAF edited Federal Enterprise Architecture Framework O Governo dos Estados Unidos publicou em 16 de Julho de…
    Federal Enterprise Architecture Framework
    O Governo dos Estados Unidos publicou em 16 de Julho de 1996 a Ordem Executiva numero 13011, Tecnologia da Informação Federal (FEDERAL INFORMATION TECHNOLOGY) que diz que “um Governo que trabalha melhor e custa menos requer um Sistema da Iinformação eficiente e efetivo” e estabeleceu o Conselho dos Oficiais Chefes da Informação “Chief Information Officers(CIO) Council” como o principal forum interagencias para melhorar as práticas em desenvolvimento, modernização, uso, compartilhamento e a performance dos recursos da Agencia de Informação .
    O Plano Estratégico do (CIO) Council foi desenvolvido em janeiro de 1998 e comandou o desenvolvimento e manutenção da “Federal Enterprise Architeture (FEA)” para maximizar os benefícios da tecnologia da informação (TI) dentro do Governo dos Estados Unidos.
    Em abril de 1998 desenvolveu o Federal Enterprise Architecture Framework para prover um mecanismo de sustentabilidade para indentificar, desenvolver e documentação da descrição das arquiteturas das áreas de alta prioridade construidas em comum com as áreas de negócios e projetos que cruzam todas as áreas da de uma organização.
    O Federal Enterprise Architecture Framework prove uma estrutura organizada e uma coleção de termos comuns que os segmentos Federais podem integrar suas respectivas arquiteturas ao FEAF.
    Visão e Princípios do FEAF:
    A visão e princípios do FEAF são baseados em leis recentes que enfatizam a importância em obter resultados, obtendo o maximo retorno do investimento e eficiencia das operações, provendo informações e tecnologia de qualidade, protegendo a privacidade, mantendo a informação segura e prover serviços para o público.
    Porque desenvolver a FEAF?
    A necessidade de coletar informações comun de Arquitetura da Informação e construir um respositório para armazenar esta informação. O Framework permite o Governo Federal a alcançar o seguinte:
    Organizar a informação Federal em uma escala Federal;
    Promover o compartilhamento da informação com organizações Federais;
    Ajudar organizações Federais a desenvolver suas arquiteturas;
    Ajudar organizações Federais a rapidamente desenvolver seus processos de investimento em TI.
    Servir as necessidades dos clientes de forma melhor, rápida e custo-efetivo.
    O FEAF é recomendado em:
    Esforços do Governo Federal;
    Esforços de Agencias multi-federais;
    Em todas as áreas de negócio e investimentos do Governo Federal que envolvem com governos internacionais, estaduais ou locais.
    Qual o valor do FEAF?
    Promover a interoperabilidade do Governo Federal;
    Promover o compartilhamento dos recursos das Agencias;
    Prover potencial redução de custos do Governo Federal e Agencias;
    Melhorar a abilidade de compartilhar Informação;
    Apoiar o Planejamento do investimento em TI para o Governo Federal e Agencias.
    Componentes do FEAF:
    O FEAF descreve 8 componentes de um Enterprise Architecture (EA):
    Architecture Drivers
    Strategic Direction
    Baseline Architecture
    Target Architecture
    Transitional Processes
    Architectural Segments
    Architectural Models
    Standards
    {feaf.gif}

    (view changes)
    7:01 pm
  2. file feaf.gif uploaded
    6:59 pm

Monday, December 12

  1. page TOGAF edited ... A parte VI, TOGAF Reference Models, provê dois modelos arquiteturais de referência, denominado…
    ...
    A parte VI, TOGAF Reference Models, provê dois modelos arquiteturais de referência, denominados The TOGAF Technical Reference Model (TRM) e Integrated Information Infrastructure Reference Model (III-RM).
    Finalmente, a parte VII, Architecture Capability Framework, discute a organização, processos, habilidades, papéis, e responsabilidades necessários para estabelecer e operar uma prática arquitetural dentro de uma organização.
    Referências
    [1] Josey, Andrew. TOGAF Version 9.1 Enterprise Edition: An Introduction. Disponível em http://www.opengroup.org/togaf. Visitado em 12/12/2011.
    [2] The Open Group. TOGAF 9.1. Disponível em http://pubs.opengroup.org/architecture/togaf9-doc/arch. Visitado em 12/12/2011.

    (view changes)
    6:38 pm

More