ZTOP+ZUMO

Entrevista: uma hora com o diretor técnico da Kingston

Louis Kaneshiro afirma que disco de memória flash vai bem puro, misturado com mídia magnética e até na nuvem.

Conheci Louis Kaneshiro em 2010, época em que a Kinsgton trouxe seus primeiros discos SSD V Series para o mercado local. Na época gerente técnico sênior do grupo de SSDs da empresa, ele explicou as vantagens e limitações dessa tecnologia e, num bate papo informal depois da apresentação, ele falou muito sobre a sua visão do futuro dessa mídia e de como ela poderia evoluir para novos padrões, formatos e aplicações que estrapolavam o conceito de HD. Passado quase dois anos, ele me recebeu na sede da empresa em São Paulo onde pudemos botar as fofocas em dia e revisitar essas idéias.

Seguem abaixo os melhores trechos dessa conversa:

Nagano: Dois anos atrás o mercado de SSD estava na sua infância, oferecendo produtos com capacidade limitada, preços exorbitantes e que ainda estava começando a ser descoberto pelo mercado. O que mudou de lá para cá?

Kaneshiro: Eu acho que foi só quando o preço da mídia de SSD caiu para uns US$ 2 por GB é que vimos as vendas realmente decolarem nos EUA. Na época em nos encontramos pela última vez esse valor ainda estava na faixa dos US$ 3 ~ US$ 4 por GB. Eu recentemente fiz uma apresentação em um evento de negócios na Kingston para um público de uns 4 mil clientes e quando perguntei quantos de vocês usam discos SSD a maioria levantou as mãos — dois anos, atrás acho que umas cinco ou dez pessoas fariam o mesmo.

O que estamos começando a ver nas empresas — especialmente nesse tempos (bicudos) — é que elas estão realmente procurando tirar o máximo proveito de seus investimentos. Assim, se elas tem notebooks de dois ou três anos atrás e sentem que uma atualização é realmente necessária, isso é porque o usuário reclama que seu note está muito lento para inicializar (dá até tempo de tomar um café e voltar), que demora para baixar e-mails e coisas do tipo e os SSDs praticamente eliminam esses problemas.

Isso porque eu acho que a maioria das pessoas avalia desempenho baseados no tempo (ou latência) que eles esperam para terem uma resposta de seus sistemas e o que estamos começando a ver é que as empresas tem percebido isso e — em vez de comprar um equipamento novo — tem preferido pegar o que já tem e colocar um SSD para fazer as com que coisas andem mais rápido.

Um outro bom exemplo: Existe uma empresa de telecom nos EUA que utiliza um leitor de Smart Card em seus computadores que — por questões de segurança — obriga seus funcionários a aproximarem seus crachás para liberar o acesso aos seus sistemas. E o eles descobriram é que as novas gerações de notebooks que estavam cotando não era compatível com seus leitores, o que iria forçá-los a procurar e adquirir um novo sistema de autenticação e torná-lo compatível com seus sistemas. Em vezdisso, eles optaram por fazer um upgrade para SSD, mantendo todo o resto da infraestrutura intocada e economizando assim tanto na compra de novos equipamentos (hard cost) quanto no custo de migrar e adaptar seus sistemas (soft cost).

Depois que o custo do SSD caiu para US$ 2 por GB, outro mercado que começamos a atingir é o de usuários domésticos. Há dois anos tínhamos que explicar para o consumidor as vantagens dessa tecnologia e nos dias de hoje eles já tem um bom conhecimento desse produto e a conversa já é mais do tipo “Ei e ai… Vocês já tem um SSD?” o que é algo positivo. De fato, nossa linha de SSDs para o mercado de consumo já está até abaixo dos US$ 2 por GB, o que os torna ainda mais atraente para esse público.

No passado falava-se muito sobre a durabilidade dos SSDs questionando-se até a sua confiabilidade. Isso ainda é fato nos dias de hoje?

Eu acho que as coisas tem melhorado no sentido de que as pessoas estão mais educadas sobre essa tecnologia, graças ao esforço nosso e dos nossos concorrentes, principalmente no que se refere ao TBW (Terabytes Written) ou seja, quantos terabytes de informação eu posso gravar em um SSD. No passado quando comecei a falar sobre SSDs, a sensação geral era que se eu usar memória flash para armazenar dados, um dia elas iriam pifar e por causa disso, seus dados não iriam durar muito tempo.

Hoje, eu acho que devido a uma melhor compreensão dessa tecnologia e a grande quantidade de informação disponível na internet, hoje o consumidor já sabe quanta informação pode ser realmente gravada num SSD. E se falarmos da nossa linha de produtos baseados na tecnologia SandForce como o HyperX SSD (embaixo)o KC100 ou mesmo o V+200, a nossa versão de 480 GB pode gravar algo em torno de 300 a 400 terabytes de dados antes dele chegar na metade da sua vida útil — o que é muita informação. O que quero dizer é que diante disso, acredito que durabilidade não é mais uma preocupação para o consumidor final.

Entretanto, existe um grande desafio adiante — já que a medida que a escala do processo de fabricação do chip de memória diminui cada vez mais, a sua durabilidade também tem reduzido. Dois anos atrás os chips de memória flash que usávamos em nossos SSDs  eram do tipo 5K NAND ou seja, 5 mil ciclos de gravação/deleção (Programing/Erasing ou simplesmente PE) por célula, e nos dias de hoje já temos memórias de 3K NAND.

Assim eu diria que a medida que os chips de memória se tornam cada vez menores e o mercado caminha na direção de oferecer discos cada vez mais em conta, durabilidade ainda é um assunto sério.

Assim, se eu fabricar um SSD com memória NAND que só grava 3 mil ciclos (e num futuro próximo até 2 mil ciclos) como posso proporcionar o mesmo nível de durabilidade? — Essencialmente, o iremos fazer é vender um disco com uma maior “reserva de memória” que será usada para substituir os endereços da área principal de memória do SSD que caducarem antes do tempo. Algo que chamamos de “over-provisioning“.

Minha previsão é que daqui a alguns anos você poderá comprar um disco de 200 GB que tem, na realidade, 256 GB de memória NAND sendo que esses 56 GB “ocultos” serão usados pelo controlador de memória para gerenciar melhor o nível de desgaste do disco (wear leveling) aumentando assim a sua vida útil.

Nagano comenta: Vale a pena notar que o disco SSD (ou qualquer chip de memória Flash) só se ” desgasta” quando o conteúdo de um endereço da sua memória é alterado, o que não acontece nas operações de acesso/leitura dos dados contidos no disco, como a carga de um programa ou mesmo a reprodução de um vídeo ou música.

Fora isso, quando um disco SSD chega muito perto do fim da sua vida útil, seu controlador de memória desliga o modo de gravação automaticamente (e para sempre), protegendo assim o conteúdo já armazenado que assim pode ser recuperado e transferido com segurança para outra mídia.

E existe alguma relação entre durabilidade e desempenho em um SSD?

Não, o desempenho mantém-se constante mesmo se o disco estiver bem usado. Realizamos testes no meu laboratório desagastando esses discos de propósito e, acredite ou não, isso demora muito.

Na primeira vez que tentamos desgastar um SSD, ele ficou realizando ciclos de encher o disco de dados e depois apagá-los continuamente por 24 horas por dia, 7 dias por semana e mesmo assim levou sete meses para acabarmos com ele. E nas medições que fizemos para ver quanto demorava cada um desses ciclos de encher e apagar o disco, o resultado manteve-se constante do início até perto do fim do experimento.

E o que você espera desse mercado para os próximos anos? Mais capacidade? Melhor desempenho?

Bom, o SATA 600 (ou 3.0) já está entre nós faz algum tempo e já temos produtos compatíveis. Eu acho que esse desafio já foi alcançado já que os nossos discos da linha HyperX, KC100 e até o V+ já gravam a 500 MB/s, 2.500 MB/s, 3.000 MB/s e o padrão é 600 MB/s. Assim eu acredito que haverá uma revisão do padrão SATA em breve.

E a medida que os preços melhorem, acredito que iremos ver uma maior popularidade dos SSD de 512 GB e 1 TB no mercado.  Atualmente eles ainda são bem caros, já que nos EUA um SSD de 512 GB está em torno de US$ 1.000. Hoje o melhor custo x benefício (“sweet spot”) da linha está nos modelos de 128 GB, mas em breve o modelo de 256 GB ocupará este posto e depois dele o de 512GB/1TB. Acredito que os modelos de 64 GB e mesmo o de 32 GB ainda existirão no mercado, porém mais para atender a necessidade especial de algum OEM como um sistema dedicado de baixa capacidade baseado em Linux.

Qual a sua opinião sobre os discos híbridos (HD + SSD)? 

Eu acho essa tecnologia muito interessante. Veja por exemplo o que a Intel tem feito nesta área com o chipset Z68 (tecnologia Intel Rapid Storage ou simplesmente RST) que também estará presente nos novos Ultrabooks. O que eles fizeram foi usar discos SSD de menor capacidade trabalhando como um cache para grandes discos rígidos convencionais.

No geral, o que acontece quando clicamos no ícone de um programa como o Excel? O que o SO faz é ver primeiro se ele está disponível no seu cache, depois na memória RAM e finalmente no disco rígido. Nesse novo esquema, introduz-se uma área de armazenamento intermediário de altíssimo desempenho que parte da premissa de que quando o seu modelo de uso é previsível — digamos, eu sempre uso o Lotus Notes ou vejo meus emails a toda hora no trabalho — é possível fazer com que as rotinas mais usadas para ativar essas aplicações (que estão no HD) fiquem espelhadas no SSD, de modo que, caso elas sejam chamadas pelo usuário, o sistema responde quase que instantaneamente.

O que observamos em nossos testes com essa tecnologia híbrida de HD + SSD da Intel é que seu desempenho chega a ser de 75% a 80% de um disco SSD convencional. Trata-se de um resultado muito interessante, e o que já estamos fazendo é procurar uma empresa de software capaz de nos fornecer uma solução semelhante.

Entretanto, eu diria que existe um problema fundamental nesta tecnologia da Intel que é o fato do usuário precisar configurar previamente o sistema de um certo modo — ou mais exatamente — os discos precisam ser configurados no modo RAID. Caso isso não seja feito e o usuário seguir em frente e instalar o sistema operacional e seus aplicativos, não será possível tirar proveito do RST.

Minha impressão é que ainda não é comum para o usuário médio instalar e configurar discos em RAID. Daí nosso interesse em encontrar uma empresa de software capaz de criar uma solução que permita que um PC já com tudo instalado e funcionando, seja capaz de aceitar um dos nossos discos SSD e usá-lo como cache sem ter que reformatar o HD — e tudo isso com apenas seis cliques de mouse.

Fora isso, ainda existe a possibilidade de que um SSD trabalhe como cache para outro SSD. Já fizemos testes deste tipo e os resultados foram muito interessantes em termos de velocidade.

E os discos convencionais com SSD integrado?

No caso de produto combinado, eu não acho que 8 GB de NAND seja suficiente. Em nossos testes, vimos que 32 GB tende a ser a melhor relação custo x benefício. Se você tiver mais tudo bem, mas fizemos testes com 8 GB, 16 GB e 32 GB e este último foi o que se saiu melhor.

Nagano comenta: Curiosamente, ma semana seguinte a essa entrevista durante o IDF São Paulo, a Intel apresentou um disco SSD/Cache de apenas 20 GB para implementar o RST em desktops, 12 GB a menos que o sugerido por Kaneshiro.

O que notamos é que com 8 GB o sistema até que funciona no início, mas a medida que introduzimos mais itens/programas a nossa rotina de trabalho, chega um ponto em que o disco de cache enche e o algoritmo que gerencia o mesmo precisa decidir o que eliminar para liberar espaço para as novas informações. Isso força o algoritmo a ficar constantemente reaprendendo o que o usuário faz ou deixa de fazer no seu dia a dia, o que faz com que algumas aplicações que antes pareciam ter ficado mais rápidos voltem para o desempenho antigo o que pode passar a impressão para o usuário que seu sistema voltou a ficar lento.

Já com 32 GB isso não acontece com tanta frequência já que ele conta com espaço de sobra para armazenar aplicações como Photoshop, Outlook, Chrome, PowerPoint etc. Assim, eu prefiro uma solução híbrida baseada em SSD + disco separados do que uma solução “tudo em um” que pode até ser melhor do que nada, mas acho que poderia ser melhor.

Já que você mencionou discos SSD em RAID, eu me lembro que a dois anos atrás você disse que no futuro poderá haver novos padrões de formato como dois discos SSDs pré-configurados em RAID empacotados dentro de um volume e apresentado como um único disco. Você ainda acha isso víavel?

Ah sim, ainda acho isso realizável mas é preciso o uso de uma interface mais veloz como por exemplo, PCI Express. O que alguns de nossos competidores já tem são discos SSD com PCIe, mas não na forma de um disco SSD com cache. Em termos de desempenho, se levarmos em consideração que SATA 3.0 chega a 600 MB/s o que posso fazer para que os SSDs fiquem mais velozes? Acredito que a controladora RAID integrada da Intel é capaz de suportar 1.000 MB/s o que seria dois de nossos SSDs. E mesmo se eu partir para RAID 4 eu não vou ter melhor desempenho que meus dois SSDs. O que já vi em termos de desempenho máximo no meu laboratório foi o de usar múltiplos controladores RAID.

Recentemente eu fiz uma demo com um PC topo de linha equipado com duas controladoras RAID com PCIe da LSI, sendo que cada uma estava com quatro dos nossos novos discos E100 (um OEM da série X da Intel) para servidores instalados e tudo gerenciado via software pelo Windows. Com tudo funcionando a todo vapor fui capaz de alcancar quase 150.000 Write IOPS o que é algo fenomenal. Eu não sei se haveria uma interface ainda mais veloz (Thunderbolt  talvez?) já que o USB 3.0 está limitado a 480 MB/s e o eSATA mantém se a 600 MB/s. De qualquer modo, seria necessário uma interface mais veloz na faixa dos 1.000 MB/s para tirar pleno proveito dessa idéia.

E essa demonstração que você fez é algo mais para impressionar a platéia ou já existem aplicações práticas para isso?

No segmento de desktop não, mas no de servidores sim, principalmente no que as empresas chama de Big Data ou banco de dados em memória. Eu diria que no mundo dos desktops e notes haveriam aplicações para sistemas capazes de fazer dezenas de milhares de IOPs, mas não na casa das centenas de milhares.

Um dos termos da moda nos dias de hoje é a chamada Cloud Computing e que o seus promotores defendem a idéia de que tudo pode ou deveria estar na nuvem. Isso na sua opinião pode ajudar ou atrapalhar o seu negócio? 

Eu acho que isso depende. Minha única experiência pessoal com a nuvem foi de “subir dados”. Na minha casa eu tenho uma conexão muito boa com a internet (modem a cabo, alta velocidade) e ganhei do meu provedor 2 GB de armazenamento. Só que na hora de testar o serviço eu levei duas hora para subir 1 GB de dados. Assim, eu gosto da idéia de ter algumas das minhas informações na nuvem, mas eu acho que dependendo da aplicação — como por exemplo fazer um backup das minhas fotos pessoais, eu não vou passar 100 horas pra subir 500 GB de imagens!

De fato, um cliente nosso contou um caso em ele também ganhou um serviço de armazenamento na rede mas o tempo de upload era tão ruim (e ele provavelmente deve ter reclamado tanto) que o provedor do serviço mandou um disco rígido externo para sua casa e disse para ele colocar tudo que ele queria subir na rede no disco, mandar de volta para eles pelo correio que eles copiariam direto no servidor. É isso que chamo de uma péssima experiência do usuário.

Eu particularmente estou mais interessado no que o mercado chama de “Personal Cloud” ou seja, eu não quero que minhas informações estejam guardadas na rede (na mão de terceiros) mas gostaria que elas estivessem acessíveis para mim na rede. Estamos de olho nesse conceito, mas ainda não posso revelar mais detalhes neste momento.

Gosto da idéia da nuvem, das possibilidades dessa tecnologia, mas existem questões no que se refere a qualidade do serviço (que podem impactar na experiência do usuário) e também na confiança que depositamos nesses serviços. Eu não nenho problemas em confiar em empresas como Amazon ou Microsoft mas, por exemplo, ainda não consegui convencer o meu pai a pagar uma conta pela internet. Ele ainda prefere fazer o cheque botar no correio.

No passado tínhamos no mercado diversos tipos de cartões de memória e atualmente a oferta de reduziu para apenas três formatos e suas versões “micro” — CF, SD e MS (Memory Stick). Você acha que a guerra dos formatos acabou ou o mercado ainda tem espaço para adotar novos padrões e formatos?

Nos dias de hoje preço é um fator muito importante, principalmente nesse mercado onde praticamente todos fabricam  a mesma coisa baseados num mesmo padrão o que torna esses produtos uma espécie de “commodity“. Assim, eu acredito que qualquer novo formato que queira entrar nesse mundo precisa de duas coisas: uma grande aceitação do mercado e não deve estar associado a nenhum contrato de licenciamento. Este último motivo, por sinal, explica por que a Kingston não nunca fez Memory Stick (Sony) ou xD Picture Card (Olympus/Fuji).

Talvez o motivo que leve a criação de um novo formato esteja mais associado à velocidade de gravação da mídia, principalmente nos dias de hoje onde muitos equipamentos — em especial as câmeras digitais — começam também a fazer vídeos em alta definição — o que gera uma tremenda quantidade de informação — que precisa ser armazenada no cartão de memória de maneira rápida e eficiente.

Assim, quando vejo as especificações de cartões como o SDHC ou CF eu acho que a velocidade de gravação ainda está adequada para as atuais aplicações do mercado, mas se surgir — por exemplo — um novo formato de vídeo que precise transferir uma maior quantidade de bits numa velocidade mais elevada (vídeos em 4K?) talvez apareça uma janela de oportunidade para uma nova especificação/formato de mídia. Mas isso não partirá de nós e sim dos fabricantes de câmeras e até mesmo dos usuários. Caso contrário, estamos bem servidos com o SD/MS para câmeras, micro-SD para celulares e smartphones e CF para câmeras mais profissionais. E as coisas ficam ainda mais fáceis com o uso de adaptadores.

Alguma novidade no segmento de Memory keys?

Lançamos recentemente novos modelos com porta USB 3.0, entre eles o DTE 30  (Data Traveller Elite) que seria uma opção de valor que chega na faixa dos modelos que já vendemos com porta 2.0. A grande vantagem dele é que — no geral — um memory key comum com porta USB 2.0 grava dados numa velocidade em torno de 5 MB/s, 6 MB/s, talvez até 10 MB/s. Já o DTE 30 chega a gravar de 36 MB/s a 37 MB/s e o HyperX (DTHX 30) chega a mais de 100 MB/s!

Quando conversamos pela última vez, tanto o SATA 600 quanto o USB 3.0 estavam chegando ao mercado e eu acho que SATA 600 é um padrão legal porém Windows é Windows! — ou seja — fora o tempo de boot eu não vejo como o usuário pode sentir a diferença entre usar um SSD com SATA 300 ou SATA 600. Para mim, se você tiver uma bom disco SSD com SATA 300 você está bem servido. É verdade que com o SATA 600 você terá mover arquivos mais rapidamente mas — cá entre nós — quantas cópias de arquivo você faz no seu notebook durante o dia?

Já no caso do USB existe uma grande diferença entre os 48 MB/s do USB 2.0 e os 480 MB/s do USB 3.0 — principalmente nos dias de hoje onde as pessoas compram memory keys de 4, 8, 16, 32 e até 64 GB. E quando você compra um dispositivo de alta capacidade, você não vai usar ele para transferir miudezas e sim coisas grandes como imagens de discos, bibliotecas de músicas, etc. — E mover 10 GB de dados na velocidade do USB 2.0 (5~6 MB/s) é um exercício de paciência!

Numa experiência que fizemos com o DTI G3 (embaixo) — nosso modelo básico com porta USB 2.0 — para copiar 10 GB de músicas do PC para o memory key ele levou 45 minutos — o que é muito tempo! Já com o DTE 30 ligado na mesma porta USB 2.0 o tempo caiu para 9 minutos! Neste caso não foi nem preciso ter uma porta USB 3.0 — só o fato de tirarmo o máximo proveito da porta USB 2.0 já tivemos uma  economia de 36 minutos, o que também é muito tempo.

E um memory key com Thunderbolt?

A Intel chegou a nos peguntar sobre essa idéia, mas ainda não vimos tanta vantagem nisso quanto, por exemplo, um disco SSD externo (até montado em RAID como falamos acima) com Thunderbolt. Estamos de olho nesta tecnologia para depois vermos o que fazer.

Memórias RAM — Alguma novidade nesse segmento? 

Velocidades maiores e voltagens menores. Como o recente lançamento da plataforma Intel Romley (Xeon E5) agora temos suporte para memórias de 1600 MHz que — acredite ou não — são até mais velozes já que a produção dos chips de memória DDR3 está tão boa que pegamos nossas memórias DDR3 1600 com ECC e fizemos overclock nelas! O Padrão DDR3 já está a um bom tempo no mercado (nossas primeiras demos são de 2006) e ainda vão durar por mais algum tempo e acho que a evolução estará na maior capacidade. Eu acho que já termos módulos de memória  de 8 GB é algo realmente importante, principalmente com a atual proliferação dos sistemas de 64 bits. Hoje quando você compra um computador novo ele vem com o quê? — Windows 7 Home Premium de 64 bits — porque hoje já é comum eles saírem de fábrica com 4 GB de RAM. Em breve eu acredito que 8 GB de RAM será o padrão como é hoje os 4 GB e o próximo salto será de 8 GB para 16 GB.

Uma coisa interessante que as pessoas podem fazer com toda essa memória é criar um RAMDRIVE e usá-lo, por exemplo, para armazenar os arquivos de trabalho (scratch disk) do Photoshop ou até mesmo renderizar imagens. E nesse caso ocorre até uma inversão de valores já que no geral, o processador espera a informação vir do HD, mas com o RAMDRIVE é o disco fica esperando a CPU mandar a informação.

De fato, fizemos alguns testes com uma workstation dual socket com apenas um processador Xeon e colocamos 48 GB de memória RAM e separamos 8 GB para o SO e pegamos o restante para criar dois RAMDISKs de 20 GB cada para armazenar os arquivos de renderização. O tempo de resposta desses discos foi tão bom que e foi necessário instalar um segundo processador Xeon para tirar o máximo proveito dessa configuração.

E mesmo com menos memória — digamos 32 GB distribuídos em quatro slots com 8 GB cada — é possível criar um disco de 24 GB num desktop de mesa e usá-lo para rodar jogos! E alguns programas com o SuperSpeed Ramdisk são inteligentes ao ponto deles gravarem uma imagem desse disco no HD antes de desligar o PC e recuperá-lo quando o mesmo for religado ou seja, ele se comporta com mais um disco do sistema!

E não seria interessante se a Kingston pudesse oferecer ou pelo menos certificar/recomendar um produto para esse tipo de aplicação?

Estamos trabalhando nisso. 🙂

 

 

Desde o século passado Mario Nagano analisa produtos e já escreveu sobre hardware e tecnologia para veículos como PC Magazine, IDGNow!, Veja e PC World. Em 2007 ele fundou o Zumo junto com o Henrique assumindo o cargo de Segundo em Comando, Editor de Testes e Consigliere.

  • constantino 11/06/2012, 10:10

    Parabéns, Nagano! Excelente entrevista… Concordo plenamente com o que o Kaneshiro diz, o mercado de SSD está ganhando espaço a passos largos…. Se garimpar na newegg você consegue comprar uma SSD de 256gb por menos de 200 USD, o que é uma pechincha comparado ao que encontravamos a 1 ano atrás.

    Abraço!

    Marco

    • mnagano 11/06/2012, 10:53

      Na época dos primeiros SSDs eu cheguei a ver um SSD de 1,8" de 64 GB para o Thinkpad X300 (lançado em 2008) pela bagatela de US$ 1,5 mil — um precinho até que ultrajante se levarmos em consideração que o X300 era vendido nessa mesma época por US$ 2.700~US$ 3.300!

      http://ztop.com.br/2008/07/21/hands-on-hd-ssd-sam

  • André Pessoa 26/06/2012, 11:47

    Sr. Louis Kaneshiro, por favor, se atualize. Nos Estados Unidos é perfeitamente possível comprar o SSD Crucial M4 de 512 GB a partir de US$ 340, que embora tenha uma performance de escrita um pouco inferior aos modelos topo de linha da OCZ e da própria Kingston, ainda assim é uma barganha por enquanto inigualável. (P.S.: sou um feliz proprietário de 8 GB de memória RAM Kingston no meu notebook e de 3 flash drivers da marca, de 16 e 32 GB).

    • mnagano 26/06/2012, 12:41

      Apenas US$ 340? — Cool! Compra uma meia-dúzia e manda pra ele de presente.

      Assim vc também ajuda ele a ficar atualizado.

  • Edu Lima 24/01/2015, 23:01

    Mario, você toma notas, no bloco de papel, grava o audio da conversa toda e faz as fotos. Bacana 🙂

    • Mário Nagano 28/01/2015, 20:36

      Aqui no Ztop o serviço é completo: barba, cabelo, bigode e cotovelo. Agora falando sério, a não ser que você queira/precise de uma transcrição exata da conversa com o executivo, dá pra escrever a matéria apenas usando as notas. Neste caso, o gravador serve mais para recuperar alguma informação que possa ter escapado da sua memória.

      O problema é que algumas vezes o papo está tão bacana que até esqueço de fazer algumas fotos. Ai lá vai nós atrás da assessoria atrás daquela foto oficial e comportada do executivo.