quinta-feira, 1 de dezembro de 2011

Entrevista com os caras do NGINX

Nginx

Apache is still the undisputed king of web server software but according to the latest Netcraft Web Server Survey from November 2011, NGINX usage has grown almost 300% over the last year.

In real numbers NGINX increased from about 15 million sites a year ago to 43 million in November 2011. That’s a faster growth than any other web server software tracked by Netcraft.

Since we’re big fans of NGINX at Pingdom, we wanted to try to understand this tremendous growth, so we put some questions to Andrew Alexeev (Q&A further down). Andrew looks after Business Development and Marketing for NGINX Inc., the company formed in October this year, backed by $3 million in venture funding, with the intent to expand the open source NGINX project and explore commercial opportunities.

NGINX usage has skyrocketed

NGINX is the little web server that could. At least that’s how it started in 2002, a development project with the goal of creating a fast and light-weight web server that could take on specialized roles as load balancer, caching, etc.

With a first public relese in 2004, NGINX has gone from strength to strength. Besides being fast, NGINX also requires relatively few resources on the machine it runs on. All things combined, NGINX can handle a very large number of simultaneous connections without suffering in performance.

The high performance is certainly one main reason why NGINX is popular among webmasters around the world. That NGINX is also open source certainly hasn’t hurt its popularity.

If you’re a regular reader of this blog, you may remember that we wrote about the dramatic increase in popularity of NGINX a year ago.

Here’s the development of NGINX over the last few years according to Netcraft:

Just to put the NGINX numbers in perspective, we should point out that in Netcraft’s surveys, the total number of sites tracked as well as NGINX’s main competitors have also seen an increase:

  • The total number of sites tracked by Netcraft has doubled over the last year from 249,461,227 in November 2010 to 525,998,433 in November 2011.
  • In the same period, Apache increased from 148 million sites to almost 342 million.
  • Microsoft’s IIS grew from 57 million to over 81 million.

Q&A with Andrew Alexeev from NGINX

This mind boggling growth for NGINX obviously creates lots of questions.

So following up on last year’s interview we wanted to throw some questions at NGINX again to see what’s been happening and what the plans are for the future.

Andrew Alexeev who’s in charge of Business Development and Marketing for NGINX took time to answer our questions.

Pingdom: What was the genesis of NGINX? How and why did it get started?

Andrew: NGINX started in 2002. Igor Sysoev ‒ the original author of NGINX ‒ had been working at Rambler, a big Russian media company. While there, he pondered the feasibility of writing his own web software to make highly loaded websites scale much better.

It all started with a question raised by the prominent software engineer Dan Kegel: Would it be possible for a web server to easily handle 10,000 or more concurrent connections? Igor was quite intrigued by the possibility, so he started to study in more detail the challenges associated with making a fast, compact and scalable web server.

In those days, the main problem faced by legacy web servers was their inability to handle lots of concurrency, which was caused primarily by large numbers of slow clients. Nowadays, concurrency is also caused by a combination of mobile clients (who are still predominantly slow) and the newer application architectures, which are often based on maintaining a persistent connection, allowing the client to be quickly updated with the content. An additional important factor contributing to increased concurrency is the changed behavior of modern browsers, which typically open four to six simultaneous connections to a website to increase the speed of page downloads.

Older web software spawns a separate process or thread for each new connection, making it inefficient as the number of simultaneously connected clients grows to thousands and tens of thousands, with huge numbers of requests per second.

To deal with these concurrency-related problems, Igor decided on event-based, asynchronous, non-blocking architecture for NGINX, which would allow web servers to process many thousands of connections inside a single process and a highly efficient run-loop. This solution turned out to be a very successful approach for many companies on the Web.

Igor opened NGINX to the public in 2004, and NGINX’s popularity has been growing rapidly ever since. NGINX has always open source software distributed under the 2-clause BSD license, a model many users appreciate because of its simplicity and flexibility. Since launching the solution, Igor has received many useful suggestions for enhancing NGINX, and over the past 10 years he has introduced a number of new features that have established NGINX as a really interesting toolset.

NGINX has become a very important enabling mechanism for big and small companies worldwide, currently powering 4 out of the top 10 companies from Business Insider’s 2011 “World’s Most Valuable Startups” list, including Facebook, Groupon, LivingSocial and Dropbox. NGINX is also being run by 25% of the top 1,000 busiest websites, and overall by 45 million websites on the Internet.

Pingdom: We asked you last year why you thought NGINX was growing so fast. In a year, according to Netcraft, the number of servers running NGINX has almost tripled to just over 43 million in the November report. To what do you attribute this?

Andrew: We think there are several reasons why NGINX is becoming even more popular. First of all, while its development has been quite fast, the growth of new features has developed steadily over time and with a predictable release cycle. The result is that people now understand this software is being thoughtfully and carefully maintained and they have confidence it will continue to be developed further.

Secondly, NGINX is no longer just a fast and compact web server but also a web infrastructure platform. In a variety of contexts, NGINX provides the right tools for the right job ‒ or rather it provides a set of the right tools. It can be used as a high performance web server for static and dynamic content, a Layer 7 load balancer, caching engine, HTTP streaming server, SSL accelerator, mail proxy and a security gateway for backend applications.

NGINX also brings an important set of values to web developers, including efficiency, performance, scalability and reliability, as well as optimized costs of development, deployment and operations for either large-scale or smaller web installations.

Finally, whether you’re using one or two of NGINX’s features or have made it a complete solution, the software remains compact and is capable of serving an increasing workload without consuming much additional hardware resources.

Pingdom: You have indicated before that NGINX is used more often as a proxy than as a main web server. Has the typical use of NGINX changed any over time?

Andrew: It seems it actually has changed. In the past few months we’ve heard several very interesting stories about people using NGINX in combination with FastCGI/PHP-FPM, Ruby on Rails and Python. There are companies out there that happen to have hundreds of application-enabled NGINX instances handling some really big workloads. An interesting example is WordPress.com, which has recently migrated its web servers completely to NGINX to serve 25+ million blogs.

There are also some notable examples of heavy NGINX usage with reverse proxy. CloudFlare’s service is probably one of the best examples here. CloudFlare, which built its front-end infrastructure with NGINX, is now serving over 15 billion page views per month, delivering great services to their customers ‒ and this has happened in just one year after the service was launched to the public.

Pingdom: In October 2011 you announced that you had received $3 million in venture funding. Why did you decide to go this way and what does it mean for the future of NGINX?

Andrew: With NGINX’s popularity, it didn’t make sense for Igor to continue NGINX as a single-handed development project. Igor realized that a) NGINX is the project he would like to develop further and make even better, and b) he’s not able to do that efficiently by himself. With that in mind, Igor decided to quit his job and start a company with a few other people, and that is exactly what happened.

The company is focusing on two main directions. The first is to intensify the focus on open source product development. Our plan is to make the free open source NGINX better, enhance it with the new features and functionality, resolve problems, implement bug fixes, and so on. We’ve been also actively improving documentation to make it more consistent and clear. Many of our users have already noticed progress on that front. In fact, support processes have already been streamlined since the company received venture backing. We will continue to distribute the free open source version of NGINX under the BSD license, and there will be no shortage of new and interesting enhancements.

Our second focus is on creating a commercial entity which will offer paid products based on NGINX. From our conversations with existing customers and partners, we’ve learned they would like to see more features specific to their areas of business on top of NGINX ‒ and they have been very clear that these features are worth paying for. For example, we’re currently producing a set of valuable extensions for the CDN, hosting, cloud, media and entertainment markets. The commercial products will capitalize on the core strength of NGINX as a high-performance and efficient platform for connection processing and optimization. At the same time, we’ll plan to expend considerable effort on keeping the right balance between what we’re going to sell and what will be open source, as both the company and the investors clearly understand the subtle line you need to follow to avoid distracting such a great open source user community.

Pingdom: Before, Igor Sysoev was the only developer of NGINX, has that now changed and how big is the team?

Andrew: The development team currently consists of Igor and three other developers. We also have system engineers onboard responsible for internal services and for supporting the customer cases.

Pingdom: Finally, is usage statistics like what’s available at Netcraft.com something you pay attention to? If so, does it in any way influence the future direction of NGINX in terms of features and functionality?

Andrew: We do track web server usage surveys and statistics (mainly from Netcraft and W3Techs). This information doesn’t really influence the direction of NGINX, however. Primarily, we listen and talk to the community users who provide real-life feedback and suggestions to include in the roadmap as we plan our future. On the other hand, it does show us that NGINX is headed in the right direction, because for quite a while we’ve been the only web server with its market share steadily growing. So, the web server surveys are actually good indicators for us in gauging whether we’ve been delivering a valuable product.

A bright future ahead for NGINX

We think it’s good news for NGINX and all users of the web server software that the company has received an investment and hired more developers. This is the path that many similar projects have taken in the past, such as MySQL. In some cases the community of passionate users have to some degree voiced concerns about the future of the project. To alleviate the risk of that happening with NGINX, it is in the company’s interest to keep the passion alive in the community at the same time as they work on the commercial side of the business.

We also get the impression that the guys at NGINX have a good understanding of what it is that makes the web server software so popular, which should mean they stand a good chance of achieving commercial success as well.

One thing is for sure and that is that increased success comes with increased attention. It’s been suggested that by the end of 2012, NGINX may have become the number two web server in the world. When and if that happens we hope to be be able to check in with the NGINX team again to see how the company and the software is developing.

NGINX may have been the little web server that could, but now it’s playing in the big league.

A big thanks to Andrew Alexeev for taking the time to talk to us about NGINX.

Image credit: Nginx logo by Cliff Wells.

terça-feira, 10 de maio de 2011

Stack overflow points

What is reputation?

Reputation is completely optional. Normal use of Stack Overflow — that
is, asking and answering questions, or submitting an edit — does not
require any reputation whatsoever.

If you'd like to help us run Stack Overflow, you'll need to earn some
reputation first. Reputation is a rough measurement of how much the
community trusts you. Reputation is never given, it is earned by
convincing fellow users that you know what you're talking about.

The primary way to gain reputation is by posting good questions and
useful answers. Your peers will vote on your posts, and those votes
will cause you to gain (or, in rare cases, lose) reputation:
answer is voted up +10
question is voted up +5
answer is accepted +15 (+2 to acceptor)
post is voted down -2 (-1 to voter)

A maximum of 30 votes can be cast per user per day, and you can earn a
maximum of 200 reputation per day (although accepted answers and
bounty awards are immune to this limit). Please note that votes for
posts marked "community wiki" do not generate reputation.

The other way to gain reputation is by suggesting edits to existing
posts as a new registered user. Each edit will be peer reviewed, and
if it is accepted, you will earn +2 reputation. You can only earn a
maximum of +1000 total reputation through suggested edits, however.

Amass enough reputation points and Stack Overflow will grant you
additional privileges:
15 Vote up
15 Flag for moderator attention
50 Leave comments†
100 Edit community wiki posts
125 Vote down (costs 1 rep)
200 Reduced advertising
250 Vote to close, reopen, or migrate your questions
500 Retag questions
1000 Show total up and down vote counts
1500 Create new tags
2000 Edit other people's posts, vote to approve or reject suggested edits
3000 Vote to close, reopen, or migrate any questions
5000 Vote to approve or reject suggested tag wiki edits
10000 Vote to delete closed questions, access to moderation tools
15000 Protect questions to prevent answers by new users
20000 Vote to delete negatively voted answers and stronger question
deletion votes

† you can always comment on your questions and answers, and any
answers to questions you've asked, even with 1 rep.

At the high end of this reputation spectrum there is little difference
between users with high reputation and ♦ moderators. That is very much
intentional. We don't run Stack Overflow. The community does.
What if I don't get a good answer?

First, make sure you've asked a good question. In order to get good
answers to your question, you may need to put additional effort into
your question. Edit your question to provide status and progress
updates. Document your own continued efforts to answer your question.
This will naturally bump your question and get more people interested
in it.

If, despite your best efforts, you feel questions aren't getting good
answers, you can help by offering a bounty. Slice off anywhere from
+50 to +500 of your own hard-earned reputation and attach it to any
question as a bounty. The bountied question will appear with a special
indicator in all question lists, and it will also be visible on the
home page Featured tab for the duration of the bounty period.

Click the bounty award icon next to each answer to permanently award
your bounty to the answerer. There are a few other rules around
bounties:

Questions must be at least 2 days old to be eligible for a bounty.
Users must have at least 75 reputation to offer a bounty.
There can only be 1 active bounty per question and per user at any
given time.
Once initiated, the bounty period lasts 7 days.
After starting a bounty, you must wait 1 day before awarding it.
If you do not award your bounty within 7 days, the highest voted
answer created after the bounty started with at least 2 upvotes will
be awarded half the bounty amount.

In any case, you will always give up the amount of reputation
specified in the bounty, so if you start a bounty, be sure to follow
up and award your bounty to the best answer!

As an additional bonus, bounty awards are immune to the daily
reputation cap and community wiki mode.

segunda-feira, 15 de fevereiro de 2010

O brasileiro do Google Buzz

Hugo Barra é um dos criadores do novo serviço

domingo, 14 de fevereiro de 2010 18:29
por
Rafael Cabral

Nada de Vale do Silício. Um dos idealizadores do Buzz nasceu aqui pertinho, em Minas Gerais. Diretor de produtos móveis do Google desde 2008, o engenheiro Hugo Barra foi um dos responsáveis pelo nascimento da rede social integrada ao Gmail – que pode deixá-lo, segundo o blog Search Engine Land, por causa de questões de privacidade.

 

De Londres, Hugo comanda uma equipe de desenvolvedores que se estende do Canadá à Índia e liderou o projeto móvel com geolocalização do Buzz (já disponível no iPhone e em celulares com Android). Direto da Inglaterra ("e sofrendo com o frio"), ele falou com o Link sobre o mercado de web social.

 

 

Muita gente se perguntou, na semana passada, se precisamos mesmo de outra rede social. Afinal, qual a necessidade que o Buzz vem suprir?
O Gmail é um produto que sempre foi inerentemente social. O Buzz intensifica isso. Você agora pode se comunicar pela sua timeline, por e-mail ou Gtalk, de forma individual ou coletiva. Ao contrário de outras redes sociais, boas em uma coisa ou outra, quisemos conciliar esses vários tipos de conversa e fazer que todas ocorram da melhor maneira.

 

 

Não era essa a proposta do Wave?
É lógico que, parcialmente, nos inspiramos no Wave. No entanto, a função dos dois é diferente. Enquanto o Wave é muito bom para a colaboração entre pessoas que trabalham juntas e são conectadas, o Buzz é mais sobre compartilhamento e conversas. São complementares. Aqui no Google, uso o Wave para trabalhar e o Buzz para bater papo. É algo mais light. 


 
Em que exatamente ele é diferente de outras redes sociais?
Nossa proposta é ajudar o usuário a encontrar aquilo que interessa, usando nossa experiência em buscas e classificação de informações. Com essa explosão das mídias sociais, é impossível se organizar e aproveitar todo o conteúdo. Não há ser humano capaz de digerir isso de forma tranquila. Queremos facilitar o processo de encontrar pessoas e ouvir ideias e recomendações – em que, de outro jeito, você nem prestaria atenção.   

 


Inicialmente, vocês não anunciaram uma integração com o Facebook e nem permitem que se possa twittar do Buzz. Por quê?
Quisemos lançar um produto simples, rapidamente. Com o tempo, vamos ouvir as sugestões dos usuários e, com isso, decidir com quais serviços nos integraremos e de que forma faremos isso. Dois dias depois que o site entrou no ar, já fizemos algumas mudanças, e isso deve continuar. Não estamos descartando conexão com o Facebook ou maior participação do Twitter.

 

 

A intenção com a geolocalização é atrair parte dos 100 milhões de usuários móveis do Facebook? O Buzz compete com quem?
É um caminho estratégico rumo à web em tempo real, junto da busca social, e que facilitará a pesquisa por área e por proximidade de usuários. Quanto a concorrentes, não falamos e nem prestamos atenção neles: nosso interesse é o usuário.

 

 

Não é invasão de privacidade pedir que todos digam onde estão e usar essas informações em um sistema de pesquisa?
Esse tipo de crítica é injustificada. A informação geográfica só é postada se a pessoa autorizar. Nos comprometemos a usar esses detalhes só na nossa busca (que pode ser nos contatos ou em toda a rede). Nos comprometemos com a privacidade. Só depende do usuário. Quem quiser, coloca.

--
Adilson de Almeida Jr
adilson@ideatree.com.br
adilson.almeida@usp.br

terça-feira, 5 de janeiro de 2010

A tábua das leis não-escritas da internet

A tábua das leis não-escritas da internet

domingo, 3 de janeiro de 2010 18:37
por
Fred Leal

A internet deu origem a pequenas leis involuntárias que regem as discussões – sejam elas via e-mail, fórum ou blog. O jornal inglês Telegraph compilou algumas das principais, que você confere abaixo.

 # LEI DE GODWIN – Resultado de anos de discussões exacerbadas em fóruns e listas de discussão, foi criada por Mike Godwin em 1990 na Usenet, e prevê que "à medida que uma discussão se prolonga, a probabilidade de uma comparação envolvendo nazistas ou Hitler chega a 1".

 

# LEI DE POE – A regra criada por Nathan Poe em 2005 afirma que "sem um emoticon ou outra clara exibição de humor, é impossível criar uma paródia fundamentalista sem que outras pessoas a tomem como verdade". Foi criada em debate sobre criacionismo em um fórum cristão.

 

# REGRA 34 – A Regra 34 revela que "se algo existe, tem pornografia disso" – um tema recorrente na internet, afinal. Entre os exemplos mais comuns estão os hentais (desenhos eróticos japoneses) e os ensaios de Marge Simpson e Jessica Rabbit na Playboy americana.

 

# LEI DE DANTH – Talvez a mais simples e objetiva de todas, dizendo que "se você precisa insistir que venceu uma discussão na internet, é porque você provavelmente perdeu feio".

 

# LEI DE SKITT – "Todo post criado para corrigir erros em outro post também contém um erro", prega a lei criada para criticar a chama os defensores das regras gramaticais. Também pode significar que "a probabilidade de haver um erro em um post é diretamente proporcional ao constrangimento que ele causa".

 

# LEI DE SCOPIE – Criada para contemplar discussões científicas em fóruns, esta lei afirma que "qualquer citação proveniente de fontes não-confiáveis faz com que o argumento seja automaticamente eliminado".

 

# LEI DE POMMER – Bastante irônica, a lei afirma que "a opinião de uma pessoa pode mudar a partir do que ela lê na internet, saindo de nenhuma opinião para chegar em uma opinião errada".

 

# LEI DE DeMYER – São quatro, ao todo, mas a principal delas diz que "todo argumento composto basicamente de citações pode ser tranquilamente ignorado".

 

# LEI DE COHEN – A mais confusa, diz que "quem determina as regras que dizem que 'quem determina as regras perdeu a discussão', perdeu a discussão" – uma meta-lei.

 

# LEI DA EXCLAMAÇÃO – "Quanto maior o número de exclamações em uma mensagem, maior a chance dela ser mentira", diz a lei baseada em Discworld, obra do escritor Terry Pratchett.

quinta-feira, 17 de dezembro de 2009

Games para quem precisa de Games

Games para quem precisa de games

Luta, guerra, esportes e até os Beatles animam o Natal de quem não consegue largar o controle nem na hora da ceia

domingo, 13 de dezembro de 2009 21:05
por
Redação Link

Se tem um produto que baixou de preço nos últimos tempos, esse produto foi o videogame. Os consoles de última geração nunca estiveram tão acessíveis no Brasil. Mesmo o Wii, campeão dos preços altos, sofreu uma redução de preço drástica, de 50% em relação ao preço de lançamento. A mesma tendência de queda aconteceu com o Xbox 360 vendido oficialmente no País e com o PlayStation 3. Confira a seleção dos melhores games. e escolha qual deles, e qual videogame, você vai levar para casa.

 

Cuidado para não jogar dinheiro fora!
Os consoles de última geração estão em sua melhor fase, mas cada um deles tem foco específico para cada tipo de jogador. Se você quer navegar pela internet a partir do sofá ou se faz questão de ver filmes em Blu-ray, fique com o PlayStation 3, console da Sony. Se você quer jogar em redes online, a melhor opção é o Xbox 360, da Microsoft. E, finalmente, se a ideia for jogar de forma descompromissada em família, o Wii, da Nintendo, é a melhor pedida. De qualquer forma, o melhor jeito de escolher é experimentar cada console antes de decidir. E veja os títulos que cada um deles oferece – muitos são exclusivos.

 

# GAME É PARA CRIANÇA? – Hoje, a idade média do jogador é de 30 anos. Por isso, cuidado para não comprar um jogo inadequado para os pequenos. Todos os jogos no Brasil têm de vir com classificação etária.

# QUANTOS CONTROLES? – Compre ao menos um extra. Os consoles permitem até quatro jogadores simultaneamente.

# VIDEOGAME OU BLU-RAY? – O PS3 é o melhor aparelho de vídeo em alta definição do mercado. E ainda acessa a internet e roda bons jogos. Contra: não lê DVD da área 4, do Brasil.

 

CALL OF DUTY 4: MODERN WARFARE 2 | COMBATE ATÉ NAS FAVELAS
PREÇO | R$ 230 (Xbox 360)
DETALHES | Jogo de tiro de maior sucesso da história. O jogador é um soldado de um grupo de operações especiais altamente treinado. Para Xbox 360, PS3 e PC. Violento, mas é um presentão para fãs de games.

 

BEATLES: ROCK BAND | AMOR É TUDO DE QUE VOCÊ PRECISA
PREÇO | R$ 250
DETALHES | O game mais aguardado do ano trouxe 45 clássicos da maior banda de todos os tempos, que podem ser tocados com acessórios de outros jogos da franquia. Boa música para toda a família.

 

WII SPORTS RESORT | MEXA-SE COM PRECISÃO MILIMÉTRICA
PREÇO | R$ 400 (com dois acessórios extras)
DETALHES | O jogo custa caro, mas vem com um par de acessórios que aumentam muito a sensibilidade de detecção de movimento do Wii. É o game mais divertido do ano lançado para o console.

 

SCRIBBLENAUTS | ESCREVA E MATERIALIZE O QUE QUISER
PREÇO | R$ 160
DETALHES | O game para Nintendo DS estimula a imaginação e exercita o vocabulário. Para progredir, o jogador precisa escrever, em português, inglês ou espanhol, o nome dos objetos que quer ver na tela.

 

KATAMARI FOREVER | RECOLHA O QUE ENCONTRAR COM A BOLINHA
PREÇO | R$ 260
DETALHES | A série de jogos Katamari Damacy é estranha, insana e engraçada. O tributo máximo à série foi lançado para PS3 e coloca você recolhendo de clipes de papel a continentes e galáxias.

 

HALO 3: ODST | O OUTRO LADO DA GUERRA CONTRA OS ALIENÍGENAS
PREÇO | R$ 160
DETALHES | Enquanto o herói Master Chief luta contra os Covenant, um pelotão de elite das forças humanas tenta libertar uma metrópole infestada de aliens. Roteiro genial e ação de primeira no Xbox 360.

 

STREET FIGHTER IV | UM CLÁSSICO RENASCIDO
PREÇO | R$ 250
DETALHES | Lançado para Xbox 360, PS3 e PC (mais barato, custa R$ 90), o game da Capcom é o expoente máximo dos jogos de luta. Todos os personagens clássicos estão de volta em combates empolgantes.

 

WII | DIVERSÃO EM FAMÍLIA
PREÇO | R$ 1.000
DETALHES | O Nintendo Wii não é o console mais avançado do mercado, mas ele compensa a falta de recursos e de alta resolução com uma boa dose de inventividade. Seus controles detectam movimento e os games são divertidos, voltados para a família e também para os jogadores mais novinhos.

 

XBOX 360 | MÁQUINA DE JOGAR
PREÇO | R$ 1.500
DETALHES | O videogame da Microsoft não conseguiu a segunda colocação do mercado à toa. Com excelentes jogos, bons títulos exclusivos e uma excepcional habilidade de rodar vídeos, músicas e acessar fotos direto do PC, é uma central de entretenimento completa. Vem com dois jogos e cabo HDMI.

 

PLAYSTATION 3 | REPAGINADO
PREÇO | R$ 1.500
DETALHES | A Sony apanhou, mas finalmente conseguiu transformar o PS3 em um console mais acessível. Com uma boa oferta de jogos e bons recursos multimídia, o atributo matador do PS3 é a capacidade de rodar filmes em Blu-ray com a mesma competência que os melhores aparelhos do mercado.

quinta-feira, 12 de novembro de 2009

Recuperação econômica, Ibovespa aos 80 mil: as previsões para 2010 do Citi

Recuperação econômica, Ibovespa aos 80 mil: as previsões para 2010 do Citi

Por: Equipe InfoMoney
10/11/09 - 21h05
InfoMoney

SÃO PAULO - Desemprego em alta, prejuízos corporativos, recessão: lá fora, o fim da crise ainda parece estar em um horizonte distante - embora o clima seja consideravelmente melhor. Simultaneamente, as principais bolsas latino-americanas registram sua melhor performance há anos.

O Ibovespa contabiliza em 2009 uma valorização de mais de 76%. O Merval, principal índice da bolsa argentina, acumula ganhos de nada menos que 110%. Performances semelhantes dão o tom das bolsas no México, Chile e Peru.

Os pessimistas temem um forte movimento de realização por vir; os ainda mais pessimistas especulam sobre uma possível bolha no continente. Mas tais opiniões são descartadas pelo Citi, cuja equipe de análise aposta em um cenário justamente oposto: a manutenção de ganhos pelas bolsas da América Latina em 2010, ainda que em um ritmo mais moderado.

Eleições e Fed no foco dos investidores
À medida que 2009 se aproxima de seu fim, projeções já começam a ser delineadas para o ano que se põe à frente. E no caso da América Latina, uma principal variável em 2010 será as eleições presidenciais, que dominarão a agenda de países como Chile, Colômbia, Peru e Brasil.

Não faz muito tempo que eleições no continente despertavam grande temor entre os investidores. Na visão do Citi, no entanto, são quase águas passadas. "Certa volatilidade é esperada, mas um risco em longo prazo ao redor de tais eleições é baixo", afirma a equipe do banco.

Nos EUA, todos os olhos estarão voltados ao Federal Reserve. Quando a autoridade monetária voltará a implementar uma política de aperto monetário no país é hoje uma das questões mais importantes que pairam sobre analistas e investidores. O palpite do Citi é para meados de 2010.

E como não poderia deixar de ser, os mercados deverão reagir a tal elevação na Fed Funds Rate. Mas para os analistas do Citi, não por muito tempo. "As ações devem sofrer um leve ajuste frente à ação do Fed, mas o rali deve ser retomado no decorrer do ciclo de aperto monetário", prevê o banco.

Brasil se destaca entre projeções otimistas...
O tom otimista do relatório formulado pelo Citi estende-se às projeções macroeconômicas. As perspectivas dos analistas consistem em um crescimento de 3,1% em 2010 para o PIB (Produto Interno Bruto) mundial, puxado principalmente pelos países emergentes, que deverão registrar uma expansão de 5,6%.

A América Latina não fica de fora de tal panorama de recuperação. De acordo com os cálculos do Citi, o continente deverá crescer 4,2% em 2010, em uma performance influenciada principalmente pelas economias peruana e brasileira: ambas deverão reportar crescimento de mais de 5% no ano que vem.

Economia em ascensão significa, salvo raras exceções, bons resultados corporativos. De fato, a equipe do Citi espera que a média do lucro por papel no mercado de ações latino-americano cresça 27,5% em 2010. E mais uma vez, o Brasil é destaque: por aqui, tal expansão deverá ser de 32,5%.

...e segue no posto de top pick
Desse modo, o Citi mantém o Brasil como sua top pick entre os mercados do continente, ainda que os ganhos da bolsa brasileira devam ser mais modestos em 2010 do que vem sendo nesse ano. A estimativa do Citi é de que o Ibovespa, seu principal índice, conclua o ano que vem na casa dos 80.000 pontos.

Do subprime aos emergentes: qual o próximo alvo das bolhas de liquidez?

Do subprime aos emergentes: qual o próximo alvo das bolhas de liquidez?

Por: Equipe InfoMoney
11/11/09 - 11h40
InfoMoney

SÃO PAULO - Uma sequência de bolhas, causadas pelo excesso de liquidez: assim Patrick Artus, analista do banco francês Natixis, vê os fluxos de capital no mercado internacional nos últimos seis anos.

Liquidez não é negativa, mas seu excesso sim. Combinada a um cenário macroeconômico internacional de subutilização de capacidade, definido por altos níveis de investimento e baixas taxas de ocupação, o resultado é a formação de bolhas nos preços de ativos.

A primeira foi a do mercado imobiliário norte-americano, que ocasionou - e ainda ocasiona - uma crise de proporções históricas tanto nas praças financeiras quanto nas principais economias do mundo. Se a liquidez segue excessiva - tal é a tese de Artus -, é apenas questão de tempo para que uma nova bolha surja. Mas aonde?

Dos EUA aos emergentes
Entre 2003 e 2007, o excesso de liquidez no mundo foi absorvido pelo mercado imobiliário dos EUA. Bancos expandiram a concessão de empréstimos no setor, resultando em uma disparada nos preços dos imóveis. A bolha estourou em 2007 e levou consigo instituições de peso e economias, emergentes e desenvolvidas.

Frente às turbulências, os bancos centrais das economias desenvolvidas reduziram suas taxas básicas de juros a mínimas históricas, ocasionando um forte redirecionamento dos fluxos de capital aos países emergentes. O resultado foi uma expressiva alta nos preços dos ativos em tais mercados.

Os números do Ibovespa confirmam a tese de Artus. O principal índice da bolsa brasileira vem subindo mais de 76% neste ano de 2009, desempenho em muito superior ao registrado nas praças de Wall Street e da Europa.

Soma-se a esta fórmula mais um componente: a atuação dos bancos centrais de países emergentes, que para impedir uma maior depreciação do dólar frente às suas moedas, vem bancando uma acumulação maciça de reservas nacionais. "Tal circulação de capital posiciona a bolha em tais mercados", afirma Artus.

Dos emergentes para aonde?
Desta forma, Artus acredita que, atualmente, a bolha esteja localizada em commodities, ativos e títulos governamentais de países emergentes. Entretanto, o analista prevê um novo reposicionamento, dado "uma constatação de que os valuations em tais mercados estão muito altos".

Outro fator citado por Artus é a de que medidas sejam adotadas por países emergentes para que o ingresso de capitais seja controlado. O Brasil foi o primeiro a tomar tal decisão: em outubro deste ano, o capital estrangeiro aplicado em renda fixa e ações passou a ser taxado em 2% com o IOF (Imposto sobre Operações Financeiras).

Assim, Artus traça dois possíveis cenários de redirecionamento dos fluxos de capital no mundo. O primeiro prevê uma bolha nos preços de commodities, uma vez que os investidores podem enxergar tal mercado como uma boa forma de se manterem atrelados às economias emergentes.

"Mas se, por sua vez, os preços de commodities também se mostrarem excessivamente altos, os investidores poderão realocar suas posições em direção a títulos mais baratos nos EUA e na Europa, onde uma nova bolha poderia, então, surgir", prevê o analista do banco Natixis.

Bolha no Brasil: possibilidade preocupa analistas e dita ações do governo

Bolha no Brasil: possibilidade preocupa analistas e dita ações do governo

Por: Giulia Santos Camillo
12/11/09 - 12h07
InfoMoney

SÃO PAULO - O mundo está vivendo a mãe de todas as bolhas de carry trade que, quando estourar, vai levar ao maior colapso coordenado de todos os tempos.

Permeada pelo pessimismo característico de Nouriel Roubini, professor da Universidade de Nova York e CEO (Chief Economist Officer) do RGE Monitor, a previsão levou os olhos do mercado novamente para a possibilidade de formação de uma bolha a partir do rali nos ativos de risco de mercados emergentes.

As projeções do professor partem do pressuposto de que os investidores estão tomando empréstimos em dólares para aplicação em outros mercados, visando o ganho referente ao diferencial entre as taxas de juros - operação conhecida como carry trade.

A bolha no Brasil
Como era de se esperar, o Brasil está entre os mercados que têm recebido as aplicações estrangeiras. Não à toa, o fluxo de recursos internacionais acumulado entre janeiro e outubro está positivo em aproximadamente R$ 19 bilhões. O volume médio diário de negócios atingiu R$ 7,346 bilhões no mês passado, bem acima do registrado em outubro de 2008, de R$ 5,32 bilhões. O Ibovespa subiu 63,4% nos 10 primeiros meses do ano; o dólar caiu 25% frente ao real.

Desde o começo do rali na bolsa paulista, é clara a noção de que a retomada foi conduzida pelos investidores estrangeiros. Caso a projeção de Roubini se concretize e a alta seja realmente uma bolha, o mercado - brasileiro e mundial - enfrentará uma quebra forte dentro de seis meses ou um ano.

De acordo com Eduardo Miziara, analista de renda variável do BNP Paribas, os números acumulados no ano representam motivos de preocupação. "Mesmo que o governo e economistas, quando alertados sobre esse tema, afirmem (com boa dose de razão) que o Brasil é vítima do próprio sucesso, não podemos ignorar que hoje o País é um dos principais (se não for o maior) alvos dos recursos de carry trade", afirma.

Miziara completa informando que "esse capital não é dos mais saudáveis". Segundo ele, a China controla o câmbio, a Índia tem restrições à entrada de capitais, e o Brasil é o mais liberal entre os membros do BRIC (Brasil, Rússia, Índia e China). "Isso atrai os fluxos de capitais, mas deixa vulnerabilidades".

O G-20, o IOF e a bolha
A percepção de que há algo errado com o fluxo de capitais internacionais também permeou a reunião do G-20 no último fim de semana, embora nada concreto tenha sido decidido para conter o desequilíbrio do fluxo dos países desenvolvidos em direção aos emergentes. "Isso não quer dizer que nada será feito nesse sentido, mas apenas que as ações serão provavelmente independentes", afirma Mauro Rached, chefe de análise macroeconômica do BNP Paribas.

"Depois que o Brasil impôs o IOF (Imposto sobre Operações Financeiras) sobre investimento estrangeiro em portfólios financeiros, cresceram as discussões sobre as formas de conter tais fluxos. Países como Coreia, Tailândia, Turquia, Colômbia e até a deficitária África do Sul têm atuado de alguma forma para tentar atenuar os efeitos do ingresso de capitais sobre as suas moedas e as suas políticas monetárias", completa.

Segundo Rached, é necessário monitorar os desdobramentos desse assunto, já que rumores sobre uma ação coordenada em relação aos fluxos de capital poderia ter impacto negativo sobre os ativos de mercados emergentes - tanto ações quanto moeda. Por enquanto, ao menos em relação ao Brasil, é certo que as medidas devem ser levadas a sério, já que a preocupação acerca de uma bolha é comum tanto a investidores e analistas quanto a autoridades monetárias.

Na última terça-feira (10), o ministro da Fazenda, Guido Mantega, afirmou que a taxação de IOF visa reduzir riscos futuros de bolhas e desvalorização ainda maior do dólar. "O que não queremos é que haja exagero de aplicações. Garantimos que não haverá bolhas na bolsa e nem excesso de valorização da moeda brasileira", assegurou.

Fundamentos, não bolhas
Há, por outro lado, aqueles que ainda apostam que o rali é inflado pelos fundamentos e não representa uma bolha. Entre eles, está o estrategista Jeffrey Palma, do banco UBS. "Nós não estamos no campo da 'bolha de ativos'. Na nossa visão, o rali nos ativos de risco tem sido justificado, baseado em uma precificação de recuperação do colapso do sistema financeiro, confiança na recuperação econômica e normalização dos valuations das ações de níveis pressionados".

Junto com Palma alinha-se o investidor Jim Rogers, conhecido por ter previsto o início do rali das commodities, em 1999. Segundo ele, Nouriel Roubini está errado em relação à ameaça de bolha nos mercados emergentes. Ao ser questionado sobre a questão, em entrevista à rede de televisão Bloomberg, Rogers respondeu com outra pergunta: "que bolha?", completando que "está claro que o Sr. Roubini não fez sua tarefa, de novo".

Especificamente em relação ao Brasil, no final de outubro, a MCM já havia manifestado a opinião de que não há bolhas no mercado de ações. Na última terça-feira, foi a vez do Citigroup dizer o mesmo, escolhendo o País como sua top pick entre os mercados latino-americanos. A estimativa do banco é de que o Ibovespa chegue a 80 mil pontos ao final de 2010.

quarta-feira, 26 de agosto de 2009

reversão

Tempo de colocar os óculos e olhar com cautela as opções em bolsa

Por: Gustavo Kahil
26/08/09 - 14h09
InfoMoney

SÃO PAULO - Como acertar em cheio a ação que vai subir? Esta é a pergunta que tira o sono - e tira mesmo - de analistas e investidores todos os dias. Porém a sorte também é uma variável que, às vezes, pode levar um investidor a nomear-se o novo Warren Buffett, um exímio stock-picker.

O dia 27 de outubro de 2008 marcou a menor pontuação do Ibovespa desde o início da crise financeira internacional. A escolha de qualquer papel neste dia (salvo algumas exceções como Telesp, Telemar e Brasil Telecom) representou uma decisão que certamente trouxe grande valorização.

Cerca de dez meses depois, o índice quase alcançou o patamar dos 58 mil pontos, o que representa uma valorização próxima de 100%, e muito antes de qualquer definição de longo prazo. Mas este olhar para o investimento em bolsa é míope. Grande parte do crescimento do índice ao longo do período deve-se ao retorno dos recursos à renda variável.

Em 2009, o saldo dos investidores da movimentação dos investidores estrangeiros está positivo em R$ 14,067 bilhões, muito diferente dos saldos negativos de R$ 24,629 bilhões vistos em 2008 e de R$ 4,235 bilhões em 2009. Muitos fatores explicam o fôlego da bolsa neste período.

A agulha no Ibovespa
Praticamente todas ações subiram. Mas, mesmo assim, há sempre espaço para um prêmio ao investidor que pesquisou bem. "Como o mercado está mais dinâmico, o acompanhamento exige cada vez mais técnica para que o investidor não caia no comum", avalia André Paes, gestor de renda variável da Infinity Asset. "A carona já foi dada, agora é mais para especialistas", explica.

Paes, na verdade, não recomenda a aplicação direta em bolsa. Para ele, a ideia mais sensata é a de confiar para os gestores a decisão de escolha dos papéis. "Nunca aconselho o investidor pessoa física a comprar de forma direta. Ele não tem ferramentas para fazer uma análise fundamentalista correta e chegar ao stock picking", diz. Indagado sobre a sua estratégia, Paes afirma que já tem revisto posições.

Desempenho entre 27/10/08 e 24/08/09
Fonte: InfoMoney
"Estivemos bem comprados no setor de varejo e agora diminuímos porque valorizou muito. Ficamos um pouco mais conservadores. Diminuímos bem bancos também. Voltamos um pouco mais para a posição nas empresas que estão com valuation atraentes", diz Paes. Leonardo Boguszewski, analista de renda variável da Paraná Banco Fundos, também lembra que realmente não há como acertar no alvo sem esforço.

Mais trabalho
"O investidor hoje tem que tomar cuidado para buscar também este movimento na alta. Precisa simplesmente fazer a lição de casa, ler e se informar sobre a empresa na qual tem interesse porque certamente ainda há coisa boa na bolsa. Mas só com muita leitura", diz. Adepto do Buy & Hold, Boguszewski diz que as revisões que fez em carteira foram apenas para adicionar papéis.

"O pessoal aqui está trabalhando em dobro para achar empresas baratas. Mas não há muitas empresas que estão muito acima do valor justo, talvez as expectativas estejam um pouco antecipadas. Mas é natural. Sempre estaremos alocados em bolsa. O upside vai diminuir. Não temos mais como falar de alta de 100% a 200%", diz. Recente relatório publicado pelo Citigroup também aponta as vantagens do stock-picking.

De acordo com o estudo, na análise iniciada dos anos 90, até 2008, a estratégia do stock-picking ganha na maioria dos anos. Entretanto, tal realidade só funciona quando a volatilidade é pequena, o que não aconteceu durante os anos de 1999-2000 e 2008. "Um bom stock-picking gera o melhor retorno absoluto no médio prazo quando a volatilidade das ações e as correlações caem", explica.

Desta forma, para ficar acima da média do mercado, agora, só com uma análise profunda.

quarta-feira, 29 de julho de 2009

.Net Micro framework

Leviton Manufacturing

Home Controls Manufacturer Uses .NET Micro Framework to Create Product Quickly

Situation

Leviton Manufacturing dates back to the dawn of the electrical era in 1906. Originally engaged in the fabrication of mantle tips for gas lighting, the company quickly saw the potential in the newly harnessed source of energy and converted to production of an electrical pull-chain lampholder. Today, Leviton offers more than 20,000 products and is a leader in the electrical industry, serving the industrial, commercial, OEM, and residential markets.

*
* We've shown that you can reduce the time it takes to get your product to market with .NET Micro Framework. That really changes the game for embedded device designers and manufacturers. *

John Leier
Product Manager for Embedded Solutions
Digi International

*
Consistent with its mission to apply the latest technologies to the development of new products that satisfy the needs of emerging markets, Leviton engineers and designers have been at the forefront of delivering trusted residential home automation products to installers, builders, and homeowners. The company's vision to provide consumers with powerful levels of control and customization for home lighting and appliance automation has led it to pioneer new technologies and expand the potential of "smart" controls for the home.

Leviton saw in the advent of the Z-Wave technology standard a means of offering its customers advanced, next-generation home automation that provides greater flexibility and convenience while moving beyond the limitations inherent in older, wire-based household power-line systems.

A New Protocol Changes the Game

Z-Wave, which was codified through an industry alliance in 2005, is a wireless radio frequency (RF)-based communications standard that makes remote control effective and practical for homes of any size. The protocol, which is embedded in a microprocessor chip and built into a module or device along with memory – flash memory, RAM, or both – transforms a stand-alone appliance into an intelligent networked device that can be controlled and monitored wirelessly. Z-Wave delivers high-quality networking at a fraction of the cost of other similar technologies by focusing on narrow bandwidth applications and negating the need for costly hardware by employing innovative software solutions.

The Z-Wave standard offers a combination of technical and practical advantages that render it superior to conventional home control systems. The benefits include a wide signal range, making remote-control functionality possible for even the largest homes; simple integration that makes it easy to expand the network; low power consumption for deployment in battery-operated devices; two-way communication for remote confirmation of device or systems status; and low cost, making full home automation more affordable than ever before. Moreover, because Z-Wave operates on a narrow band of radio frequencies that aren't affected by other wireless devices such as the very popular 2.4 and 5.8 Gigahertz cordless phones and increasingly prevalent home Wi-Fi networks (a, b, g and n standards), there is no interference like that typically encountered with power-line solutions such as UPB.

Historically, home control systems cost tens of thousands of dollars. Leviton saw an opportunity for innovation in the home automation industry through the cost efficiencies created by Z-Wave devices. Because it's wireless, Z-Wave technology can be installed in a new home that's under construction just as easily as it can be retrofitted to an existing home. However, even with all the lights and appliances in a home enabled on the new standard at substantially lower costs, there is still the need for a central controller, connecting the home to the Internet for remote access. Such controllers have been, until now, among the most expensive components of a home automation system.

Solution

Looking for a solution path to reach the goal of innovation in home automation on the Z-Wave standard, Leviton found that the Microsoft .NET Micro Framework provided the development environment best suited for its product development and integration needs. Lightweight embedded control technologies are central to the .NET Micro Framework because it combines the reliability and efficiency of .NET with the productivity of Microsoft Visual Studio®. The .NET Micro Framework extends the power and richness of .NET development into the realm of the smallest of devices, where there are typically constraints on cost, memory, processor capabilities, or battery power.

*
* .NET Micro Framework just seemed like a better fit for a serious embedded device and provides a lower, mass-market, end-user price.  *

Chris Walker
President and Chief Technical Officer
ControlThink

*
"Among the factors that made the .NET Micro Framework attractive to us was Microsoft's position in the marketplace," says Ian Hendler, Director of Automation Products for Residential Technologies for Leviton. "Having a common set of libraries that developers can write to in the .NET Micro Framework was also very, very attractive."

Leviton judged the .NET Micro Framework as being able to offer several advantages over other platforms. These advantages include reduced hardware and licensing costs, direct hardware access at the managed code layer, and the simplicity and high up-time of the platform. "It just seemed like a better fit for a serious embedded device and enabled a lower, mass-market, end-user price," says Chris Walker, President and Chief Technical Officer of ControlThink, Leviton's software partner.  ControlThink was tasked with writing the required applications and providing additional, enhanced functionality based on its own IP.

According to Walker, Leviton would have incurred higher development costs if it used proprietary tool chains rather than the .NET Micro Framework. He also stated that "other development tools are not nearly as refined or efficient as the Microsoft tools." In addition, he saw the framework's ability to run on inexpensive processors as a significant additional benefit.

A New Product Is Developed – Fast

Leviton worked with Microsoft, which provided the .NET Micro Framework, as well as with its hardware and software partners to develop the Vizia RF Foyer, the industry's first Z-Wave-compliant Ethernet gateway. The Vizia RF Foyer connects to an Internet-linked PC or laptop through the computer's Ethernet port and transmits signals to a Z-Wave home control network. Peer-to-peer mesh networks based on the .NET Micro Framework, the Vizia RF Foyer, and the Z-Wave protocol overcome the performance issues and high cost of earlier generations of wireless home control systems.

Each Vizia RF Foyer module is equipped with a two-way radio chip that it uses to communicate with modules, called nodes, in the network. Z-Wave command signals travel from node to node along the network to their final destination. If any form of interference blocks the signal along the way (for example, a wall or a large appliance such as a refrigerator), the signal is automatically rerouted through other nodes until it reaches its destination. The "self-healing" feature of the Z-Wave mesh network lends it unparalleled reliability.

An embedded application, such as the one in the Vizia RF Foyer, customarily takes approximately one year to develop. However, with the .NET Micro Framework, Leviton's software partner ControlThink was able to produce a working proof of concept in three days and, porting its existing .Net code base, completed the final application within three months.

*
* There's real benefit to Leviton from all that .NET Micro Framework does today. But I'm confident that the Z-Wave technology and the Vizia RF Foyer product line will continue to expand.  *

Ian Hendler
Director of Automation Products for Residential Technologies
Leviton Manufacturing

*
"Since .NET Micro Framework is basically standard C# code for embedded devices, it was easy to use Visual Studio Rapid Application Development tools to craft a 'working prototype' very quickly," says Walker. "We have some great .NET skills in-house, so for us the tools and the platform are a perfect match."

Easy Integration of Hardware and Software

Leviton's hardware partner, Digi International, produced the processor for the Vizia RF Foyer. It also found the .NET Micro Framework hospitable to its work on the project. The Digi Ethernet module, with plug-and-play functionality and comprehensive development tools for custom applications, further simplified the design and manufacture of the Vizia RF Foyer. "What we brought to the project and the .NET Micro Framework really came together with the ControlThink application," says John Leier, Product Manager for Embedded Solutions for Digi. "Everything worked well and easily scaled up to the application for Leviton's new product. This project shows how you can really reduce the amount of time it takes to get your product to market with the .NET Micro Framework."

"Because the .NET Micro Framework is designed to be implemented with hardware solutions, it's an ideal system for us to use in the Vizia RF Foyer," says Grant Sullivan, Product Marketing Manager, Automation Products for Residential Technologies for Leviton. "This has been a little different kind of process for us. Given that Leviton is a manufacturing company, we tend to like to build our own products. But Z-Wave is still a new technology and we felt there was an opportunity to work with Microsoft and our partners to create a better home automation system. Both the process of collaborating to develop this product and the response we're getting to it have been very positive."

Benefits

The Vizia RF Foyer, which will reach the market in the third quarter of 2007, allows connectivity to a home automation system locally and remotely. It makes possible use of a PDA, smart phone or either home-based or office PC to command and control dimmers, switches and other Z-Wave-enabled appliances.
 
"This product speeds up the home automation system in comparison to power-line wire-based systems," says Walker. "You plug the Vizia RF Foyer into the wall and connect it into your router. Now your smart home is on the Internet and can be controlled both remotely via our secure ThinkConnect service and also from computers in the house that are on the network. This small, inexpensive device is reliable, has intelligence and makes everything run better – it's basically a low-cost, smart server for the home."

Homeowners can conserve energy during the day by turning on house lights and air conditioning using their cell phone as they approach their home in the evening; dim the lights as they watch a movie in their home theater; run a macro so that an hour after the kitchen lights are turned off, the exhaust fan over the stove automatically switches off; or signal their home to go into a preprogrammed "vacation mode," with lights going on and off in different parts of the house at various times, to make it look like its being lived in for increased security.

"The big advantage here is that I can control my home when I'm not there," says Walker. "I can be home when I'm not."

Roadmap for Future Innovation

The primary focus for the launch of the Vizia RF Foyer is lighting and appliance command and control, but it will eventually integrate with window shades, thermostats, door locks, security systems and touch screens that communicate on the Z-Wave standard.

*
* This small, inexpensive device is reliable, has intelligence and makes everything run better – it's basically a low-cost, smart server for the home.  *

Chris Walker
President and Chief Technical Officer
ControlThink

*
Leviton is currently developing software around the Vizia RF Foyer to help builders, electricians, professional system integrators and home entertainment system installers deploy the Z-Wave technology faster and more efficiently. The Vizia RF Foyer is fully supported by ControlThink's Z-Wave PC SDK (for desktop and mobile .Net applications) and is a platform for unlimited customization. It's anticipated that this will lead to third-party development of products to work as plug-ins with the Vizia RF Foyer.

Another key improvement expected in future product releases is increased speed across the network.

"There's real benefit to Leviton from all that .NET Micro Framework does today. But I'm confident that the Z-Wave technology and the Vizia RF Foyer product line will continue to expand.
Ian Hendler, Director of Automation Products for Residential Technologies, Leviton Manufacturing
Faster, Better, and More Economical
Speed is a central theme of the Vizia RF Foyer story. "We've shown that you can reduce the time it takes to get your product to market with the .NET Micro Framework," says Leier. "That really changes the game for embedded device designers and developers. Now they can very quickly and very easily add wired and wireless networking to their products."

"We want to go to the mass market," says Hendler, "so the .NET Micro Framework was the most cost-effective platform for us to adopt. It also delivers the ability to innovate on and is easy to find developers to program on – and our customers are already comfortable working in the .NET world. The price point is excellent and the value proposition in terms of features and flexibility is great. And based on our testing, it's very reliable."

"There's real benefit to Leviton, our customers, and to consumers from all that .NET Micro Framework does today. But I'm very confident that the Z-Wave technology and the Vizia RF Foyer product line will continue to develop and expand in terms of its capabilities and functionality by using the .NET Micro Framework."

"I see this as a platform for growth for Leviton, beyond just this one product. There are other applications we can use it in; this is a residential technology, but there are applications it can perhaps be used for in light commercial or small business. So we see .NET Micro Framework as a very good platform to invest in, because you get a good ROI immediately and you have good potential for future ROI."

The .NET Micro Framework grew out of the Smart Personal Objects Technology (SPOT) initiative at Microsoft. This framework is a natural extension of Microsoft offerings for creating embedded systems and provides an easy-to-use solution for this type of development.

Though it is used on very small devices, the.NET Micro Framework provides a managed code environment that brings a high degree of efficiency and reliability to the realm of embedded software

*
* Because the .NET Micro Framework is designed to be implemented with hardware solutions, it's an ideal system for us to use in the Vizia RF Foyer.  *

Grant Sullivan
Product Marketing Manager, Automation Products for Residential Technologies
Leviton Manufacturing

*
development. You can find more information about this framework at
www.msdn.microsoft.com/embedded/netmf

For More Information

For more information about Microsoft products and services, call the Microsoft Sales Information Center at (800) 426-9400. In Canada, call the Microsoft Canada Information Centre at (877) 568-2495. Customers who are deaf or hard-of-hearing can reach Microsoft text telephone (TTY/TDD) services at (800) 892-5234 in the United States or (905) 568-9641 in Canada. Outside the 50 United States and Canada, please contact your local Microsoft subsidiary. To access information using the World Wide Web, go to:
http://www.microsoft.com/

For more information about Leviton Manufacturing products and services, call (718) 229-4040 or visit the Web site at:
http://www.leviton.com/

For more information about ControlThink products and services, call (888) 90THINK  or visit the Web site at:
http://www.controlthink.com/

For more information about Digi International products and services, call (877) 912-3444 or visit the Web site at:
http://www.digi.com/

Copyright © 2007 Microsoft Corporation. All rights reserved.
This case study is for informational purposes only. MICROSOFT MAKES NO WARRANTIES, EXPRESS OR IMPLIED, IN THIS SUMMARY.
Microsoft, .NET, and Visual Studio are either registered trademarks or trademarks of Microsoft Corporation in the United States and/or other countries. The names of actual companies and products mentioned herein may be the trademarks of their respective owners.
Document published March 2007

quinta-feira, 23 de julho de 2009

Small Caps de valor

Quais características uma small cap precisa ter para valer a sua aposta?

Por: Roberto Altenhofen Pires Pereira
23/07/09 - 11h08
InfoMoney

SÃO PAULO - Sem dúvida, a maneira mais rápida de se ganhar no mercado de ações é através de uma aposta certeira em algum "mico" do mercado. Isto porque é lei básica que quanto maior a possibilidade de retorno, maior o risco embutido naquela aplicação. Mas há alguns fatores que uma small cap precisa ter para valer a aposta, pois, como dito, aplicar no tal mico implica correr riscos, muitas vezes, grandes demais.

Não é todo o dia que aparece um novo Google no mercado. Por outro lado, a avaliação de alguns critérios, além de limitar o risco, pode indicar a small cap com melhores chances de bom desempenho. As cifras são atrativas. Depois de estrear em agosto na Nasdaq por volta de US$ 108, a ação da agora gigante da internet atualmente é cotada a US$ 430.

No Brasil, os casos são inúmeros. Um bom exemplo é a trajetória de ações como Plascar, Forjas Taurus ou Haga nos últimos anos, que chegaram a relacionar ganhos estratosféricos. Por outro lado, casos como o da Agrenco, cujos papéis despencaram de R$ 10,4 para R$ 0,11 em menos de um ano, alertam para os riscos.

Como definir um mico
Para definir se determinada small cap se trata ou não de um "mico", primeiro é preciso entender o conceito do jargão. Para os analistas, mico é aquela ação que ignora tendências, costuma ir contra o movimento predominante no mercado, descolando-se de seus fundamentos (ou da falta deles).

Com base neste conceito, uma boa pedida é avaliar o beta do ativo. O indicador nada mais é que uma maneira de determinar como uma ação reage a uma oscilação do mercado como um todo. Um beta de 1 indica que o ativo sendo analisado tende a reagir de acordo com o mercado. Por exemplo, caso o Ibovespa suba 2%, um ativo com beta 1 tende a acumular ganho de 2%. Já um beta superior a 1 indica que o ativo deve reagir com maior intensidade, enquanto beta entre 0 e 1 aponta para um ativo com volatilidade inferior ao mercado.

A sessão de análise fundamentalista da InfoMoney conta com cálculos dos betas de diversas ações. Outra alternativa é o endereço eletrônico da própria BM&F Bovespa, que traz sua medida de volatilidade para os ativos listados na bolsa brasileira.

Duas questões
Duas questões sugerem atenção com as pequenas no momento. A primeira aponta diretamente para a crise. Quando os mercados começaram a despencar no ano passado, boa dose da avalanche partiu do estrangeiro, que retirou suas aplicações nos mercados emergentes para cobrir perdas lá fora. Os ativos mais líquidos, mais fáceis de serem liquidados, sofreram bastante.

Por outro lado, a melhora da bolsa este ano demonstra que boa parte do fôlego estrangeiro foi para as blue chips, para a retomada das posições liquidadas no ano passado. Cresce o número de analistas que apostam nas ações atrasadas daqui para frente. Boa parte deles destaca alguma small cap.

A maior propensão do mercado a movimentos de fusão e aquisição também atrai. O tiro certeiro pode estar em uma companhia atraente para seus pares setoriais e cujos ativos estejam acessíveis para o momento.

Liquidez
Como o risco é maior, a atenção precisa ser dobrada na escolha. Primeiro de tudo, é preciso considerar a liquidez. Alguns ativos passam dias sem qualquer negócio. Mesmo valorizados, podem frear uma oportunidade de venda porque não há no mercado quem queira comprar. Esta questão amplia o debate para outro campo: os famosos fóruns.

Um conselho trivial, mas que não pode passar em branco. Exatamente pelo fato de não haver grande volume de negócios com determinada small cap, qualquer ferramenta que a coloque no holofote pode render um giro a mais. Muitas vezes, a "bola da vez" sugerida nos fóruns nada mais é que a tentativa de algum acionista promover a venda de determinada ação. Portanto, é necessário ler as tais recomendações sempre com muito cuidado. O post em questão pode vir de um analista pouco competente ou mesmo mal intencionado.

Sinal de brusca oscilação
O volume de negócios também é indicativo de que algo pode estar por vir. Geralmente, os analistas destacam que quando o giro daquele ativo começa a apresentar alteração abrupta, é sinal de que oscilações abruptas estão por vir. O que não define se será para cima ou para baixo.

Neste caso, a melhor opção é se concentrar nos fundamentos. Em alguns casos, é difícil encontrar informações precisas a respeito dos balanços destas empresas, mas como se tratam de companhias abertas, seus números devem estar disponíveis no site da CVM (Comissão de Valores Mobiliários). No entanto, há os casos de companhias inadimplentes de resultados; que exigem ainda mais cuidado com a ação.

Além disso, há de se cuidar para distinguir mero ruído especulativo com sinal efetivo de um Fato Relevante iminente. Nem todo aumento de volume tem por trás uma notícia importante a ser anunciada.

Indicadores importantes
Entre algumas variáveis importantes para se conhecer a empresa, primeiro é preciso atenção com resultados "ajustados", que podem embutir fatores exógenos e mascarar a realidade dos números.

Dentre alguns indicadores recomendados, destaque para o retorno sobre o patrimônio líquido, que nada mais é que o lucro líquido da companhia dividido por seu patrimônio líquido, ou seja, o dinheiro que sócios e acionistas colocaram na empresa. O resultado indica quanto de retorno a companhia costuma oferecer por cada real aplicado nela.

Outra boa fonte de atenção é dívida líquida sobre Ebitda - geração operacional de caixa -, que pode indicar o grau de liquidez da companhia. Basicamente, aponta quanto tempo é necessário para a empresa honrar suas dívidas. Quando a conta chega em uma relação de duas vezes e meia do Ebitda, as agências de classificação de risco costumam acender o alerta com a companhia.

Aos aventureiros
Bons fundamentos, além de limitar o risco, podem determinar a busca de uma rival de maior porte pela aquisição daquela small cap. Para esta avaliação, uma boa medida pode ser a margem Ebitda - geração de caixa sobre a receita líquida -, ou seja, quanto de suas receitas que a empresa consegue transformar em caixa, um indicativo de eficiência.

Para quem não se sentir confortável em arriscar de forma direta, sempre há a opção dos fundos em small caps, para investir nas pequenas pelas mãos de um gestor mais gabaritado no assunto. Aos que preferirem se aventurar sozinhos, muito cuidado; ganhos sedutores muitas vezes escondem risco de perdas irreparáveis.

terça-feira, 16 de junho de 2009

Buy and Hold

Desacreditada, estratégia de buy and hold ainda é válida, só precisa ser revista

Por: Roberto Altenhofen Pires Pereira
16/06/09 - 11h02
InfoMoney

SÃO PAULO - Muitas histórias de sucesso na bolsa vêm de apostas de investimento de longo prazo, que remetem à famosa estratégia de buy and hold. Grosso modo, acreditando na hipótese de que os mercados são eficientes, fica difícil para o investidor comum bater o retorno médio do mercado, por isso a melhor opção pode ser comprar determinado ativo e segurá-lo por algum tempo.

A ideia do buy and hold partiu dos estudos de Eugene Fama e Kenneth French na Universidade de Chicago. A proposição de racionalidade dos mercados sugere que todas as informações estão incorporadas nos preços, fator que torna os movimentos de curto prazo meramente aleatórios. Por isso a sugestão de apostar no longo prazo.

Na berlinda
Casos de investidores como Warren Buffett tornaram evidente a validade desta estratégia, relacionando até histórias de uma vida de investimento em determinada ação ou setor. Por outro lado, o buy and hold passou a ser questionado recentemente.

Com os solavancos que a crise embutiu nos gráficos do mercado, muitas blue chips norte-americanas voltaram para patamares de muitos anos antes. Um exemplo extremo é a ação da General Motors, que operava no menor patamar desde 1934 pouco antes do decreto de recuperação judicial da empresa. Experiências como esta, que invalidaram muitas estratégias de longo prazo, colocaram o buy and hold na berlinda.

A estratégia morreu?
De fato, a mudança abrupta na direção dos mercados comprometeu a visão da tradicional estratégia. Lá fora, alguns estrategistas passaram a bater de frente nas proposições do modelo Fama-French. Outros a defendem.

O debate foi aberto pela Motley Fool. "Buy and Hold é um grande slogan de marketing para os fundos que querem tomar seu dinheiro. Nada mais e nada menos.", acusou milionário norte-americano Mark Cuban. Para ele, os insucessos da crise provaram que a estratégia morreu.

Um novo buy and hold
Do outro lado, há quem assuma que os casos das blue chips pesam contra, mas ponderam mais a opinião. Os estrategistas da Pimco, que desenvolveram a ideia de que o mercado vive um "novo normal", acreditam que como o mercado mudou, o buy and hold precisa mudar.

Nos últimos meses, Bill Gross e Mohamed El-Erian vêm afirmando que a recuperação da economia global dará origem a um "novo normal", no qual o sistema financeiro será desalavancado, desglobalizado e re-regulado. Uma das consequências disso para os investidores é que o acúmulo de riqueza através da alavancagem, como foi feito nas últimas décadas, será muito mais difícil.

Para os estrategistas da Pimco, adaptar o buy and hold ao "novo normal" condiz com uma visão de longo prazo, cíclica e uma administração dos riscos explícita. Em relação ao longo prazo, a recomendação é olhar para frente e não para trás nas decisões, o que inclui a exposição geográfica do ativo em questão. Administração dos riscos, para El-Erian, remete a diversificação.

"Os saltos [do mercado] constituem um desafio adicional aos investidores, que testam a capacidade do investidor de segurar de fato o ativo - porque quando você experimenta uma grande jornada de saltos, há a tentação para parar de segurar o ativo na hora errada", afirmou.

4 T's
Outra opinião que ainda considera a validade da estratégia é de Tom Gardner, um dos três fundadores da Motley Fool. Gardner sugere quatro pontos básicos para o investidor que quer seguir o buy and hold nos dias atuais:

- Questões -
Temperamento - "Você aguenta assistir uma perda de 50% no valor de sua carteira por um período de dois ou três anos?"

Tempo - "Você consegue administrar dez anos de retorno zero em seus investimentos?"

Treinamento - "Você é capaz de investir em companhias públicas, diversificar seu portfólio internacionalmente, conhecendo bem os ativos que possui?"

Tendência - "Você tem a possibilidade de investir mais dinheiro em sua carteira, particularmente quando os preços estão em queda?"

Para ele, caso você não passe por esses tópicos, melhor ficar longe da estratégia de buy and hold.