Ana Mercedes Gauna

CRA-RJ: 03-03161 | ABRAWEB: 66132 | ABRACEM: Q27795

Como fazer um cálculo simples em Microsoft Excel

Como fazer um cálculo simples em Microsoft Excel



Eu fiz uma tabela com exemplos simples de fórmulas de cálculo, dentro do artigo Microsoft Excel na Wikipédia (PT), alguns anos atrás. Repassei agora o meu exemplo de cálculo, para dentro de uma planilha do Microsoft Excel.


É só escolher os números, colocar nas colunas, e aplicar essas fórmulas, e experimentar calcular, até entender como as fórmulas funcionam. 

Por Ana Mercedes Gauna

https://anagauna.wordpress.com  |   https://about.me/anagauna
Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management
Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

ANTIVÍRUS (Computador + Server + Celular + Tablet)

ANTIVÍRUS (Softwares Recomendados)

Década de 80, meu primeiro computador foi um Commodore Vic20, um presente de meu pai, e nessa época eu não vi existir ainda os antivírus.
Em 1991, eu montei um computador AMD 386, usei durante vários anos, com sistema operacional MS-DOS, um ano com o Norton Antivírus (Já usei diversas versões), outro ano com o McAfee Antivírus (Já usei diversas versões), e outro ano com o Avast Antivírus (já usei diversas versões). Lembrando que as primeiras versões desses softwares funcionavam sob MS-DOS.  Antigamente a atualização das informações dos arquivos de vírus eram feitas manualmente, em internet discada, e muito lenta.  
Nos últimos 20 anos, eu usei diversos antivírus  gratuitos: AVAST,  AVG,  LavaSoft  Ad-Aware,  AVIRA, ESET NOD32, PANDA, etc.     O bom da internet banda larga é que os arquivos (com a relação de vírus), e o software antivírus, ambos passaram a receber suas atualizações automaticamente, e rapidamente, online na internet.
Década de 90, no meu ex-emprego, eu montei diversos computadores sozinha, um computador com processador AMD 386, e depois vários computadores com processador Intel 386 Pentium, usando o sistema operacional MS-DOS + WordPerfect + IBM Lotus 1-2-3, e alguns anos depois usando o Microsoft Windows 3.11 For Workgroups, anos depois Microsoft Windows 95 com Microsoft Office (Word + Excel + Powerpoint + Access), anos depois Microsoft Windows 98 com Microsoft Office 97 (Word + Excel + Powerpoint + Access), e usei anos depois o Microsoft Windows XP com o Microsoft Office 97 (Word + Excel + Powerpoint + Access).  Em casa eu usava um computador Intel 386 Pentium.   🙂
Em 2000 eu usava um computador Intel Pentium (que eu mesma montei sozinha) com Microsoft Windows95, alguns anos depois com Windows98, anos depois com Windows XP.
Em 2010 eu usava um computador Intel Celeron2 Duo (que eu mesma montei sozinha) com Microsoft Windows XP, e alguns anos depois com Windows 7.
Em 2012 eu comprei um notebook CCE Intel Core2 Duo com Linux (eu exclui a partição no Linux, recriei uma partição nova, formatei o disco rígido e instalei o Microsoft Windows XP) no meu notebook novo, e alguns anos depois eu instalei o Microsoft Windows 7.
Em 2013 eu vi uma promoção na internet e comprei um computador Intel Celeron2 Duo com Linux (eu exclui a partição no Linux, recriei uma partição nova, formatei o disco rígido e instalei o Microsoft Windows XP), e alguns anos depois eu instalei o Microsoft Windows 7.
Em 2014 eu vi uma promoção na internet, e comprei um computador Intel Core i5 com Linux  (eu exclui a partição no Linux, recriei uma partição nova, formatei o disco rígido e instalei o Microsoft Windows7).

ANTIVÍRUS (Para Home User)

 

ANTIVÍRUS (Para Empresas)

 

ANTIVÍRUS PARA SERVIDOR (Empresas)

ANDROID (CELULAR & TABLET):

Desde 2010, eu uso o sistema operacional Android (Google), instalei e testei nele alguns softwares antivírus, durante vários anos, em diversos modelos de celulares e tablets.  Eu notei que faz o checking (ele analisa todos os aplicativos que estão instalados dentro do celular Android) e depois lista quais são os aplicativos que detectou apresentar problemas de privacidade.  Ele também faz o backup dos contatos e informações armazenadas no aparelho (se o usuário quiser).
  • Norton Mobility Security & Antivírus (Symantec)
  • Symantec Mobile Security
  • McAfee Security LiveSafe (Intel Security)
  • Kaspersky Internet Security 
  • AVG Antivírus Android & Tablet
  • Avira Antivírus Security
  • Eset Mobile Security

 

IOS (IPHONE & IPAD):

Desde 2014, a minha filha tem um Apple Iphone5, e desde 2015 tenho um Apple Ipad2 10″ (ambos com IOS9).  Eu ainda estou analisando o funcionamento dos antivírus sob IOS9.
  • Norton Mobile Security (Symantec)
  • McAfee Mobile Security (Cofre de Privacidade, Backup, AntiRoubo)
  • McAfee SafeKey (Intel Security)
  • McAfee Personal Locker (Intel Security)
  • SecureLine VPN Segurança Wifi e Proteção de Identidade AVG.
Observação:   Os fabricantes dos softwares antivírus utilizam as redes sociais do Facebook e Linkedin, diariamente.
 Lembre sempre de manter atualizado anualmente o seu software antivírus. Quando terminar 12 meses de uso da assinatura, retire a versão velha do software antivírus, e instale a versão nova dele.
 Por Ana Mercedes Gauna em 10/07/2015 

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

As programadoras do computador Eniac (1946)

As programadoras do computador Eniac (1946)

As programadoras do computador Eniac (1946)

As seis programadoras do projeto Eniac criaram o sistema operacional do primeiro computador eletrônico digital, foram fundamentais para o avanço dos softwares.
O primeiro computador eletrônico de uso geral só foi criado em 1946. O Eniac (Electronic Numerical Integrator and Computer) foi projetado para fazer cálculos de artilharia para o exército americano. O contrato de construção foi assinado em 1943 e, da mesma forma que na Charles Babbage’s Analytical Engine, concebida em 1834, a programação foi feita por mulheres.
Kathleen McNulty, Mauchly Antonelli, Jean Jennings Bartik, Frances Synder Holber, Marlyn Wescoff Meltzer, Frances Bilas Spence e Ruth Lichterman Teitelbaum, foram selecionadas de um grupo de 80 matemáticas que trabalhavam com cálculos balísticos na Universidade da Pensilvânia, para participarem de um projeto secreto para automatizar os processos, criar um algoritmo e implementa-lo em um computador eletrônico.
O computador Eniac foi apresentado ao público em fevereiro de 1946, e se mostrou capaz de realizar cálculos complexos em segundos. Toda a programação foi feita pelo grupo de mulheres, mas elas nunca receberam o crédito por isso.
Em 2014, o documentário “The Computers”, com diálogos das seis programadoras, tentou recuperar parte dessa história.  Elas aprenderam como o Eniac funcionava e o programaram sem linguagens de programação ou manual – disse Kathy Kleiman, uma das produtoras do documentário.
A almirante Grace Hopper, era uma visionária que em 1949, quando os computadores ocupavam salas inteiras, acreditava que eles poderiam atender ao público em geral, foi a mulher a responsável por acelerar o desenvolvimento das linguagens de computação.  Nascida em dezembro de 1906, em Nova York, se graduou em matemática em 1928 no Vassar College, onde se formou professora, e fêz o PHD na Yale University, seis anos depois. Ela continuou no Vassar College até 1943, quando ingressou na Marinha, onde foi designada para trabalhar em um laboratório da Harvard University, com o Mark1.
Impressionada com a capacidade dos computadores, Grace arriscou sua carreira militar para ingressar, em 1949, na Eckert-Mauchly Computer Corporation para produção de softwares comerciais. Para facilitar o trabalho, ela teve a ideia de compartilhar códigos entre os programadores, formando bibliotecas, para reduzir os erros de programação e evitar dos programadores terem que revisar todo o trabalho.
Mas seu grande feito foi a criação do compilador de código-fonte Flow-Matic, lançado em 1955; essa foi a primeira linguagem de programação que funcionava com palavras em inglês. Anteriormente, todos os softwares eram escritos em notação matemática. Ela também participou da criação da linguagem de programação Cobol, linguagem até hoje amplamente utilizada, em computadores de grande porte.
Ada Lovelace Byron (1815-1851), foi outra pioneira da computação, era filha do poeta Lord Byron e da matemática Lady Byron. Aos 17 anos, ela descobriu que Charles Babbage tivera a idéia de criar uma máquina analítica. Babbage e Ada não paravam de se corresponder, e ela concordou em fazer um resumo do projeto.
Ada levou a idéia um passo adiante e sugeriu que esse tipo de máquina poderia ser usado para criar complexas partituras musicais e executar trabalhos gráficos, tornando-se uma ferramenta de pesquisa indispensável. Ela morreu aos 36 anos, mas anteviu um dos principais elementos da computação atual.
Ada sugeriu um plano para a máquina que a faria capaz não só de calcular, mas de gerar números específicos. Em 1979, o Exército norte-americano batizou uma linguagem de computador em homenagem a ela.
Por Ana Gauna (em 14/08/2015)

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

Delegação de Trabalhos

Delegação de Trabalhos

Adoro lêr as frases, opiniões e conselhos de Steve Jobs. Hoje li esta frase dele:
“Concentre-se naquilo que você é bom, delegue todo o resto” – Steve Jobs
Quando existe a dúvida. Eu delego, ou não delego, um trabalho para você fazer?
Muitas vezes os gerentes ficam em dúvida se delegam, ou não delegam, um certo trabalho para um outro funcionário fazer.
Isso acontece muito no ambiente de trabalho, porque cada trabalho a fazer, costuma ter um grau de dificuldade a maior, ou a menor, para se conseguir começar a fazer e conseguir concluir o trabalho.
Para se delegar um trabalho a fazer a um funcionário, o gerente tem que ter uma certa confiança no funcionário, uma certa certeza de que ele será capaz de realizar a tarefa e concluir.
Já observei nos últimos anos, que existe gerentes e diretores que preferem ficar sobrecarregados de trabalhos a fazer, por não confiarem que um funcionário seu é capaz de concluir as tarefas com perfeição.
Para a delegação de trabalhos poder ser feita, com perfeição, e o gerente ou diretor ter a confiança de que o funcionário será capaz de executar a tarefa e conseguir concluir sem erros, ou quase sem erros, é muito importante ser feito uma coisa chamada treinamento. 
Para um funcionário poder trabalhar realizando uma tarefa com perfeição para a empresa, é necessário que de tempos em tempos a empresa encaminhe os seus funcionários  de  determinadas  áreas  de  trabalho,  para   fazerem   cursos   de atualização, aperfeiçoamento ou especialização em determinada atividade, que o gerente ou diretor necessita que a pessoa tenha um conhecimento para ajudá-lo na execução e conclusão de um trabalho.
Ou seja, para você poder fazer a delegação de um trabalho a fazer, primeiro você deve encaminhar a pessoa que irá te ajudar, para fazer um treinamento.  Após  o treinamento concluído, se tem a plena confiança que o trabalho poderá ser feito e concluído por terceiros. 
Não tenha medo de delegar tarefas. Fazendo isso pode-se concentrar no que você realmente é bom, e gosta de fazer.  O que irá melhorar em muito o seu trabalho, por ficar com menos sobrecarga de trabalho a fazer.
Sei que aprender a confiar em alguém, é uma tarefa muito difícil, que demanda muito tempo, mas para delegar trabalhos requer  a  confiança  que  o  outro  irá conseguir fazer.  Treine quem acha que é capaz de te ajudar.  Isso vale a pena.
Existe aquelas pessoas que abandonam a empresa após o treinamento, e vão trabalhar em outras empresas.  Mas também existe as pessoas que ficam fiel.
A vida é isso, arriscar.  Algumas vezes temos que arriscar, para acertar algo.
Artigo publicado no Portal dos Administradores em 19/07/2015 (http://www.administradores.com.br/artigos/negocios/delegacao-de-trabalhos/88872/)
Por Ana Mercedes Gauna

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

BIG DATA – Data Science

Data-Science-Skillset1 (R)

About Data Scientists


Rising alongside the relatively new technology of big data is the new job title data scientist. While not tied exclusively to big data projects, the data scientist role does complement them because of the increased breadth and depth of data being examined, as compared to traditional roles.

So what does a data scientist do?


A data scientist represents an evolution from the business or data analyst role. The formal training is similar, with a solid foundation typically in computer science and applications, modeling, statistics, analytics and math. What sets the data scientist apart is strong business acumen, coupled with the ability to communicate findings to both business and IT leaders in a way that can influence how an organization approaches a business challenge. Good data scientists will not just address business problems, they will pick the right problems that have the most value to the organization.
The data scientist role has been described as “part analyst, part artist.” Anjul Bhambhri, vice president of big data products at IBM, says, “A data scientist is somebody who is inquisitive, who can stare at data and spot trends. It’s almost like a Renaissance individual who really wants to learn and bring change to an organization.”
Whereas a traditional data analyst may look only at data from a single source – a CRM system, for example – a data scientist will most likely explore and examine data from multiple disparate sources. The data scientist will sift through all incoming data with the goal of discovering a previously hidden insight, which in turn can provide a competitive advantage or address a pressing business problem. A data scientist does not simply collect and report on data, but also looks at it from many angles, determines what it means, then recommends ways to apply the data.
Data scientists are inquisitive: exploring, asking questions, doing “what if” analysis, questioning existing assumptions and processes. Armed with data and analytical results, a top-tier data scientist will then communicate informed conclusions and recommendations across an organization’s leadership structure.
======================================================
Gregory Piatetsky-Shapiro   (Analytics, Data Mining, Data Science Expert, KDnuggets President)
The list below based on the list compiled by Pedro Martins, but we added the book authors and year, sorted alphabetically by title, fixed spelling, and removed the links that did not work.
  1. An Introduction to Data Science by Jeffrey Stanton, Robert De Graaf, 2013.
    An introductory level resource developed by Syracuse University
  2. An Introduction to Statistical Learning: with Applications in R by G. Casella, S, Fienberg, I Olkin, 2013.
    Overview of statistical learning based on large datasets of information. The exploratory techniques of the data are discussed using the R programming language.
  3. A Programmer’s Guide to Data Mining by Ron Zacharski, 2012.
    A guide through data mining concepts in a programming point of view. It provides several hands-on problems to practice and test the subjects taught on this online book.
  4. Bayesian Reasoning and Machine Learning by David Barber, 2012.
    focusing on applying it to machine learning algorithms and processes. It is a hands-on resource, great to absorb all the knowledge in the book.
  5. Big Data, Data Mining, and Machine Learning: Value Creation for Business Leaders and Practitioners by Jared Dean, 2014.
    On this resource the reality of big data is explored, and its benefits, from the marketing point of view. It also explains how to storage these kind of data and algorithms to process it, based on data mining and machine learning.
  6. Data Mining and Analysis: Fundamental Concepts and Algorithms by Mohammed J. Zaki, Wagner Meira, Jr., Data Mining and Analysis: Fundamental Concepts and Algorithms, Cambridge University Press, May 2014.
    A great cover of the data mining exploratory algorithms and machine learning processes. These explanations are complemented by some statistical analysis.
  7. Data Mining and Business Analytics with R by Johannes Ledolter, 2013.
    Another R based book describing all processes and implementations to explore, transform and store information. It also focus on the concept of Business Analytics.
  8. Data Mining Techniques: For Marketing, Sales, and Customer Relationship Management by Michael J.A. Berry, Gordon S. Linoff, 2004.
    A data mining book oriented specifically to marketing and business management. With great case studies in order to understand how to apply these techniques on the real world.
  9. Data Mining with Rattle and R: The Art of Excavating Data for Knowledge Discovery by Graham Williams, 2011.
    The objective of this book is to provide you lots of information on data manipulation. It focus on the Rattle toolkit and the R language to demonstrate the implementation of these techniques.
  10. Gaussian Processes for Machine Learning by Carl Edward Rasmussen and Christopher K. I. Williams, 2006.
    This is a theoretical book approaching learning algorithms based on probabilistic Gaussian processes. It’s about supervised learning problems, describing models and solutions related to machine learning.
===================================================
Kirk Borne  (Principal Data Scientist at Booz Allen Hamilton)
Very interesting compilation published here, with a strong machine learning flavor (maybe machine learning book authors – usually academics – are more prone to making their books available for free). Many are O’Reilly books freely available. Here we display those most relevant to data science. I haven’t checked all the sources, but they seem legit. If you find some issue, let us know in the comment section below. Note that at DSC, we also have our free books:
 There are several sections in the listing in question:
  1. Data Science Overviews (4 books)
  2. Data Scientists Interviews (2 books)
  3. How To Build Data Science Teams (3 books)
  4. Data Analysis (1 book)
  5. Distributed Computing Tools (2 books)
  6. Data Mining and Machine Learning (29 books)
  7. Statistics and Statistical Learning (5 books)
  8. Data Visualization (2 books)
  9. Big Data (3 books)
Here we mention #1, #5 and #6:

Data Science Overviews

Distributed Computing Tools

Data Mining and Machine Learning

===================================================
Bernard Marr é um LinkedIn Influencer
Best-Selling Author, Keynote Speaker and Leading Business and Data Expert
4 Ways Big Data Will Change Every Business | SmartData Collective   http://www.smartdatacollective.com/bernardmarr/349932/4-ways-big-data-will-change-every-business
Big Data Decision Against Facebook: Implications For Google, Apple and 5,000 Other Companies
https://www.linkedin.com/pulse/big-data-decision-against-facebook-implications-google-bernard-marr?trk=hp-feed-article-title-channel-add
====================================================

Here Are the Schools With Degrees in Data Science [List]

According to a recent report released by RJMetrics called The State of Data Science, there are 11,400 self-identifying Data Scientists on LinkedIn. The organization made it clear that it would only count people who proclaim to be data scientists, rather than going through a painstaking process of determining which skill sets made someone this type of professional and which did not.
Although RJMetrics anticipates that the number it came up with is a wild underestimate, it still shows a steep and recent increase. The report explains that its findings indicate that 52% of data scientists have entered the field within the past four years—meaning that colleges with degrees in data science are becoming an increasing focus. Given that, the question for many becomes: what are the best U.S. schools for data science and the ideal paths toward this sort of career?
“The demand is clearly there, as data science students are finding many job offers when they graduate and in a diverse marketplace.” 
As you can imagine, because this niche but growing field is so new that most of the professionals don’t have educational backgrounds specific to Data Science. For the most part, data scientists have earned higher degrees – master’s and PhDs – but the subjects are all across the board. To be expected, the most popular courses of study are STEM-related. RJMetrics revealed that the top disciplines for data scientists with master’s degrees are Computer Science, Business Administration and Statistics. Meanwhile, for professionals holding PhDs, Physics, Computer Science and Mathematics are the most prevalent concentrations.

Schools are stepping up for Data Science

That being said, universities across the country are picking up on Data Science’s growing importance. Nowadays, businesses – regardless of their industry – are looking to accumulate, analyze and apply data to drive success in their space. To do that, it’s becoming key for employers to get their hands on Data Science talent. Select schools are stepping up and designing programs catered to developing students to thrive in this field.
There are Data Science – or something similarly named like Business Analytics or Data Mining – programs popping up in every U.S. state. In Massachusetts, schools like UMass and Worcester Polytechnic Institute (WPI), are among some of the first Data Science program pioneers.
“The demand is clearly there, as data science students are finding many job offers when they graduate and in a diverse marketplace,” said Elke Rundensteiner, professor at WPI — which has rolled out both a master’s and PhD program in Data Science in the past two years. “We are hearing from employers from marketing to cybersecurity to the pharmaceutical industry who have various data science needs. WPI has responded by digging deeper, offering more specific courses, and finding new intersections between disciplines.”
Because the field is so new and it’s being applied in so many different ways, universities are creating curricula that encompass a variety of disciplines needed to excel in Data Science. Most tracks are a melange of mathematics and IT, as well as business and computer sciences.
RELATED
Schools aren’t solely focused on letting students earn degrees in this field. Universities around the country also know they play a crucial role in the Data Science community itself – namely, in its development.
“The demand for new methods and tools for big data is also growing,” explained Andrew McCallum, director and professor at UMass’ Center of Data Science. “Data science centers, like ours at UMass Amherst, bring the data users – industry and government – together with the data science researchers to create new technologies resulting in better decision making and the discovery of new knowledge.”

Where to go

UMass and WPI are hardly alone in jumping on the Data Science educational bandwagon. Here’s a comprehensive list of U.S. universities offering degree programs specifically in this emerging subject (with links to each school’s specific data-science program):
Chapman University – Orange, CA
Stanford – Stanford, CA
University of the Pacific – San Francisco, CA
University of Southern California – Los Angeles, CA
University of San Francisco – San Francisco, CA
University of Denver – Denver, CO
Catholic University of America – Washington, DC
George Washington University – Washington, DC
Georgetown University – Washington, DC
DePaul University – Chicago, IL
Northwestern University – Evanston, IL
Notre Dame – Notre Dame, IN
Purdue – Lafayette, IN
Saint Mary’s College – Notre Dame, IN
Northern Kentucky University – Highland Heights, KY
Lousiana State University – Baton Rouge, LA
Bentley – Waltham, MA
Brandeis – Waltham, MA
Harvard – Cambridge, MA
WPI – Worcester, MA
University of Maryland – College Park, MD
Michigan State University – East Lansing, MI
Winona State University – Winona, MN
University of Minnesota – Minneapolis, MN
Saint Peter’s University – Jersey City, NJ
Rutgers – New Brunswick, NJ
Columbia New York, NY
Cornell – Ithaca, NY
Fordham – New York, NY
NYU – New York, NY
NYU Center for Data Science – New York, NY
Pace University – New York, NY and Westchester, NY
RPI – Troy, NY
Syracuse – Syracuse, NY
The Ohio State University – Columbus, OH
University of Cincinnati – Cincinnati, OH
Xavier University – Cincinnati, OH
University of Oklahoma – Norman, OK
Carnegie Mellon University – Pittsburgh, PA
Drexel University – Philadelphia, PA
Saint Joseph’s University – Philadelphia, PA
College of Charleston – Charleston, SC
University of Tennessee – Knoxville, TN
Texas A&M University – Houston, TX
George Mason University – Fairfax, VA
University of Virginia – Charlottesville, VA
======================================================

BIG DATA – DataBase Definição

BIG DATA – SQL (manutenção anual)

BIG DATA – ANALITYCS

Por Ana Mercedes Gauna (16/10/2015) em amgauna.wordpress.com

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

BIG DATA – ANALYTICS

Acima, um desenho exemplo de layout do projeto de uma rede de computadores do  tipo BIG DATA.  Esse desenho foi feito utilizando o software Trace-Route utilizado pela Cisco Networking Academy da Cisco Systems.   Esse desenho de layout foi feito por Bunyamin Önel shared this Cisco Packet Tracer scenario…   (If you have ‪#‎PacketTracer‬ scenarios to share, send them over to netacadfb@gmail.com   with some info and we will share them on this page) – Anastasia at ‪#‎Cisco‬ https://lnkd.in/dMJu7Yd

Abaixo, meu resumo do estudo de BIG DATA – ANALYTICS, retirando um grau de complicação técnica, para simplificar o meu entendimento desse assunto.
ANÁLISE DE DADOS (ESTATÍSTICA)
Os estudos estatísticos estão relacionados às situações que envolvem planejamentos, coleta de dados, organização de informações, análise das informações coletadas, interpretação e divulgação de forma clara e objetiva. Os métodos de pesquisa podem ser classificados de duas formas: pesquisas de opinião ou pesquisas de mercado. Nas pesquisas de opinião, o objetivo principal é colher informações sobre determinando assunto com base em entrevistas pessoais. As pesquisas de mercado são realizadas através da análise de mercado sobre determinado produto.
A coleta, a organização, a descrição dos dados, o cálculo e a interpretação de coeficientes pertencem à Estatística Descritiva, enquanto a análise e a interpretação dos dados, associados a uma margem de incerteza, ficam a cargo da Estatística Indutiva ou Inferencial, também chamada como a medida da incerteza ou métodos que se fundamentam na teoria da probabilidade.
A utilização de tabelas e gráficos são frequentes na Estatística. As tabelas servem para organizar e tabular os dados, já os gráficos transmitem as informações com clareza e transparência, contribuindo para uma leitura objetiva.
=============================================== 
ANÁLISE DE DADOS  (SISTEMA DE INFORMAÇÕES)
 ANÁLISE DE DADOS – O que é?
  • É o processo pelo qual se dá ordem, estrutura e significado aos dados (informações).
  • Consiste na transformação dos dados colectados em conclusões e/ou lições, úteis e verdadeiras.
  • A partir dos tópicos pré-estabelecidos processam-se os dados, procurando tendências, diferenças e variações nas informações obtidas.
  • Os processos, técnicas e ferramentas usadas são baseadas em certos pressupostos e como tal tem limitações.
  • O processo é utilizado para descrever e resumir os dados, identificar as relações e as diferenças existentes entre variáveis, comparar variáveis e fazer previsões.
ANÁLISE DE DADOS QUALITATIVO
  • Indaga o porque de determinado fato ou problema estar ocorrendo;
  • Estuda as motivações;
  • É indutivo;
  • Ajuda a definir hipóteses;
  • É exploratório;
  • Permite conhecer tendências, comportamentos, atitudes, etc;
  • Fornece informações detalhadas a tendências, atividades, etc;
  • Fornece informações detalhadas a perguntas ou problemas sobre um projeto ou atividade do mesmo;
  • Não permite inferir os resultados a toda uma população.
  • Descreve uma amostra populacional utilizando Tabelas de Frequências com sexo grupo etário e ocupação.
  • Organiza os comentários e as respostas em categorias similares (exemplo: preocupações, sugestões, pontos fortes, pontos fracos, etc)
  • Identificar os padrões, as tendências, as relações, bem como associações de causa-efeito.
FORMAS DE APRESENTAÇÃO DE DADOS QUALITATIVO:
  • Narrativas das respostas dos participantes
  • Diagramas de Causa-Efeito
  • Matrizes
  • Taxinomia
  • Diagrama de relações das várias categorias e o respectivo significado dado pelos participantes
TÓPICOS DO ROTEIRO E SEUS PRINCIPAIS OBJETIVOS QUALITATIVOS:
  • Identificar as características comuns ao grupo de trabalho, e as diferenças em relação aos outros grupos.
  • Inferir sobre os processos de socialização para o trabalho das cooperadas e se tais processos estariam associados, de algum modo, às formas como elas se percebem atualmente no trabalho.
  • Identificar as experiências comuns, a partir de sua inserção cooperativa, e seu impacto na vida pessoal, familiar e social
ANÁLISE DE DADOS QUANTITATIVO
  • Estuda as ações ou intervenções;
  • É dedutivo;
  • Fornece dados para provar hipóteses;
  • É conclusivo;
  • Mede o nível das intervenções, tendências, atividades, etc;
  • Produz informações quantificáveis sobre a magnitude de um problema, mas não fornece informações sobre o motivo do fato estar ocorrendo;
  • É possível inferir os resultados a toda uma população.
  • Utiliza-se os métodos estatísticos para representar os dados (informações)
  • Estatística descritiva envolve: coletar dados, apresentar dados e caracterizar dados, com a finalidade de descrever os dados.
  • Estatística inferencial envolve: estimativas e testes de hipóteses, com a finalidade de tomar decisões sobre as características de uma população a partir da amostra.
ETAPAS DA ANÁLISE DE DADOS QUANTITATIVOS
  • Organizar os dados, preocupando-se em dar uma ordem lógica aos dados, colocando todos os elementos da amostra e as variáveis em  estudo em uma tabela.
  • Agrupamento e resumo dos dados através de tabelas de frequências, exemplo: idade = (fi = ni / n)
  • Resumo das principais estatísticas (variável, média, mediana, moda, desvio padrão e variância)
  • Medidas de tendência central
  • Medidas de dispersão
  • Analisar e Interpretar os dados
  • Fazer o cruzamento de Tabelas (cross-tables)
  • Fazer uma análise de correlação
ANÁLISE E INTERPRETAÇÃO DOS DADOS QUANTITATIVOS
  • Geralmente, a análise e interpretação de dados envolve fazer comparações de grandezas estatísticas das varáveis de interesse.
  • As conclusões destas comparações baseiam-se na rejeição ou aceitação de hipóteses formuladas durante as questões avaliativas.
  • A aceitação ou rejeição de hipóteses baseia-se nos resultados obtidos nos chamados testes estatísticos.
  • Os testes mais usados são:  T-student , Chi-Quadrado e Anova
  • Baseline versus Resultados Alcançados: faz a  comparação da situação antes e após a implementação do programa.
  • Grupo Alvo versus Grupo de Controle: faz a comparação de atitudes ou práticas entre participantes e não participantes de um programa.
  • O grupo de tratamento – é um grupo de participantes de intervenção, cujas medidas de outcomes (resultado de equação lógica) são comparadas com às de um grupo de controle.
  • Controle grupo – é um grupo de “untreated” (não-tratados), cujos alvos são comparados com grupos experimentais nos outcomes.
FERRAMENTAS PARA ANÁLISE DE DADOS (sistema de informações)
  • Atualmente existe diversas empresas de tecnologia que fornecem softwares para tratamento e análise de dados.
==================================================== 
ANÁLISE DE DADOS = DATA SCIENCE
Exemplo de  Fórmula de Cálculo = Gregory Piatetsky-Shapiro (Analytics, Data Mining, Data Science Expert, KDnuggets President) em  Which Big Data, Data Mining, and Data Science Tools go together?  e o artigo de  Kirk Borne (Principal Data Scientist at Booz Allen Hamilton) em With Prescriptive Analytics, the future ain’t what it used to be 
Recomendação de Bibliografia Data Science = Gregory Piatetsky-Shapiro (Analytics, Data Mining, Data Science Expert, KDnuggets President) em More Free Data Mining, Data Science Books and Resources
 The list below based on the list compiled by Pedro Martins, but we added the book authors and year, sorted alphabetically by title, fixed spelling, and removed the links that did not work.
  1. An Introduction to Data Science by Jeffrey Stanton, Robert De Graaf, 2013.
    An introductory level resource developed by Syracuse University
  2. An Introduction to Statistical Learning: with Applications in R by G. Casella, S, Fienberg, I Olkin, 2013.
    Overview of statistical learning based on large datasets of information. The exploratory techniques of the data are discussed using the R programming language.
  3. A Programmer’s Guide to Data Mining by Ron Zacharski, 2012.
    A guide through data mining concepts in a programming point of view. It provides several hands-on problems to practice and test the subjects taught on this online book.
  4. Bayesian Reasoning and Machine Learning by David Barber, 2012.
    focusing on applying it to machine learning algorithms and processes. It is a hands-on resource, great to absorb all the knowledge in the book.
  5. Big Data, Data Mining, and Machine Learning: Value Creation for Business Leaders and Practitioners by Jared Dean, 2014.
    On this resource the reality of big data is explored, and its benefits, from the marketing point of view. It also explains how to storage these kind of data and algorithms to process it, based on data mining and machine learning.
  6. Data Mining and Analysis: Fundamental Concepts and Algorithms by Mohammed J. Zaki, Wagner Meira, Jr., Data Mining and Analysis: Fundamental Concepts and Algorithms, Cambridge University Press, May 2014.
    A great cover of the data mining exploratory algorithms and machine learning processes. These explanations are complemented by some statistical analysis.
  7. Data Mining and Business Analytics with R by Johannes Ledolter, 2013.
    Another R based book describing all processes and implementations to explore, transform and store information. It also focus on the concept of Business Analytics.
  8. Data Mining Techniques: For Marketing, Sales, and Customer Relationship Management by Michael J.A. Berry, Gordon S. Linoff, 2004.
    A data mining book oriented specifically to marketing and business management. With great case studies in order to understand how to apply these techniques on the real world.
  9. Data Mining with Rattle and R: The Art of Excavating Data for Knowledge Discovery by Graham Williams, 2011.
    The objective of this book is to provide you lots of information on data manipulation. It focus on the Rattle toolkit and the R language to demonstrate the implementation of these techniques.
  10. Gaussian Processes for Machine Learning by Carl Edward Rasmussen and Christopher K. I. Williams, 2006.
    This is a theoretical book approaching learning algorithms based on probabilistic Gaussian processes. It’s about supervised learning problems, describing models and solutions related to machine learning.
 Gregory Piatetsky-Shapiro (Analytics, Data Mining, Data Science Expert, KDnuggets President)
=======================================================
Very interesting compilation published here, with a strong machine learning flavor (maybe machine learning book authors – usually academics – are more prone to making their books available for free). Many are O’Reilly books freely available. Here we display those most relevant to data science. I haven’t checked all the sources, but they seem legit. If you find some issue, let us know in the comment section below. Note that at DSC, we also have our free books:
 There are several sections in the listing in question:
  1. Data Science Overviews (4 books)
  2. Data Scientists Interviews (2 books)
  3. How To Build Data Science Teams (3 books)
  4. Data Analysis (1 book)
  5. Distributed Computing Tools (2 books)
  6. Data Mining and Machine Learning (29 books)
  7. Statistics and Statistical Learning (5 books)
  8. Data Visualization (2 books)
  9. Big Data (3 books)
Here we mention #1, #5 and #6:

Data Science Overviews

Distributed Computing Tools

Data Mining and Machine Learning

====================================================

The information management big data and analytics capabilities include :

  • Data Management & Warehouse: Gain industry-leading database performance across multiple workloads while lowering administration, storage, development and server costs; Realize extreme speed with capabilities optimized for analytics workloads such as deep analytics, and benefit from workload-optimized systems that can be up and running in hours.
  • Hadoop System: Bring the power of Apache Hadoop to the enterprise with application accelerators, analytics, visualization, development tools, performance and security features.
  • Stream Computing: Efficiently deliver real-time analytic processing on constantly changing data in motion and enable descriptive and predictive analytics to support real-time decisions. Capture and analyze all data, all the time, just in time. With stream computing, store less, analyze more and make better decisions faster.
  • Content Management: Enable comprehensive content lifecycle and document management with cost-effective control of existing and new types of content with scale, security and stability.
  • Information Integration & Governance: Build confidence in big data with the ability to integrate, understand, manage and govern data appropriately across its lifecycle.
====================================================

BIG DATA – DataBase Definição

BIG DATA – SQL (manutenção anual)

BIG DATA – Data Science

Por:  ANA MERCEDES GAUNA  (13/10/2015)

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

BIG DATA – SQL (manutenção anual)

sql manutenção


Em 2000, eu era DBA (administradora de banco de dados), usei um sistema ERP junto com Microsoft Windows NT4 Server + Microsoft  SQL 6.5 Server, e alguns anos depois passei a usar o Microsoft Windows 2000 Server + Microsoft SQL 2000 Server.  Nessa época,  meu  trabalho  semanal  era  fazer o  backup em fitas  DAT (HP), quando  era necessário, para reparar algum problema que tenha acontecido com dados, eu fazia o restauro dos dados.    ERP = Software de Departamento Pessoal (Recursos Humanos = Lei CLT) + Software de Contabilidade (Financeiro) + Software Imobiliário (Condomínio)

Lembrete:  Depois alguns anos usando um sistema ERP com banco de dados SQL, eu notei a que a execução dos dados dentro do sistema que utiliza o SQL,  ficou com a execução muito lenta, apresentando alguns erros de memória ou funcionando com muita inconsistência.  Se quando comprar a placa de memória nova, e isso não resolver, o problema é outro:  isso pode ser causado quando o índice (chave) do banco de dados SQL apresenta defeito.

Exemplos de Servidores de Banco de Dados: Microsoft SQL Server 2008 + Microsoft SQL Server 2012 + Microsoft SQL Server 2014 + Microsoft Azure SQL Database + Oracle SQL Server + Oracle MySQL Server + Oracle PL/SQL + Oracle NoSQL Database + PostgreeSQL, etc.

Recomendação a fazer anualmente:

Primeiro passo: para consertar os índices (chave) que provavelmente estão defeituosos, é preciso recriar e re-organizar a tabela SQL (Structured Query Language).  Deve-se fazer um REINDEX (recriar os índices).   (Fiz isso anos atras no Microsoft SQL 2000 Server e funcionou muito bem).  
Manual Online – Exemplos  de sintaxe:  http://www.postgresql.org/docs/8.1/static/sql-reindex.html , no Microsoft Developer Network em DBCC DBREINDEX (Transact-SQL), ou no Oracle em:  http://docs.oracle.com/cd/E22583_01/UI/help/Utils/RSTU/REINDEX.html.

Segundo passo:  deve-se olhar o  SQL Memory Size  = Maximum server memory (MB) |  Mem Usage (MB)  | Virtual Size (MB) para  reconfigurar o valor default relativo a quantidade de memória mínima e memória máxima, que o SQL irá lêr dentro da execução do sistema (software).  
Manual Online:  No Microsoft  Developer  Network em  Opções Server Memory de configuração do servidor , no Microsoft TechNet em  Enabling Memory Support for Over 4 GB of Physical Memory (fazer login com conta Hotmail ou Outlook), ou fazendo o login em Oracle Help Center (Database Administrator’s Guide) em Using Automatic Memory Management (page 45 of 299).
======================================================

* 4 gigabyte =4294967296 bytes
* bit es la unidad menor de medida de la informacion, entonces
* 8 bit = 1 bytes

* 1 byte (b)= unidad minima funcional (1 Byte = una letra)

* 1 Kilobyte (Kb)= 1 024 bytes (1 kB)

* 1 Megabyte (Mb)= 1 024 Kilobytes= 1 048 576 bytes (1 MB)

* 1 Gigabyte (Gb)= 1 024 Megabytes= 1 048 576 Kilobytes= 1 073 741 824 bytes (1Gb)

* 1 Terabyte (Tb)= 1 024 Gigabytes= 1 048 576 Megabytes= 1 073 741 824 Kilobytes= 1 099 511 627 776 bytes (1Tb = 50.000 árboles de papel)

* 1 Petabyte (Pb)= 1 024 Terabytes= 1 048 576 Gigabytes= 1 073 741 824 Megabytes= 1 099 511 627 776 Kilobytes= 1 125 899 906 842 624 bytes

* 1 Exabyte (Eb)= 1 024 Petabytes= 1 048 576 Terabytes= 1 073 741 824 Gigabyte= 1 099 511 627 776 Megabyte= 1 125 899 906 842 624 Kilobytes= 1 152 921 504 606 846 976 bytes

* 1 Zettabyte (Zb)= 1 024 Exabytes= 1 048 576 Petabytes= 1 073 741 824 Terabytes= 1 099 511 627 776 Gigabytes= 1 125 899 906 842 624 Megabytes= 1 152 921 504 606 846 976 Kilobytes= 1 180 591 620 717 411 303 424 bytes

* 1 Yottabyte (Yb)= 1 024 Zettabytes= 1 048 576 Exabytes= 1 073 741 824 Petabytes= 1 099 511 627 776 Terabytes= 1 125 899 906 842 624 Gigabytes= 1 152 921 504 606 846 976 Megabytes= 1 180 591 620 717 411 303 424 kilobytes= 1 208 925 819 614 629 174 706 176 bytes

* 1 Brontobyte(Bb)= 1 024 Yottabytes= 1 048 576 Zettabytes= 1 073 741 824 Exabytes= 1 099 511 627 776 Petabytes= 1 125 899 906 842 624 Terabytes= 1 152 921 504 606 846 976 Gigabytes= 1 180 591 620 717 411 303 424 Megabytes= 1 208 925 819 614 629 174 706 176 Kilobytes= 1 237 940 039 285 380 274 899 124 224 bytes

* 1 Geopbyte (Geb)= 1 024 Brontobytes= 1 048 576 Yottabytes= 1 073 741 824 Zettabytes= 1 099 511 627 776 Exabytes= 1 125 899 906 842 624 Petabytes= 1 152 921 504 606 846 976 Terabytes= 1 180 591 620 717 411 303 424 Gigabytes= 1 208 925 819 614 629 174 706 176 Megabytes= 1 237 940 039 285 380 274 899 124 224 Kilobytes= 1 267 650 600 228 229 401 496 703 205 376 bytes
======================================================

Usar o REINDEX + revisar o SQL Memory Size, anos atrás, isso feito, resolveu os problemas que existiam no sistema (software).
Eu estou estudando atualmente o Microsoft Windows Server 2012 + Microsoft Windows SQL Server 2012 (comprei os livros).  Algumas vezes eu faço login e estudo o manual do SQL, dentro do site Microsoft Technet em SQL Server Language Reference   .  (fazer login com conta Hotmail ou Outlook)
Observações (HTML5):
Meses atrás, estudando programação web responsiva em Bootstrap, eu testei online dentro do meu site amgauna.eti.br  (atualmente ele está guardado dentro do Registro.BR),  e notei naquela época que o código utf-8, ele não reconhecia todos os acentos, e nem reconhecia o cedilha, utilizados no idioma português-brasileiro.  Como no Brasil utilizamos 0 BR no domínio, eu testei, e a acentuação brasileira funcionou.   http://www.w3schools.com/charsets/ref_html_utf8.asp

No Brasil, no HTML5, deve-se utilizar utf-8-br (português-brasileiro), minha opinião, testei, experimentando Bootstrap, e funcionou a acentuação. 

BIG DATA – DataBase Definição

BIG DATA – ANALITYCS

BIG DATA – Data Science

Por:  Ana Mercedes Gauna (09/10/2015)

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

BIG DATA – DataBase Definição

Abaixo, o meu estudo, resumindo ao máximo o grau de complicação técnico, porque eu gosto de simplificar quase tudo o que é complicado de entender. 
Definição prática de quais equipamentos e software, são utilizados para a construção do enorme volume de dados existentes em um Big Data.
BIG DATA  (Definição)
BIG DATA  é a  quantidade  enorme  de  informações  existentes  dentro  de  servidores  de  bancos  de  dados,  que  funcionam  dentro  de  diversos  servidores  de  rede  de  computadores,  ambos utilizando  um  sistema operacional  de  rede,  interligados  entre si,  que  atualmente  funcionam dentro de um sistema operacional cloud computing, cujas informações são acessadas pela internet por pessoas utilizando  um   computador comum (desktop ou notebook, por exemplo) ou celular (smartphone), para lêr essas informações,  ou para incluir mais informações dentro do servidor de banco de dados, online na internet, via cloud computing.
Exemplos de hardware + software utilizados na formação de um BIG DATA:
Servidores de Banco de Dados: Microsoft SQL Server 2008 + Microsoft SQL Server 2012 + Microsoft SQL Server 2014 + Microsoft Azure SQL Database + Oracle SQL Server + Oracle MySQL Server + Oracle PL/SQL + Oracle NoSQL Database (JAVA) + SYBASE  (SAP), IBM DB2,  PostgreeSQL, por exemplo.
Servidores de Rede de Computadores (Mainframe Cloud Computing): Intel + Hewlett-Packard (HP) + FUJITSU, IBM + DELL + CISCO + SAMSUNG + ALOG (EQUINIX) + MANDIC + UOL, etc, por exemplo.
Sistema Operacional de Rede:  Microsoft Windows Server 2008 + Microsoft Windows Server 2012 + Microsoft Windows Server 2014 + Red Hat Linux + Mandriva Linux, Oracle Linux, etc, por exemplo.
Sistema Operacional de Rede Cloud Computing: Microsoft Windows Azure, Oracle Solaris (UNIX), por exemplo.

A fotografia acima é um exemplo de  Mainframe (servidor de rede de computadores): esta fotografia é um dos mainframes da Oracle:  CERN  uses   Oracle   Zero  Data  Loss  Recovery  Appliance  to  back-up  and  restore  all  its  200  databases  at  a  fast-paced  and  with  minimum  impact  http://ora.cl/Lvz  and   https://plus.google.com/u/0/+AnaGauna2109/posts/ZUWES7VFfz6

Cada ano que passa, esse volume enorme de informações BIG DATA, tendem a aumentar cada vez mais, e algumas empresas analisam essas informações.

Para garantir a segurança da informação, e para proteger a privacidade das informações, hoje em dia existem várias técnicas modernas, com certificações: AXELOS (ITIL), ISACA (COBIT|CISA), EXIN (Cloud Computing), CompTIA (Security), etc, por exemplo.  E a proteção que existe desde a década de 80, os antivírus Norton Internet Security (Symantec), McAfee LiveSafe (Intel Security), AVG Free, Avast Free, etc).
Hoje em dia o banco de dados SQL existe dentro dos servidores dos provedores de internet, que fornecem o serviço de uso disponível aos clientes.
Exemplos de BIG DATA:
Redes Sociais (login internacional):  todas as informações estão armazenadas dentro de diversos servidores de banco de dados SQL.
Bancos (login internacional):  todas as informações estão armazenadas dentro de diversos servidores de banco de dados SQL.
Youtube (login internacional): todos os videos disponíveis online estão armazenados em diversos servidores de banco de dados SQL.
Wikipédia (login internacional): todos os textos disponíveis online estão armazenados em diversos servidores de banco de dados SQL.
Wikipedia artigo de BIG Data:  https://en.wikipedia.org/wiki/Big_data

BIG DATA – SQL (manutenção anual)

BIG DATA – ANALITYCS

BIG DATA – Data Science

Observação:
Em 2000, eu era DBA (administradora de banco de dados), usei um sistema ERP junto com Microsoft Windows NT4 Server + Microsoft  SQL 6.5 Server, e alguns anos depois passei a usar o Microsoft Windows 2000 Server + Microsoft SQL 2000 Server.  Nessa época,  meu  trabalho  semanal  era  fazer o  backup em fitas  DAT (HP), quando  era necessário, para reparar algum problema que tenha acontecido com dados, eu fazia o restauro dos dados.    ERP = Software de Departamento Pessoal (Recursos Humanos = Lei CLT) + Software de Contabilidade (Financeiro) + Software Imobiliário (Condomínio)
Eu estou estudando atualmente o Microsoft Windows Server 2012 + Microsoft Windows SQL Server 2012 (comprei os livros).  Algumas vezes eu faço login e estudo o manual do SQL, dentro do site Microsoft Technet em SQL Server Language Reference   .  (fazer login com conta Hotmail ou Outlook)
Por Ana Mercedes Gauna (estudo de Junho/2015 até Outubro/2015)

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

Administração de Projetos

Eu li diversos textos online referente como os projetos estão sendo executados hoje em dia, feitos por outros usuários no Linkedin, e textos publicados em outros sites da internet.  Projetos de processos de trabalho (Startup) e projetos de desenvolvimento de software.

Atualmente para trabalhar com administração de projetos, eu notei que a grande maioria das agências de emprego querem que as pessoas saibam utilizar o software Microsoft Project. Eu fiz o curso, ele é um software muito fácil de usar, por quem já tem prática de execução de projetos.   Apenas notei que nele existe alguns detalhes internos, e que um manual técnico ajuda a resolver, e melhorar a configuração de uso, e do  detalhamento de itens do projeto, no software.
Eu tenho muita experiência prática de projetos.  Eu já fiz vários projetos anos atrás, e eu conclui.  Era uma época em que esse software Microsoft Project não existia, ou pelo menos ele não era vendido aqui no Brasil.   Eu gostei desse software que usei no meu curso meses atrás.
Nas últimas semanas eu li diversos textos na internet, os quais não concordo com o teor.  

Eu acho errado:  a pessoa ter uma idéia, e logo ir executando um projeto, e logo ir abrindo uma empresa.  Fazer algo sem ter feito planejamento financeiro prévio.

Na época que meu Diretor me entregou projetos para realizar, não existia software nenhum para controlar os passos de execução de um projeto, isso era feito pessoalmente.  O acompanhamento do início ao fim era feito pessoalmente, e o controle de tudo o que era executado eu fazia usando era o Microsoft Excel. Vou informar o que eu fazia sempre, para administrar os meus projetos:
Primeiro passo  saber exatamente tudo o que o Diretor quer que seja feito e realizado dentro do projeto, conversando com o Diretor diretamente.
Segundo passo:  fazer o  levantamento dos dados, ou seja, saber exatamente tudo o que eu irei precisar utilizar dentro do projeto, para ele ser executado.
Terceiro passo:   fazer o orçamento em mais de 3 empresas, de todos os objetos que eu irei utilizar dentro do projeto.  Caso o projeto precise comprar hardware (equipamentos) ou software, tem que ser solicitado diretamente ao fabricante a ficha técnica completa de hardware e software, para poder ser feito uma análise, para se poder escolher qual é o melhor.
Quarto passo:  elaborar uma planilha em Microsoft Excel, detalhando todos os objetos que eu irei utilizar com todos os valores que foram orçados em anexo, e com o somatório total de tudo existente no projeto.
Quinto passo:  eu entregava essa planilha junto com todos os orçamentos recebidos, para o Diretor analisar, com calma, no tempo dele.
Sexto passo:  esquecia e esperava ele tomar a decisão dele.
Sétimo passo:  o Diretor me informava se ele iria executar o projeto no mês corrente, ou se ele iria agendar outro mês, ou outro ano, para ser realizado a execução do projeto.  

Conclusão:  O valor total do projeto é quem decide, quando será feito execução.

Eu já acompanhei e conclui diversos projetos, sozinha, e outros com ajuda de diversas empresas terceirizadas.

Projetos em andamento enfrentando a crise financeira no Brasil. Para se conseguir concluir, todos os gastos tem que ser bem controlados e bem administrados.

Saber o valor básico de algo, é primordial, antes de executar um projeto, porque durante a execução sempre aparece aquelas despesas surpresas, que não foram previstas anteriormente.  Algumas vezes um valor não orçado, atrapalha tudo.
Execução do Projeto:  Recebimento de dinheiro. Pagamento de despesas: tem que anotar no verso do documento referente o que foi aquela despesa, e “PAGO no dia (data de pagamento), no BANCO (nome do banco, nº agência bancária), RUBRICAR, e depois anexar o comprovante de pagamento(nota fiscal ou cupom fiscal (original e xerox), a ser usado para prestar conta   no setor de contabilidade, semanalmente, do dinheiro gasto.  Dessa forma,  quando se precisava de mais dinheiro para gastar no projeto, para comprar algo que faltou, eles autorizavam a liberação de mais money.  Isso era o que eu fazia sempre.    🙂
Conclusão do Projeto:  Tem que olhar quanto foi o dinheiro inicial (base do projeto), e calcular quanto foi o dinheiro total gasto até a conclusão do projeto, e calcular a diferença, para poder analisar qual foi a margem de gasto (Análise: O total gasto foi dentro do orçamento?  Ou você extrapolou, e gastou demais? ), isso tem que ser obtido após a conclusão total do projeto.  Você tem que saber.
Minha experiência de trabalho com projetos é prática, teoria tenho pouco.  Essa parte téorica de administrar projetos, eu ainda pretendo terminar de estudar.
Por Ana Mercedes Gauna (02/10/2015)

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

ANTIVÍRUS (Computador + Server + Celular + Tablet)

ANTIVÍRUS (Computador + Server + Celular + Tablet)

 

Década de 80, meu primeiro computador foi um Commodore Vic20, um presente de meu pai, e nessa época eu não vi existir ainda os antivírus.

Em 1991, eu montei um computador AMD 386, usei durante vários anos, com sistema operacional MS-DOS, um ano com o Norton Antivírus (Já usei diversas versões), outro ano com o McAfee Antivírus (Já usei diversas versões), e outro ano com o Avast Antivírus (já usei diversas versões). Lembrando que as primeiras versões desses softwares funcionavam sob MS-DOS.  Antigamente a atualização das informações dos arquivos de vírus eram feitas manualmente, em internet discada, e muito lenta.

Nos últimos 20 anos, eu usei diversos antivírus  gratuitos: AVAST,  AVG,  LavaSoft  Ad-Aware,  AVIRA, ESET NOD32, PANDA, etc.     O bom da internet banda larga é que os arquivos (com a relação de vírus), e o software antivírus, ambos passaram a receber suas atualizações automaticamente, e rapidamente, online na internet.

Década de 90, no meu ex-emprego, eu montei diversos computadores sozinha, um computador com processador AMD 386, e depois vários computadores com processador Intel 386 Pentium, usando o sistema operacional MS-DOS + WordPerfect + IBM Lotus 1-2-3, e alguns anos depois usando o Microsoft Windows 3.11 For Workgroups, anos depois Microsoft Windows 95 com Microsoft Office (Word + Excel + Powerpoint + Access), anos depois Microsoft Windows 98 com Microsoft Office 97 (Word + Excel + Powerpoint + Access), e usei anos depois o Microsoft Windows XP com o Microsoft Office 97 (Word + Excel + Powerpoint + Access).  Em casa eu usava um computador Intel 386 Pentium.   🙂

Em 2000 eu usava um computador Intel Pentium (que eu mesma montei sozinha) com Microsoft Windows95, alguns anos depois com Windows98, anos depois com Windows XP.

Em 2010 eu usava um computador Intel Celeron2 Duo (que eu mesma montei sozinha) com Microsoft Windows XP, e alguns anos depois com Windows 7.

Em 2012 eu comprei um notebook CCE Intel Core2 Duo com Linux (eu exclui a partição no Linux, recriei uma partição nova, formatei o disco rígido e instalei o Microsoft Windows XP) no meu notebook novo, e alguns anos depois eu instalei o Microsoft Windows 7.

Em 2013 eu vi uma promoção na internet e comprei um computador Intel Celeron2 Duo com Linux (eu exclui a partição no Linux, recriei uma partição nova, formatei o disco rígido e instalei o Microsoft Windows XP), e alguns anos depois eu instalei o Microsoft Windows 7.

Em 2014 eu vi uma promoção na internet, e comprei um computador Intel Core i5 com Linux  (eu exclui a partição no Linux, recriei uma partição nova, formatei o disco rígido e instalei o Microsoft Windows7).

 

ANTIVÍRUS (Para Home User)

  • Norton Security Online (Symantec):  http://www.nortonsecurityonline.com/   Em 2010 eu voltei a usar, comprei uma assinatura de 12 meses para 3 usuários. O bom dessa versão do Norton, que eu notei, foi que ele detectou tudo o que existia dentro da minha rede wireless (roteador wireless, computador desktop wireless, notebook wireless, celular  wireless, impressora wireless, tablet  wireless) e avisou sempre quando um objeto wireless novo era detectado. Quando terminou meu tempo de 12 meses da assinatura anual, eu desinstalei o software.

 

  •  Kaspersky Antivírus Total Security (Kaspersky Lab):   http://store.kaspersky.com/store/kasperbr/custom/pt_BR/pbPage.DR_LP_br20branded_v2     Em 2012 usei pela primeira vez uma versão do Kaspersky Internet Security, na caixa do software contém a informação que ele tem proteção híbrida em nuvem, decidi experimentar, comprei a assinatura de 12 meses para uso com 3 usuários. O bom dessa versão do Kaspersky, que eu notei, foi que ele  detectou  tudo  o  que existia  dentro  da  minha  rede  wireless  (roteador  wireless, computador  desktop  wireless,  notebook  wireless,  celular  wireless,  impressora  wireless,  tablet   wireless,  televisor Samsung smart-tv wireless) . Quando terminou o tempo de 12 meses da assinatura anual, eu desinstalei o software.

 

  • McAfee Antivírus (Intel Security):  http://promos.mcafee.com/offer.aspx?id=973254&gclid=Cj0KEQiApruyBRCFqoDu1pbk9rkBEiQAF8EFdeyeS4abI0Eoxw4mwKKeoVjGulgm3eo-mSEGuwhw6HQaAsMI8P8HAQ    Eu já usei diversas versões do McAfee Antivírus desde 1991, e a primeira versão do software que eu usei era em MS-DOS. Em 2011 a Intel comprou o software, e atualmente ele é o McAfee LiveSafe (Intel Security). Em 2015, eu voltei a usar, comprei  o softwareMcAfee LiveSafe  + McAfee SafeKey , com 12 meses de assinatura,  e com instalação  ilimitada  em computadores, tablet e celular.  O  bom dessa versão do McAfee, que eu notei, foi que ele detectou tudo  o  que  existia  dentro  da  minha  rede  wireless  (roteador wireless,  computador  desktop  wireless,  notebook  wireless, celular  wireless, impressora wireless, tablet  wireless, televisor Samsung Smart-TV wireless).  Eu notei no meu computador, que o Windows7 e o Windows10, ambos detectaram o meu televisor Samsung Smart-TV como sendo um roteador.

 

ANTIVÍRUS (Para Empresas)

ANTIVÍRUS PARA SERVIDOR (Empresas)

 

ANDROID (CELULAR & TABLET):

Desde 2010, eu uso o sistema operacional Android (Google), instalei e testei nele alguns softwares antivírus, durante vários anos, em diversos modelos de celulares e tablets.  Eu notei que faz o checking (ele analisa todos os aplicativos que estão instalados dentro do celular Android) e depois lista quais são os aplicativos que detectou apresentar problemas de privacidade.  Ele também faz o backup dos contatos e informações armazenadas no aparelho (se o usuário quiser).

  • Norton Mobility Security & Antivírus (Symantec)
  • Symantec Mobile Security
  • McAfee Security LiveSafe (Intel Security)
  • Kaspersky Internet Security 
  • AVG Antivírus Android & Tablet
  • Avira Antivírus Security
  • Eset Mobile Security

IOS (IPHONE & IPAD):

Desde 2014, a minha filha tem um Apple Iphone5, e desde 2015 tenho um Apple Ipad2 10″ (ambos com IOS9).  Eu ainda estou analisando o funcionamento dos antivírus sob IOS9.

  • Norton Mobile Security (Symantec)
  • McAfee Mobile Security (Cofre de Privacidade, Backup, AntiRoubo)
  • McAfee SafeKey (Intel Security)
  • McAfee Personal Locker (Intel Security)
  • SecureLine VPN Segurança Wifi e Proteção de Identidade AVG.

 

Observação:   Os fabricantes dos softwares antivírus utilizam as redes sociais do Facebook e Linkedin, diariamente.

Lembre sempre de manter atualizado anualmente o seu software antivírus. Quando terminar 12 meses de uso da assinatura, retire a versão velha do software antivírus, e instale a versão nova dele.

Por Ana Mercedes Gauna em 10/07/2015

https://anagauna.wordpress.com  |   https://about.me/anagauna 

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

The Internet of Everything (IoE)

IOT Applications internet dos pensamentos

 

 

Internet of Things

 

A Internet of Everything foi listada como sendo uma das novas tendências de 2014 pela Gartner.  O prazo da  Internet of Everything (OIE) é um relativamente novo prazo, e há uma confusão sobre a diferença entre o Internet of Everything (OIE) e da Internet das Coisas (IoT), para esclarecer que, vamos começar com definições, aplicações e explorar o futuro deste novo conceito.
O que é a Internet of Everything (OIE)?

A Internet of Everything (OIE) “está reunindo pessoas, processos, dados e coisas para fazer conexões de rede mais relevante e valioso do que nunca, transformando as informações em ações que criam novas capacidades, experiências mais ricas e sem precedentes oportunidade econômica para as empresas, indivíduos e países. “, (Cisco, 2013).

Em termos simples: OIE é a conexão inteligente de pessoas, processos, dados e coisas. A Internet of Everything (OIE) descreve um mundo onde milhares de milhões de objetos têm sensores para detectar medir e avaliar o seu estatuto; todos conectados através de redes públicas ou privadas, utilizando protocolos padrão e proprietárias.

Pilares da Internet of Everything (OIE)

Pessoas: Conectando pessoas de maneiras valiosas mais relevantes
Dados: Convertendo dados em inteligência para tomar melhores decisões
Processo: Disponibilizar a informação certa para a pessoa certa (ou máquina), no momento certo
Coisas: Dispositivos físicos e objetos ligados à Internet e outro para a tomada de decisão inteligente; muitas vezes chamado de Internet das Coisas (IoT)

A Internet das Coisas (IoT)

A Internet das Coisas (IoT) é a rede de objetos físicos acessados através da Internet. Esses objetos contêm tecnologia embarcada para interagir com estados internos ou no ambiente externo. Em outras palavras, quando os objetos podem sentir e se comunicar, ele muda como e onde as decisões são tomadas, e quem as faz. Por exemplo Nest thermostats.

A diferença entre OIE e IoT

A Internet of Everything (OIE), com quatro pilares: pessoas, processos, dados, e as coisas se constrói sobre a Internet das Coisas (IoT) com um pilar: as coisas. Além disso, a OIE avança ainda mais o poder da Internet para melhorar os resultados dos negócios e da indústria, e, finalmente, fazer a vida das pessoas melhor, adicionando para o progresso da Internet das coisas. (Dave Evans, Chief Futurist Cisco Consulting Services).

O futuro?

A Internet das indústrias Tudo vai re-inventar a três níveis: processos de negócio, modelo de negócios, e de momento negócio.

“No primeiro nível, a tecnologia digital está a melhorar nossos produtos, serviços e processos, nosso cliente e experiências constituintes, e a forma como trabalhamos em nossas organizações e dentro de nossas parcerias”, disse Hung Le Hong, vice-presidente de pesquisas do Gartner e Fellow. “Nós fazemos o que fazemos normalmente, mas a digitalização permite-nos fazê-lo melhor ou desenvolver produtos melhores dentro de nossa indústria.”

Como as empresas digitalizar produtos e processos, completamente novas formas de fazer negócio em indústrias emergir. Os analistas do Gartner esperam mais mudanças transformacionais como indústrias reinventa digitalização a nível modelo de negócio. Sr. Le Hong deu os exemplos da Nike, brincando na beira do setor de saúde, com suas roupas esportivas ligadas e artes, e Google ter uma presença visível em veículos autônomos. “Estas organizações não tinha negócios em sua indústria, e são agora re-inventar-los”, disse Le Hong.

O terceiro nível do digital re-invenção é criada pela necessidade de competir com a velocidade de negócios sem precedentes e agilidade. Gartner chama isso de “momento de negócios.”

A Internet of Everything irá criar dezenas de milhões de novos objetos e sensores, todos os dados em tempo real que geram. “Os dados são dinheiro”, disse Nick Jones, vice-presidente de pesquisa e analista do Gartner. “As empresas terão grandes tecnologias de dados e de armazenamento para coletar, analisar e armazenar o grande volume de informações. Além disso, para transformar os dados em dinheiro negócio e os líderes de TI vai precisar de decisões. Como eles não têm o tempo ou a capacidade para tomar todas as decisões si eles terão poder de processamento “.

“Agora que o digital está embutido em tudo o que fazemos, toda empresa precisa de seu próprio sabor da estratégia digital. Vanilla está fora do menu “, disse Dave Aron, vice-presidente de pesquisas do Gartner e Fellow. “Digital não é uma opção, não um add-on, e não uma reflexão tardia; é a nova realidade que exige uma liderança abrangente digitais “.

O Gartner prevê que as empresas vão fazer uso extensivo de tecnologia OIE, e haverá uma ampla gama de produtos vendidos em vários mercados. Estas incluem dispositivos avançados médicos, sensores de automação de fábrica e aplicações em robótica industrial, motes sensores para aumentar a produtividade agrícola, e sensores automotivos e integridade da infra-estrutura de sistemas para diversas áreas, como transporte rodoviário e ferroviário, distribuição de água e transmissão eléctrico de supervisão; uma interminável lista de produtos e serviços.

Mas como dispositivos obter mais conectado e recolher mais dados, privacidade e segurança preocupações vai aumentar também. Como as empresas decidem, para equilibrar a privacidade do cliente com essa riqueza de dados OIE será fundamental.

Referências

http://www.cisco.com/web/about/ac79/innov/IoE.html

http://internetofeverything.cisco.com/

http://www.cisco.com/web/solutions/trends/iot/overview.html

http://time.com/#539/the-next-big-thing-for-tech-the-internet-of-everything/

http://www.gartner.com/newsroom/id/2621015

http://www.livemint.com/Specials/34DC3bDLSCItBaTfRvMBQO/Internet-of-Everything-gains-momentum.html

http://www.tibco.com/blog/2013/10/07/gartners-internet-of-everything/

http://www.eweek.com/small-business/internet-of-everything-personal-worlds-creating-new-markets-gartner.html

Por   (Faculty | Author | Speaker | IoT Expert)

Blog 16:38 de Ahmed Tech Review! = http://ahmedbanafa.blogspot.com.br/

Fonte original (inglês) em https://www.linkedin.com/pulse/20140319132744-246665791-the-internet-of-everything-ioe?trk=mp-reader-card

Traduzido por Ana Mercedes Gauna (17/10/2015)

BIG DATA – Data Science

data scienceData-Science-Skillset1 (R)

About Data Scientists

Rising alongside the relatively new technology of big data is the new job title data scientist. While not tied exclusively to big data projects, the data scientist role does complement them because of the increased breadth and depth of data being examined, as compared to traditional roles.

So what does a data scientist do?

A data scientist represents an evolution from the business or data analyst role. The formal training is similar, with a solid foundation typically in computer science and applications, modeling, statistics, analytics and math. What sets the data scientist apart is strong business acumen, coupled with the ability to communicate findings to both business and IT leaders in a way that can influence how an organization approaches a business challenge. Good data scientists will not just address business problems, they will pick the right problems that have the most value to the organization.

The data scientist role has been described as “part analyst, part artist.” Anjul Bhambhri, vice president of big data products at IBM, says, “A data scientist is somebody who is inquisitive, who can stare at data and spot trends. It’s almost like a Renaissance individual who really wants to learn and bring change to an organization.”

Whereas a traditional data analyst may look only at data from a single source – a CRM system, for example – a data scientist will most likely explore and examine data from multiple disparate sources. The data scientist will sift through all incoming data with the goal of discovering a previously hidden insight, which in turn can provide a competitive advantage or address a pressing business problem. A data scientist does not simply collect and report on data, but also looks at it from many angles, determines what it means, then recommends ways to apply the data.

Data scientists are inquisitive: exploring, asking questions, doing “what if” analysis, questioning existing assumptions and processes. Armed with data and analytical results, a top-tier data scientist will then communicate informed conclusions and recommendations across an organization’s leadership structure.

Fonte:  IBM.COM = http://www-01.ibm.com/software/data/infosphere/data-scientist/

============================================================================================

Analytics, Data Mining, Data Science Expert, KDnuggets President

Which Big Data, Data Mining, and Data Science Tools go together?
https://www.linkedin.com/pulse/which-big-data-mining-science-tools-go-together-piatetsky-shapiro?trk=hp-feed-article-title-share

More Free Data Mining, Data Science Books and Resources
https://www.linkedin.com/pulse/more-free-data-mining-science-books-resources-piatetsky-shapiro?trk=mp-reader-card

The list below based on the list compiled by Pedro Martins, but we added the book authors and year, sorted alphabetically by title, fixed spelling, and removed the links that did not work.

  1. An Introduction to Data Science by Jeffrey Stanton, Robert De Graaf, 2013.
    An introductory level resource developed by Syracuse University
  2. An Introduction to Statistical Learning: with Applications in R by G. Casella, S, Fienberg, I Olkin, 2013.
    Overview of statistical learning based on large datasets of information. The exploratory techniques of the data are discussed using the R programming language.
  3. A Programmer’s Guide to Data Mining by Ron Zacharski, 2012.
    A guide through data mining concepts in a programming point of view. It provides several hands-on problems to practice and test the subjects taught on this online book.
  4. Bayesian Reasoning and Machine Learning by David Barber, 2012.
    focusing on applying it to machine learning algorithms and processes. It is a hands-on resource, great to absorb all the knowledge in the book.
  5. Big Data, Data Mining, and Machine Learning: Value Creation for Business Leaders and Practitioners by Jared Dean, 2014.
    On this resource the reality of big data is explored, and its benefits, from the marketing point of view. It also explains how to storage these kind of data and algorithms to process it, based on data mining and machine learning.
  6. Data Mining and Analysis: Fundamental Concepts and Algorithms by Mohammed J. Zaki, Wagner Meira, Jr., Data Mining and Analysis: Fundamental Concepts and Algorithms, Cambridge University Press, May 2014.
    A great cover of the data mining exploratory algorithms and machine learning processes. These explanations are complemented by some statistical analysis.
  7. Data Mining and Business Analytics with R by Johannes Ledolter, 2013.
    Another R based book describing all processes and implementations to explore, transform and store information. It also focus on the concept of Business Analytics.
  8. Data Mining Techniques: For Marketing, Sales, and Customer Relationship Management by Michael J.A. Berry, Gordon S. Linoff, 2004.
    A data mining book oriented specifically to marketing and business management. With great case studies in order to understand how to apply these techniques on the real world.
  9. Data Mining with Rattle and R: The Art of Excavating Data for Knowledge Discovery by Graham Williams, 2011.
    The objective of this book is to provide you lots of information on data manipulation. It focus on the Rattle toolkit and the R language to demonstrate the implementation of these techniques.
  10. Gaussian Processes for Machine Learning by Carl Edward Rasmussen and Christopher K. I. Williams, 2006.
    This is a theoretical book approaching learning algorithms based on probabilistic Gaussian processes. It’s about supervised learning problems, describing models and solutions related to machine learning.

Read the full post on KDnuggets: http://www.kdnuggets.com/2015/03/free-data-mining-data-science-books-resources.html

=======================================================================================

Kirk Borne
Principal Data Scientist at Booz Allen Hamilton

Data Science Declaration for 2015
https://www.linkedin.com/pulse/data-science-declaration-2015-kirk-borne?trk=mp-reader-card

Big Data Complexity Requires Fast Modeling Technology
https://www.linkedin.com/pulse/big-data-complexity-requires-fast-modeling-technology-kirk-borne?trk=mp-reader-card

With Prescriptive Analytics, the future ain’t what it used to be
https://www.linkedin.com/pulse/prescriptive-analytics-future-aint-what-used-kirk-borne?trk=hp-feed-article-title-share

Recomendação de Bibliografia Data Science = Kirk Borne@KirkDBorne Download 50+ Free #DataScience Books:http://bit.ly/1Or1j5Z  #abdsc #BigData #Analytics

Very interesting compilation published here, with a strong machine learning flavor (maybe machine learning book authors – usually academics – are more prone to making their books available for free). Many are O’Reilly books freely available. Here we display those most relevant to data science. I haven’t checked all the sources, but they seem legit. If you find some issue, let us know in the comment section below. Note that at DSC, we also have our free books:

There are several sections in the listing in question:

  1. Data Science Overviews (4 books)
  2. Data Scientists Interviews (2 books)
  3. How To Build Data Science Teams (3 books)
  4. Data Analysis (1 book)
  5. Distributed Computing Tools (2 books)
  6. Data Mining and Machine Learning (29 books)
  7. Statistics and Statistical Learning (5 books)
  8. Data Visualization (2 books)
  9. Big Data (3 books)

Here we mention #1, #5 and #6:

Data Science Overviews

Distributed Computing Tools

Data Mining and Machine Learning

========================================================================================

Bernard Marr é um LinkedIn Influencer

Best-Selling Author, Keynote Speaker and Leading Business and Data Expert

4 Things Big Data Can Do, and 3 Things It Can’t Do #bigdata http://ow.ly/3yjonn
http://data-informed.com/4-things-big-data-can-do-and-3-things-it-cant-do/

4 Ways Big Data Will Change Every Business | SmartData Collectivehttp://www.smartdatacollective.com/bernardmarr/349932/4-ways-big-data-will-change-every-business

Big Data Decision Against Facebook: Implications For Google, Apple and 5,000 Other Companies
https://www.linkedin.com/pulse/big-data-decision-against-facebook-implications-google-bernard-marr?trk=hp-feed-article-title-channel-add

==========================================================================================

Here Are the Schools With Degrees in Data Science [List]

http://bostinno.streetwise.co/2015/10/15/best-us-schools-for-data-science-colleges-degrees-in-data-science/?utm_content=bufferce60d&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer

According to a recent report released by RJMetrics called The State of Data Science, there are 11,400 self-identifying Data Scientists on LinkedIn. The organization made it clear that it would only count people who proclaim to be data scientists, rather than going through a painstaking process of determining which skill sets made someone this type of professional and which did not.

Although RJMetrics anticipates that the number it came up with is a wild underestimate, it still shows a steep and recent increase. The report explains that its findings indicate that 52% of data scientists have entered the field within the past four years—meaning that colleges with degrees in data science are becoming an increasing focus. Given that, the question for many becomes: what are the best U.S. schools for data science and the ideal paths toward this sort of career?

“The demand is clearly there, as data science students are finding many job offers when they graduate and in a diverse marketplace.” 

As you can imagine, because this niche but growing field is so new that most of the professionals don’t have educational backgrounds specific to Data Science. For the most part, data scientists have earned higher degrees – master’s and PhDs – but the subjects are all across the board. To be expected, the most popular courses of study are STEM-related. RJMetrics revealed that the top disciplines for data scientists with master’s degrees are Computer Science, Business Administration and Statistics. Meanwhile, for professionals holding PhDs, Physics, Computer Science and Mathematics are the most prevalent concentrations.

Schools are stepping up for Data Science

That being said, universities across the country are picking up on Data Science’s growing importance. Nowadays, businesses – regardless of their industry – are looking to accumulate, analyze and apply data to drive success in their space. To do that, it’s becoming key for employers to get their hands on Data Science talent. Select schools are stepping up and designing programs catered to developing students to thrive in this field.

There are Data Science – or something similarly named like Business Analytics or Data Mining – programs popping up in every U.S. state. In Massachusetts, schools like UMass and Worcester Polytechnic Institute (WPI), are among some of the first Data Science program pioneers.

“The demand is clearly there, as data science students are finding many job offers when they graduate and in a diverse marketplace,” said Elke Rundensteiner, professor at WPI — which has rolled out both a master’s and PhD program in Data Science in the past two years. “We are hearing from employers from marketing to cybersecurity to the pharmaceutical industry who have various data science needs. WPI has responded by digging deeper, offering more specific courses, and finding new intersections between disciplines.”

Because the field is so new and it’s being applied in so many different ways, universities are creating curricula that encompass a variety of disciplines needed to excel in Data Science. Most tracks are a melange of mathematics and IT, as well as business and computer sciences.

UMass' Dedication to STEM Meets Massachusetts Economy’s Demand for High-Tech WorkforceUMass’ Dedication to STEM Meets Massachusetts Economy’s Demand for…

Schools aren’t solely focused on letting students earn degrees in this field. Universities around the country also know they play a crucial role in the Data Science community itself – namely, in its development.

“The demand for new methods and tools for big data is also growing,” explained Andrew McCallum, director and professor at UMass’ Center of Data Science. “Data science centers, like ours at UMass Amherst, bring the data users – industry and government – together with the data science researchers to create new technologies resulting in better decision making and the discovery of new knowledge.”

Where to go

UMass and WPI are hardly alone in jumping on the Data Science educational bandwagon. Here’s a comprehensive list of U.S. universities offering degree programs specifically in this emerging subject (with links to each school’s specific data-science program):

Arizona State University W.P. Carey School of Business – Tempe, AZ

University of California Berkeley – Berkeley, CA

Chapman University – Orange, CA

Stanford – Stanford, CA

University of California San Diego – San Diego, CA

University of the Pacific – San Francisco, CA

University of Southern California – Los Angeles, CA

University of San Francisco – San Francisco, CA

Central Connecticut State University (CCSU) – New Britain, CT

University of Connecticut – Storrs, CT

American Sentinel University – Aurora, CO

University of Denver – Denver, CO

University of Central Florida – Orlando, FL

Catholic University of America – Washington, DC

George Washington University – Washington, DC

Georgetown University – Washington, DC

University of Iowa Tippie College of Business – Iowa City, IA

DePaul University – Chicago, IL

Illinois Institute of Technology – Chicago, IL

Northwestern University – Evanston, IL

University of Illinois Chicago Liautaud – Chicago, IL

University of Illinois at Urbana-Champaign – Urbana-Champaign, IL

University of Chicago Graham School – Chicago, IL

Indiana University Kelley School of Business – Bloomington, IN

Notre Dame – Notre Dame, IN

Purdue – Lafayette, IN

Saint Mary’s College – Notre Dame, IN

Northern Kentucky University – Highland Heights, KY

Lousiana State University – Baton Rouge, LA

Bentley – Waltham, MA

Brandeis – Waltham, MA

Harvard – Cambridge, MA

UMass Amherst Center for Data Science – Amherst, MA

WPI – Worcester, MA

University of Maryland – College Park, MD

Michigan State University – East Lansing, MI

University of Michigan Dearborn – Dearborn, MI

Winona State University – Winona, MN

University of Minnesota – Minneapolis, MN

North Carolina State University – Raleigh, NC

Saint Peter’s University – Jersey City, NJ

Rutgers – New Brunswick, NJ

Stevens Institute of Technology – Hoboken, NJ

Columbia New York, NY

Cornell – Ithaca, NY

Fordham – New York, NY

NYU – New York, NY

NYU Center for Data Science – New York, NY

Pace University – New York, NY and Westchester, NY

RPI – Troy, NY

Syracuse – Syracuse, NY

University of Rochester Institute for Data Science – Rochester, NY

The Ohio State University – Columbus, OH

University of Cincinnati – Cincinnati, OH

Xavier University – Cincinnati, OH

University of Oklahoma – Norman, OK

Carnegie Mellon University – Pittsburgh, PA

Drexel University – Philadelphia, PA

Saint Joseph’s University – Philadelphia, PA

College of Charleston – Charleston, SC

University of Tennessee – Knoxville, TN

Texas A&M University – Houston, TX

University of Texas Austin – Austin, TX

University of North Texas College of Business Information Technologies and Decision Sciences Center – Denton, TX

George Mason University – Fairfax, VA

Virginia Commonwealth University – Richmond, VA

University of Virginia – Charlottesville, VA

O que é Big Data – Uma visão geral completa

Possibilidades de Big Data – Advance Performance Institute (Bernard Marr)

O que é Big Data?

Big Data é o termo usado para descrever a nossa capacidade de fazer o sentido dos volumes cada vez maiores de dados no mundo. Se você chamá-lo de grandes dados, análises de inteligência de negócios ou análise de dados realmente não importa muito. O que importa é que agora podemos coletar e analisar dados de uma forma que não era possível até poucos anos atrás. Big Data está começando a transformar a maioria das áreas de negócio, a indústria, a investigação ea maioria das outras partes de nossas vidas.

Tamanho, velocidade e Estrutura

Big Data não se limita à referir-se ao sempre crescente tamanho dos conjuntos de dados, que podem agora analisar, mas também para a velocidade a que é criada e utilizada, bem como os diferentes tipos e estruturas de dados que pode agora analisar.

Tamanho é um componente de Big Data. Nós geramos mais dados do que nunca. Se nós tomamos todos os dados que foi criado no mundo entre o início dos tempos até o ano de 2000, em seguida, a mesma quantidade de dados agora é gerado a cada poucos minutos. Na verdade, mais de 90% dos dados em todo o mundo foi criado no último par de anos.

A velocidade é outro componente importante. A velocidade com que geramos novos dados e a velocidade na qual os dados se movem em torno é fenomenal. A cada minuto, enviamos mais de 200 milhões de e-mails, clique em quase 2 milhões de gostos no Facebook, enviar quase 300 mil tweets e up-load 200K fotos para o Facebook, bem como 100 horas de vídeo para o YouTube. Além disso, acho que de todas as pesquisas na web realizados (cerca de 3,5 bilhões de um dia para o Google sozinho), todos os dados do sensor recolhidas, todas as transações de cartão de crédito, todos os dados de localização do telefone móvel, etc.

Estrutura é um terceiro componente de Big Data. No passado, baseou-se principalmente em dados estruturados, o tipo que podemos colocar em mesas e ordenadamente organizar, tais como transações de vendas por cliente, região, etc. dados menos estruturados, como arquivos de texto, fotografias, conteúdos de vídeo etc. foi em grande parte ignorado. Hoje, temos a capacidade de usar e analisar uma grande variedade de dados, incluindo texto escrito, as palavras faladas, mesmo o tom de nossa voz, bem como os dados biométricos, fotografias e conteúdos de vídeo.

Como é usado o Big Data?

As aplicações de Big Data são infinitas; aqui são apenas alguns exemplos de como alguns de nossos clientes usá-lo:

  • As empresas utilizam grandes dados para melhor compreender e clientes-alvo, reunindo dados de suas próprias transações, bem como dados de mídia social e até mesmo previsões meteorológicas.
  • As empresas a otimizar seus processos através do rastreamento e análise de suas rotas de entrega da cadeia de suprimentos e combinar esses dados com as atualizações deste tráfego ao vivo. Outros usam dados da máquina para otimizar os ciclos de seus equipamentos de serviço e prever possíveis falhas.
  • Big Data é utilizado em cuidados de saúde para encontrar novas curas para o câncer, para otimizar o tratamento e até mesmo prever doenças antes que os sintomas físicos aparecem.
  • Big Data é usado para analisar e melhorar o desempenho de indivíduos (em esportes, em casa ou trabalho), onde dados de sensores em equipamentos e dispositivos portáteis, podem ser combinados com análise de vídeo para obter insights que tradicionalmente onde impossíveis de ver.
  • As forças policiais e agências de segurança usar dados grandes para impedir ataques cibernéticos, detectar a fraude de cartão de crédito, a folha de terrorismo e até mesmo prever a atividade criminosa.
  • Big Data é usado para melhorar as nossas casas, cidades e países por exemplo otimizando o aquecimento ou iluminação em nossas casas, o fluxo de tráfego em nossas cidades, ou o grão de energia em todo o país.
  • As aplicações de Big Data são infinitas. Big Data é importante para todas as empresas, de qualquer tamanho, em qualquer indústria. Para saber mais, leia nossos livros, artigos e estudos de caso ou entrar em contato se você gostaria de discutir nossos consultoria ou serviços de treinamento de Big Data.

Fonte original (inglês):  Advance Performance Institute = http://www.ap-institute.com/big-data-possibilities.aspx

Tradução feita por ANA MERCEDES GAUNA (14/10/2015)

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

BIG DATA – SQL (manutenção anual)

sql manutenção

Em 2000, eu era DBA (administradora de banco de dados), usei um sistema ERP junto com Microsoft Windows NT4 Server + Microsoft  SQL 6.5 Server, e alguns anos depois passei a usar o Microsoft Windows 2000 Server + Microsoft SQL 2000 Server.  Nessa época,  meu  trabalho  semanal  era  fazer o  backup em fitas  DAT (HP), quando  era necessário, para reparar algum problema que tenha acontecido com dados, eu fazia o restauro dos dados.    ERP = Software de Departamento Pessoal (Recursos Humanos = Lei CLT) + Software de Contabilidade (Financeiro) + Software Imobiliário (Condomínio)

Lembrete:  Depois alguns anos usando um sistema ERP com banco de dados SQL, eu notei a que a execução dos dados dentro do sistema que utiliza o SQL,  ficou com a execução muito lenta, apresentando alguns erros de memória ou funcionando com muita inconsistência. Se quando comprar a placa de memória nova, e isso não resolver, o problema é outro:  isso pode ser causado quando o índice (chave) do banco de dados SQL apresenta defeito.

Exemplos de Servidores de Banco de Dados: Microsoft SQL Server 2008 + Microsoft SQL Server 2012 + Microsoft SQL Server 2014 + Microsoft Azure SQL Database + Oracle SQL Server + Oracle MySQL Server + Oracle PL/SQL + Oracle NoSQL Database + PostgreeSQL, etc.

Recomendação a fazer anualmente:

Primeiro passo: para consertar os índices (chave) que provavelmente estão defeituosos, é preciso recriar e re-organizar a tabela SQL (Structured Query Language).  Deve-se fazer um REINDEX (recriar os índices).   (Fiz isso anos atras no Microsoft SQL 2000 Server e funcionou muito bem).  Exemplos de sintaxe:  http://www.postgresql.org/docs/8.1/static/sql-reindex.html , no Microsoft Developer Network em DBCC DBREINDEX (Transact-SQL) , e no Oracle: http://docs.oracle.com/cd/E22583_01/UI/help/Utils/RSTU/REINDEX.html.

Segundo passo:  deve-se olhar o  SQL Memory Size  = Maximum server memory (MB) |  Mem Usage (MB)  | Virtual Size (MB) para  reconfigurar o valor default relativo a quantidade de memória mínima e memória máxima, que o SQL irá lêr dentro da execução do sistema (software).  Observações:  Microsoft  Developer  Network:  Opções Server Memory de configuração do servidor e Microsoft TechNet:  Enabling Memory Support for Over 4 GB of Physical Memory (fazer login com conta Hotmail ou Outlook), ou fazendo o login em Oracle Help Center (Database Administrator’s Guide) em Using Automatic Memory Management (page 45 of 299), e o exemplo de cálculo  = ¿cuantos bytes hay en 4GB, y como se calcula?

======================================================

* 4 gigabyte =4294967296 bytes

* bit es la unidad menor de medida de la informacion, entonces

* 8 bit = 1 bytes

* 1 byte (b)= unidad minima funcional (1 Byte = una letra)

* 1 Kilobyte (Kb)= 1 024 bytes (1 kB)

* 1 Megabyte (Mb)= 1 024 Kilobytes= 1 048 576 bytes (1 MB = una novela)

* 1 Gigabyte (Gb)= 1 024 Megabytes= 1 048 576 Kilobytes= 1 073 741 824 bytes (1GB)

* 1 Terabyte (Tb)= 1 024 Gigabytes= 1 048 576 Megabytes= 1 073 741 824 Kilobytes= 1 099 511 627 776 bytes (1Tb)

* 1 Petabyte (Pb)= 1 024 Terabytes= 1 048 576 Gigabytes= 1 073 741 824 Megabytes= 1 099 511 627 776 Kilobytes= 1 125 899 906 842 624 bytes

* 1 Exabyte (Eb) =  1 024 Petabytes = 1 048 576 Terabytes = 1 073 741 824 Gigabyte = 1 099 511 627 776 Megabyte  = 1 125 899 906 842 624 Kilobytes= 1 152 921 504 606 846 976 bytes

* 1 Zettabyte (Zb)= 1 024 Exabytes= 1 048 576 Petabytes= 1 073 741 824 Terabytes= 1 099 511 627 776 Gigabytes= 1 125 899 906 842 624 Megabytes= 1 152 921 504 606 846 976 Kilobytes= 1 180 591 620 717 411 303 424 bytes

* 1 Yottabyte (Yb)= 1 024 Zettabytes= 1 048 576 Exabytes= 1 073 741 824 Petabytes= 1 099 511 627 776 Terabytes= 1 125 899 906 842 624 Gigabytes= 1 152 921 504 606 846 976 Megabytes= 1 180 591 620 717 411 303 424 kilobytes= 1 208 925 819 614 629 174 706 176 bytes

* 1 Brontobyte(Bb)= 1 024 Yottabytes= 1 048 576 Zettabytes= 1 073 741 824 Exabytes= 1 099 511 627 776 Petabytes= 1 125 899 906 842 624 Terabytes= 1 152 921 504 606 846 976 Gigabytes= 1 180 591 620 717 411 303 424 Megabytes= 1 208 925 819 614 629 174 706 176 Kilobytes= 1 237 940 039 285 380 274 899 124 224 bytes

* 1 Geopbyte (Geb)= 1 024 Brontobytes= 1 048 576 Yottabytes= 1 073 741 824 Zettabytes= 1 099 511 627 776 Exabytes= 1 125 899 906 842 624 Petabytes= 1 152 921 504 606 846 976 Terabytes= 1 180 591 620 717 411 303 424 Gigabytes= 1 208 925 819 614 629 174 706 176 Megabytes= 1 237 940 039 285 380 274 899 124 224 Kilobytes= 1 267 650 600 228 229 401 496 703 205 376 bytes

Memory Size = Fonte(s): http://es.kioskea.net/forum/affich-59124…

======================================================

Usar o REINDEX + revisar o SQL Memory Size, anos atrás, isso feito, resolveu os problemas que existiam no sistema (software).

Eu estou estudando atualmente o Microsoft Windows Server 2012 + Microsoft Windows SQL Server 2012 (comprei os livros).  Algumas vezes eu faço login e estudo o manual do SQL, dentro do site Microsoft Technet em SQL Server Language Reference   .  (fazer login com conta Hotmail ou Outlook)

Observações (HTML5):

Meses atrás, estudando programação web responsiva em Bootstrap, eu testei online dentro do meu site amgauna.eti.br  (atualmente ele está guardado dentro do Registro.BR),  e notei naquela época que o código utf-8, ele não reconhecia todos os acentos, e nem reconhecia o cedilha, utilizados no idioma português-brasileiro.  Como no Brasil utilizamos 0 BR no domínio, eu testei, e a acentuação brasileira funcionou.   http://www.w3schools.com/charsets/ref_html_utf8.asp

No Brasil, no HTML5, deve-se utilizar utf-8-br (português-brasileiro), minha opinião, testei, experimentando Bootstrap, e funcionou a acentuação.

Por:  Ana Mercedes Gauna (09/10/2015)

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

BIG DATA – ANALYTICS

big data analitycs

Bunyamin Önel shared this Cisco Packet Tracer scenario

Acima, um desenho exemplo de layout do projeto de uma rede de computadores do  tipo BIG DATA.  Esse desenho foi feito utilizando o software Trace-Route utilizado pela Cisco Networking Academy da Cisco Systems.   Esse desenho de layout foi feito por Bunyamin Önel shared this Cisco Packet Tracer scenario…   (If you have ‪#‎PacketTracer‬ scenarios to share, send them over to netacadfb@gmail.com   with some info and we will share them on this page) – Anastasia at ‪#‎Cisco‬ https://lnkd.in/dMJu7Yd

Abaixo, meu resumo do estudo de BIG DATA – ANALYTICS, retirando um grau de complicação técnica, para simplificar o meu entendimento desse assunto.

DataScienceInformationInfrastructure

ANÁLISE DE DADOS (ESTATÍSTICA)

Os estudos estatísticos estão relacionados às situações que envolvem planejamentos, coleta de dados, organização de informações, análise das informações coletadas, interpretação e divulgação de forma clara e objetiva. Os métodos de pesquisa podem ser classificados de duas formas: pesquisas de opinião ou pesquisas de mercado. Nas pesquisas de opinião, o objetivo principal é colher informações sobre determinando assunto com base em entrevistas pessoais. As pesquisas de mercado são realizadas através da análise de mercado sobre determinado produto.

A coleta, a organização, a descrição dos dados, o cálculo e a interpretação de coeficientes pertencem à Estatística Descritiva, enquanto a análise e a interpretação dos dados, associados a uma margem de incerteza, ficam a cargo da Estatística Indutiva ou Inferencial, também chamada como a medida da incerteza ou métodos que se fundamentam na teoria da probabilidade.

A utilização de tabelas e gráficos são frequentes na Estatística. As tabelas servem para organizar e tabular os dados, já os gráficos transmitem as informações com clareza e transparência, contribuindo para uma leitura objetiva.

=============================================================================================

ANÁLISE DE DADOS  (SISTEMA DE INFORMAÇÕES)

ANÁLISE DE DADOS – O que é?

  • É o processo pelo qual se dá ordem, estrutura e significado aos dados (informações).
  • Consiste na transformação dos dados colectados em conclusões e/ou lições, úteis e verdadeiras.
  • A partir dos tópicos pré-estabelecidos processam-se os dados, procurando tendências, diferenças e variações nas informações obtidas.
  • Os processos, técnicas e ferramentas usadas são baseadas em certos pressupostos e como tal tem limitações.
  • O processo é utilizado para descrever e resumir os dados, identificar as relações e as diferenças existentes entre variáveis, comparar variáveis e fazer previsões.

ANÁLISE DE DADOS QUALITATIVO

  • Indaga o porque de determinado fato ou problema estar ocorrendo;
  • Estuda as motivações;
  • É indutivo;
  • Ajuda a definir hipóteses;
  • É exploratório;
  • Permite conhecer tendências, comportamentos, atitudes, etc;
  • Fornece informações detalhadas a tendências, atividades, etc;
  • Fornece informações detalhadas a perguntas ou problemas sobre um projeto ou atividade do mesmo;
  • Não permite inferir os resultados a toda uma população.
  • Descreve uma amostra populacional utilizando Tabelas de Frequências com sexo grupo etário e ocupação.
  • Organiza os comentários e as respostas em categorias similares (exemplo: preocupações, sugestões, pontos fortes, pontos fracos, etc)
  • Identificar os padrões, as tendências, as relações, bem como associações de causa-efeito.

FORMAS DE APRESENTAÇÃO DE DADOS QUALITATIVO:

  • Narrativas das respostas dos participantes
  • Diagramas de Causa-Efeito
  • Matrizes
  • Taxinomia
  • Diagrama de relações das várias categorias e o respectivo significado dado pelos participantes

TÓPICOS DO ROTEIRO E SEUS PRINCIPAIS OBJETIVOS QUALITATIVOS:

  • Identificar as características comuns ao grupo de trabalho, e as diferenças em relação aos outros grupos.
  • Inferir sobre os processos de socialização para o trabalho das cooperadas e se tais processos estariam associados, de algum modo, às formas como elas se percebem atualmente no trabalho.
  • Identificar as experiências comuns, a partir de sua inserção cooperativa, e seu impacto na vida pessoal, familiar e social

ANÁLISE DE DADOS QUANTITATIVO

  • Estuda as ações ou intervenções;
  • É dedutivo;
  • Fornece dados para provar hipóteses;
  • É conclusivo;
  • Mede o nível das intervenções, tendências, atividades, etc;
  • Produz informações quantificáveis sobre a magnitude de um problema, mas não fornece informações sobre o motivo do fato estar ocorrendo;
  • É possível inferir os resultados a toda uma população.
  • Utiliza-se os métodos estatísticos para representar os dados (informações)
  • Estatística descritiva envolve: coletar dados, apresentar dados e caracterizar dados, com a finalidade de descrever os dados.
  • Estatística inferencial envolve: estimativas e testes de hipóteses, com a finalidade de tomar decisões sobre as características de uma população a partir da amostra.

ETAPAS DA ANÁLISE DE DADOS QUANTITATIVOS

  • Organizar os dados, preocupando-se em dar uma ordem lógica aos dados, colocando todos os elementos da amostra e as variáveis em  estudo em uma tabela.
  • Agrupamento e resumo dos dados através de tabelas de frequências, exemplo: idade = (fi = ni / n)
  • Resumo das principais estatísticas (variável, média, mediana, moda, desvio padrão e variância)
  • Medidas de tendência central
  • Medidas de dispersão
  • Analisar e Interpretar os dados
  • Fazer o cruzamento de Tabelas (cross-tables)
  • Fazer uma análise de correlação

ANÁLISE E INTERPRETAÇÃO DOS DADOS QUANTITATIVOS

  • Geralmente, a análise e interpretação de dados envolve fazer comparações de grandezas estatísticas das varáveis de interesse.
  • As conclusões destas comparações baseiam-se na rejeição ou aceitação de hipóteses formuladas durante as questões avaliativas.
  • A aceitação ou rejeição de hipóteses baseia-se nos resultados obtidos nos chamados testes estatísticos.
  • Os testes mais usados são:  T-student , Chi-Quadrado e Anova
  • Baseline versus Resultados Alcançados: faz a  comparação da situação antes e após a implementação do programa.
  • Grupo Alvo versus Grupo de Controle: faz a comparação de atitudes ou práticas entre participantes e não participantes de um programa.
  • O grupo de tratamento – é um grupo de participantes da intervenção, cujas medidas de outcomes (resultado de equação lógica) são comparadas com às de um grupo de controle.
  • Controle grupo – é um grupo de “untreated” (não-tratados), cujo alvos que são comparados com grupos experimentais nos outcomes.

FERRAMENTAS PARA ANÁLISE DE DADOS (sistema de informações)

  • Atualmente existe diversas empresas de tecnologia que fornecem softwares para tratamento e análise de dados.

==============================================================================================

ANÁLISE DE DADOS = DATA SCIENCE

Exemplos de  Fórmula de CálculoGregory Piatetsky-Shapiro (Analytics, Data Mining, Data Science Expert, KDnuggets President) em  Which Big Data, Data Mining, and Data Science Tools go together?, e o artigo de   (Principal Data Scientist at Booz Allen Hamilton) em With Prescriptive Analytics, the future ain’t what it used to be 

Recomendação de Bibliografia Data ScienceGregory Piatetsky-Shapiro (Analytics, Data Mining, Data Science Expert, KDnuggets President) em More Free Data Mining, Data Science Books and Resources

The list below based on the list compiled by Pedro Martins, but we added the book authors and year, sorted alphabetically by title, fixed spelling, and removed the links that did not work.

  1. An Introduction to Data Science by Jeffrey Stanton, Robert De Graaf, 2013.
    An introductory level resource developed by Syracuse University
  2. An Introduction to Statistical Learning: with Applications in R by G. Casella, S, Fienberg, I Olkin, 2013.
    Overview of statistical learning based on large datasets of information. The exploratory techniques of the data are discussed using the R programming language.
  3. A Programmer’s Guide to Data Mining by Ron Zacharski, 2012.
    A guide through data mining concepts in a programming point of view. It provides several hands-on problems to practice and test the subjects taught on this online book.
  4. Bayesian Reasoning and Machine Learning by David Barber, 2012.
    focusing on applying it to machine learning algorithms and processes. It is a hands-on resource, great to absorb all the knowledge in the book.
  5. Big Data, Data Mining, and Machine Learning: Value Creation for Business Leaders and Practitioners by Jared Dean, 2014.
    On this resource the reality of big data is explored, and its benefits, from the marketing point of view. It also explains how to storage these kind of data and algorithms to process it, based on data mining and machine learning.
  6. Data Mining and Analysis: Fundamental Concepts and Algorithms by Mohammed J. Zaki, Wagner Meira, Jr., Data Mining and Analysis: Fundamental Concepts and Algorithms, Cambridge University Press, May 2014.
    A great cover of the data mining exploratory algorithms and machine learning processes. These explanations are complemented by some statistical analysis.
  7. Data Mining and Business Analytics with R by Johannes Ledolter, 2013.
    Another R based book describing all processes and implementations to explore, transform and store information. It also focus on the concept of Business Analytics.
  8. Data Mining Techniques: For Marketing, Sales, and Customer Relationship Management by Michael J.A. Berry, Gordon S. Linoff, 2004.
    A data mining book oriented specifically to marketing and business management. With great case studies in order to understand how to apply these techniques on the real world.
  9. Data Mining with Rattle and R: The Art of Excavating Data for Knowledge Discovery by Graham Williams, 2011.
    The objective of this book is to provide you lots of information on data manipulation. It focus on the Rattle toolkit and the R language to demonstrate the implementation of these techniques.
  10. Gaussian Processes for Machine Learning by Carl Edward Rasmussen and Christopher K. I. Williams, 2006.
    This is a theoretical book approaching learning algorithms based on probabilistic Gaussian processes. It’s about supervised learning problems, describing models and solutions related to machine learning.

Read the full post on KDnuggets: http://www.kdnuggets.com/2015/03/free-data-mining-data-science-books-resources.html

Gregory Piatetsky-Shapiro (Analytics, Data Mining, Data Science Expert, KDnuggets President)

===========================================================================================

Recomendação de Bibliografia Data Science = Kirk Borne@KirkDBorne Download 50+ Free #DataScience Books:http://bit.ly/1Or1j5Z  #abdsc #BigData #Analytics

Very interesting compilation published here, with a strong machine learning flavor (maybe machine learning book authors – usually academics – are more prone to making their books available for free). Many are O’Reilly books freely available. Here we display those most relevant to data science. I haven’t checked all the sources, but they seem legit. If you find some issue, let us know in the comment section below. Note that at DSC, we also have our free books:

There are several sections in the listing in question:

  1. Data Science Overviews (4 books)
  2. Data Scientists Interviews (2 books)
  3. How To Build Data Science Teams (3 books)
  4. Data Analysis (1 book)
  5. Distributed Computing Tools (2 books)
  6. Data Mining and Machine Learning (29 books)
  7. Statistics and Statistical Learning (5 books)
  8. Data Visualization (2 books)
  9. Big Data (3 books)

Here we mention #1, #5 and #6:

Data Science Overviews

Distributed Computing Tools

Data Mining and Machine Learning

============================================================================================

The information management big data and analytics capabilities include :

  • Data Management & Warehouse: Gain industry-leading database performance across multiple workloads while lowering administration, storage, development and server costs; Realize extreme speed with capabilities optimized for analytics workloads such as deep analytics, and benefit from workload-optimized systems that can be up and running in hours.
  • Hadoop System: Bring the power of Apache Hadoop to the enterprise with application accelerators, analytics, visualization, development tools, performance and security features.
  • Stream Computing: Efficiently deliver real-time analytic processing on constantly changing data in motion and enable descriptive and predictive analytics to support real-time decisions. Capture and analyze all data, all the time, just in time. With stream computing, store less, analyze more and make better decisions faster.
  • Content Management: Enable comprehensive content lifecycle and document management with cost-effective control of existing and new types of content with scale, security and stability.
  • Information Integration & Governance: Build confidence in big data with the ability to integrate, understand, manage and govern data appropriately across its lifecycle.

Fonte: IBM.COM = http://www-01.ibm.com/software/data/bigdata/

===========================================================================================

Por:  ANA MERCEDES GAUNA  (13/10/2015

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

Administração de Projetos

gestao de projetos

Eu li diversos textos online referente como os projetos estão sendo executados hoje em dia, feitos por outros usuários no Linkedin, e textos publicados em outros sites da internet.  Projetos de processos de trabalho (Startup) e projetos de desenvolvimento de software.

Atualmente para trabalhar com administração de projetos, eu notei que a grande maioria das agências de emprego querem que as pessoas saibam utilizar o software Microsoft Project. Eu fiz o curso, ele é um software muito fácil de usar, por quem já tem prática de execução de projetos.   Apenas notei que nele existe alguns detalhes internos, e que um manual técnico ajuda a resolver, e melhorar a configuração de uso, e do  detalhamento de itens do projeto, no software.

Eu tenho muita experiência prática de projetos.  Eu já fiz vários projetos anos atrás, e eu conclui.  Era uma época em que esse software Microsoft Project não existia, ou pelo menos ele não era vendido aqui no Brasil.   Eu gostei desse software que usei no meu curso meses atrás.

Nas últimas semanas eu li diversos textos na internet, os quais não concordo com o teor.

Eu acho errado:  a pessoa ter uma idéia, e logo ir executando um projeto, e logo ir abrindo uma empresa.  Fazer algo sem ter feito planejamento financeiro prévio.

Na época que meu Diretor me entregou projetos para realizar, não existia software nenhum para controlar os passos de execução de um projeto, isso era feito pessoalmente.  O acompanhamento do início ao fim era feito pessoalmente, e o controle de tudo o que era executado eu fazia usando era o Microsoft Excel. Vou informar o que eu fazia sempre, para administrar os meus projetos:

Primeiro passo  saber exatamente tudo o que o Diretor quer que seja feito e realizado dentro do projeto, conversando com o Diretor diretamente.

Segundo passo:  fazer o  levantamento dos dados, ou seja, saber exatamente tudo o que eu irei precisar utilizar dentro do projeto, para ele ser executado.

Terceiro passo:   fazer o orçamento em mais de 3 empresas, de todos os objetos que eu irei utilizar dentro do projeto.  Caso o projeto precise comprar hardware (equipamentos) ou software, tem que ser solicitado diretamente ao fabricante a ficha técnica completa de hardware e software, para poder ser feito uma análise, para se poder escolher qual é o melhor.

Quarto passo:  elaborar uma planilha em Microsoft Excel, detalhando todos os objetos que eu irei utilizar com todos os valores que foram orçados em anexo, e com o somatório total de tudo existente no projeto.

Quinto passo:  eu entregava essa planilha junto com todos os orçamentos recebidos, para o Diretor analisar, com calma, no tempo dele.

Sexto passo:  esquecia e esperava ele tomar a decisão dele.

Sétimo passo:  o Diretor me informava se ele iria executar o projeto no mês corrente, ou se ele iria agendar outro mês, ou outro ano, para ser realizado a execução do projeto.

Conclusão:  O valor total do projeto é quem decide, quando será feito execução.

Eu já acompanhei e conclui diversos projetos, sozinha, e outros com ajuda de diversas empresas terceirizadas.

Projetos em andamento enfrentando a crise financeira no Brasil. Para se conseguir concluir, todos os gastos tem que ser bem controlados e bem administrados.

Saber o valor básico de algo, é primordial, antes de executar um projeto, porque durante a execução sempre aparece aquelas despesas surpresas, que não foram previstas anteriormente.  Algumas vezes um valor não orçado, atrapalha tudo.

Execução do Projeto:  Recebimento de dinheiro. Pagamento de despesas: tem que anotar no verso do documento referente o que foi aquela despesa, e “PAGO no dia (data de pagamento), no BANCO (nome do banco, nº agência bancária), RUBRICAR, e depois anexar o comprovante de pagamento(nota fiscal ou cupom fiscal (original e xerox), a ser usado para prestar conta no setor de contabilidade, semanalmente, do dinheiro gasto.  Dessa forma,  quando se precisava de mais dinheiro para gastar no projeto, para comprar algo que faltou, eles autorizavam a liberação de mais money. Era o que eu fazia sempre.    🙂

Conclusão do Projeto:  Tem que olhar quanto foi o dinheiro inicial (base do projeto), e calcular quanto foi o dinheiro total gasto até a conclusão do projeto, e calcular a diferença, para poder analisar qual foi a margem de gasto

(Análise: O total gasto foi dentro do orçamento?  Ou você extrapolou, e gastou demais? ), isso tem que ser obtido após a conclusão total do projeto.  Você tem que saber.

Minha experiência de trabalho com projetos é prática, teoria tenho pouco.  Essa parte téorica de administrar projetos, eu ainda pretendo terminar de estudar.

Por Ana Mercedes Gauna (02/10/2015)

gaunanome-gif

https://anagauna.wordpress.com  |   https://about.me/anagauna

Senior System Analist | Webmaster | DBA | CCNA2 | ERP | Management

Rio de Janeiro/RJ – Brazil – 27 anos de experiência profissional (CLT)

Anderson Barros

Questões de Matemática e Sistema de Informação- Podemos mudar o mundo através da educação.

Data Center Infrastructure & Critical Facility Evolution

Insights into the evolution of data center infrastructure from design, operations & lifecycle performance

Ana Mercedes Gauna

CRA-RJ: 03-03161 | ABRAWEB: 66132 | ABRACEM: Q27795

Ana Gauna - Músicas

Minhas músicas preferidas no Youtube

Analise de Sistemas Web

Ciência da Computação

Work Security Web

ISO 27000 (Segurança das Informações)

Otto Schroeder

Escritório de Advocacia & Negócios Imobiliários

GreenBook

Charting the Future of Market Research

Aido Bonsai

Meus Bonsais - Ateliê de Paulo Netto

Steve Harville's Blog

Oracle technical notes

Bianca Coutinho

SEJA BEM VINDO(A), CONHEÇA MAIS SOBRE SAÚDE E BEM ESTAR, RECEITAS E SEGREDOS DA COZINHA

Opiniões Vivas

Moda, beleza, viagem, tecnologia e decoração!

3, 2, 1... Viajando!

Dicas de viagem para conhecer o Japão e o mundo

Saúde, receitas e curiosidades...

Orientações para uma alimentação saudável

Banana Gourmet

Um blog sobre qualidade de vida, coisas boas e bonitas

Nutricionista Ana Paula Ferreira Melo

Uma vida saudável começa com uma boa alimentação!

Amoras e Amores

Amoras e Amores vêm para mostrar que mesmo os frutos que pertencem ao mesmo grupo (no caso as amoras), cada um tem o seu estilo e pode ser único, acreditamos que para cada pessoa um amor diferente floresce. Somos amigas, catarinenses e moramos em Joinville, e agora também blogueiras felizes.

VirtX

Soluções em TI

cora rónai | internETC.

uma espécie de diário

%d bloggers like this: