Desde la verticalización de la inteligencia artificial a las batallas de los 5G y el aumento de la responsabilidad social corporativa, por decimotercer año consecutivo se analiza el presente, el futuro y el futuro del sector tecnológico global, mapeando las tendencias e innovaciones destinadas a impulsar el crecimiento en los próximos meses y años.
El informe revela que los datos y la IA tienen un papel muy importante que desempeñar en todo el panorama tecnológico. La investigación se compila a través del análisis de los datos de inversión global junto con los puntos de vista de los expertos del equipo mundial de GP Bullhound.
El rápido ritmo al que los cambios tecnológicos implican que los nuevos avances a menudo se encontrarán con incertidumbres. Esta mentalidad puede a menudo oscurecer el conjunto de oportunidades emocionantes que traen las nuevas innovaciones en tecnología. La intención de este informe es arrojar luz sobre las nuevas tendencias que cambiarán el panorama tecnológico en 2020 y más allá. Esperamos que nos ayude a comprender en las oportunidades y desafíos que se avecinan. La tecnología está en el centro de la innovación en el juego, la televisión, el marketing y ayudará a para cambiar el mundo para mejor. Veamos algunas de las tendencias clave que nos esperan este año 2020.
A medida que entramos en 2020 - una nueva década - es natural reflexionar sobre lo que ha pasado. La carrera de streaming online se ha incrementado en el pasado año y no hará más que aumentar en 2020. Agentes como Netflix y Amazon Prime intentarán apoderanse del mercado invirtiendo montones de dinero en contenido original, mientras que los servicios emergentes desafían su dominio.
También se destaca otra carrera por la excelencia tecnológica entre las grandes compañías de teléfonos inteligentes. La introducción del chip A13-Bionic de Apple, el chip más rápido de todos los tiempos en un smartphone, ha impulsado esta carrera hacia adelante, y esperamos ver las respuestas de los principales rivales de Apple.
Un subproducto de estas competiciones paralelas será un el continuo avance en eficiencia e innovación en los sectores de teléfonos inteligentes y streaming, este año se dará un paso adelante hacia la eficiencia, ya que se amplia la conexión 5Ga escala, tras años de anticipación. Veremos el impacto que esta guerra tecnológica podría tener sobre la estructura comercial de esta nueva red potencialmente revolucionaria.
Es evidente que las nuevas tecnologías cambiarán nuestra vida y los negocios, pero también lo hará el desarrollar la comprensión pública de las aplicaciones de la tecnología. Las nuevas tecnologías crearán un conjunto de oportunidades de negocio en 2020, pero los ejecutivos deberá adquirir los conocimientos necesarios para implementarlo de manera efectiva. Cubrimos los cambios que el una mejor educación tecnológica de los líderes empresariales traerá consigo con el uso de la inteligencia artificial (IA)
Muchos de estos cambios se verán en la hiperpersonalización de la publicidad y la experiencia del cliente. Aquí, se observa el creciente papel de la IA en el marketing y cómo transformará la capacidad de comunicación de las empresas con los consumidores. Se analiza cómo la IA nos permitirá dar sentido a las enormes cantidades de datos que las empresas almacenan y sus implicaciones para la adaptación de las experiencias de los clientes.
a tecnología no es sólo cambiar las herramientas que utilizamos para hacer negocios, también está cambiando la forma en que pensamos los negocios. Se confirma que la tendencia hacia el tratamiento productos como servicio continuará en 2020, a medida que más las organizaciones se dan cuenta de la flexibilidad de este enfoque. Este cambio hacia modelos de negocio basados en suscripciones es entre las innovaciones que vemos desarrollarse en el sector del juego. Otros cambios incluyen la expansión del streaming y plataformas de desarrollo en todo el panorama de los juegos.
La IA tiene la capacidad para impulsar los avances en Responsabilidad Social Corporativa mediante el acceso a informes más precisos sobre su impacto como nunca antes. Nos preguntamos, ¿cómo pueden las empresas aprovechar estas oportunidades para impulsar su influencia positiva?
IAB Spain lanza Top Tendencias Digitales 2020, el documento de referencia para la industria digital, capaz de sintetizar una visión global del mercado y las claves del negocio en 2020.
01 Audio Online
02 Branded Content & Publicidad Nativa 03 Branding 04 Data 05 Digital Out Of Home 06 Directiva Audiovisual 07 Directiva Propiedad
Intelectual (Copyright)
08 eCommerce 09 e-Privacy y Cookies 10 eSports 11 Influencers 12 Innovación Tecnológica 13 Mobile 14 Programática 15 Redes Sociales 16 TV Conectada 17 Vídeo Online
Cuando Aristóteles y Platón estaban debatiendo apasionadamente si el mundo es material o ideal, ni siquiera adivinaron el poder de los datos. En la actualidad, los datos dominan el mundo y la Ciencia de los Datos va ganando terreno, aceptando los retos del tiempo y ofreciendo nuevas soluciones algorítmicas. No es de extrañar, ya que cada vez resulta más atractivo no sólo observar todos esos movimientos, sino también formar parte de ellos.
Sin embargo,casi todos somos unos recién llegados a esta materia, ¿Eso significa que tenemos un largo camino por recorrer para ser un experto? ¿Es necesario pasar por toda una serie de intentos y fracasos antes de alcanzar la confianza total en este trabajo? Probablemente, sí. Pero con este post, se trata de facilitar esta tarea. La forma más efectiva de aprender con los pasos más necesarios.
Paso 0. ¿Qué es qué?
Bueno, en términos generales, la ciencia de datos no es un ámbito determinado o único, es como una combinación de varias disciplinas que se centran en el análisis de datos y la búsqueda de las mejores soluciones basadas en ellos. Inicialmente, esas tareas eran realizadas por especialistas en matemáticas o estadística, pero luego los expertos en datos comenzaron a utilizar el aprendizaje automático y la inteligencia artificial, lo que agregó la optimización y la informática como un método para analizar los datos. Este nuevo enfoque resultó ser mucho más rápido y eficaz, por lo que fue muy popular.
Por lo tanto, la popularidad de la ciencia de datos radica en el hecho de que abarca la recopilación de grandes conjuntos de datos estructurados y no estructurados y su conversión a un formato legible por el ser humano, incluyendo la visualización, el trabajo con métodos estadísticos y analíticos - aprendizaje automático y profundo, análisis de probabilidades y modelos predictivos, redes neuronales y su aplicación para la resolución de problemas reales.
Inteligencia Artificial, Aprendizaje Automático, Aprendizaje Profundo y Ciencia de Datos - indudablemente, estos términos principales son los más populares hoy en día. Y aunque de alguna manera están relacionados, no son lo mismo. Así que, antes de pasar a la siguiente etapa, es obligatorio diferenciarlos.
La Inteligencia Artificial es el ámbito que se centra en la creación de máquinas inteligentes que funcionan y reaccionan como los humanos. El estudio de la IA se remonta a 1936, cuando Alan Turing construyó las primeras máquinas que funcionaban por IA. A pesar de ser una historia bastante larga, hoy en día la IA en la mayoría de las áreas aún no es capaz de reemplazar completamente a un ser humano. Y la competencia de la IA con los humanos en el ajedrez, y la encriptación de datos son dos caras de la misma moneda.
El aprendizaje automático es una herramienta de creación para extraer conocimientos de los datos. En el aprendizaje automático los modelos pueden basarse en datos de manera independiente o en etapas.
El aprendizaje profundo es la creación de redes neuronales multicapa en áreas en las que se necesita un análisis más avanzado o rápido y en las que el aprendizaje automático tradicional no puede hacer frente. La "profundidad" proporciona más de una capa oculta de redes de neuronas que realizan cálculos matemáticos.
Big Data - trabaja con grandes cantidades de datos, a menudo no estructurados. Las características específicas de la esfera son herramientas y sistemas capaces de soportar grandes cargas.
La ciencia de datos es la adición de significado a las matrices de datos, la visualización, la recopilación de ideas y la toma de decisiones basadas en estos datos. Los especialistas de campo utilizan algunos métodos de aprendizaje automático y Big Data - computación en nube, herramientas para crear un entorno de desarrollo virtual y mucho más. Las tareas de Data Science se resumen bien en este diagrama de Venn creado por Drew Conway
Entonces, ¿qué es Data Scientist? Aquí está todo lo que necesitas saber al respecto: detección de anomalías, por ejemplo, comportamiento anormal del cliente, fraude; marketing personalizado - boletines personales por correo electrónico, sistemas de recomendación;
Previsiones métricas - indicadores de rendimiento, calidad de las campañas publicitarias y otras actividades;
Sistemas de puntuación: procesan grandes cantidades de datos y ayudan a tomar una decisión;
interacción básica con el cliente - respuestas estándar en salas de chat, asistentes de voz, clasificación de cartas en carpetas.
Para realizar cualquiera de las tareas anteriores es necesario seguir ciertos pasos:
Recolección Busque los canales en los que puede recopilar datos y cómo obtenerlos.
Comprobado. Validación, eliminación de anomalías que no afectan al resultado, pero confunden con análisis posteriores.
Análisis. El estudio de los datos, la confirmación de los supuestos, las conclusiones.
Visualización. Presentación en una forma que sea simple y comprensible para la percepción de una persona - en gráficos, diagramas.
Actuar. Tomar decisiones basadas en los datos analizados, por ejemplo, sobre el cambio de la estrategia de marketing, aumentando el presupuesto para cualquier actividad de la empresa.
Paso 1. Estadística, Matemáticas, Álgebra Lineal
El conocimiento matemático fundamental es importante para poder analizar los resultados de la aplicación de algoritmos de procesamiento de datos. Hay ejemplos de ingenieros relativamente fuertes en el aprendizaje de máquinas sin este tipo de formación, pero esto es más bien la excepción.
Si la educación universitaria ha dejado muchas lagunas, el libro The Elements of Statistical Learning de Hastie, Tibshirani y Friedman. En este libro, las secciones clásicas del aprendizaje automático se presentan en términos de estadísticas matemáticas con cálculos matemáticos rigurosos. A pesar de la abundancia de formulaciones y pruebas matemáticas, todos los métodos van acompañados de ejemplos prácticos y ejercicios.
El mejor libro en este momento para entender los principios matemáticos que subyacen a las redes neuronales - Deep Learning de Ian Goodfellow. En la introducción, hay una sección entera sobre todas las matemáticas que se necesitan para una buena comprensión de las redes neuronales. Otra buena referencia son lasRedes Neuronales y el Aprendizaje Profundo de Michael Nielsen- esto puede no ser un trabajo fundamental, pero será muy útil para entender los principios básicos.
Paso 2. Programación (Python)
De hecho, una gran ventaja sería familiarizarse inmediatamente con los fundamentos de la programación. Pero como se trata de un proceso que requiere mucho tiempo, puede simplificar un poco esta tarea. ¿Cómo? Todo es muy sencillo. Empieza a aprender un lenguaje y enfócate en todos los matices de la programación a través de la sintaxis de ese lenguaje.
Pero aún así, es difícil prescindir de algún tipo de guía general. Por esta razón, recomiendo prestar atención a este artículo: Software Development Skills for Data Scientists: Increíble artículo sobre importantes habilidades sociales para la práctica de la programación.
Por ejemplo, le aconsejo que preste atención a Python. En primer lugar, es perfecto para que los principiantes aprendan, tiene una sintaxis relativamente simple. En segundo lugar, Python combina la demanda de especialistas y es multifuncional.
Paso 3. Aprendizaje automático
El aprendizaje automático permite entrenar a los ordenadores para que actúen de forma independiente, de modo que no tengamos que escribir instrucciones detalladas para realizar determinadas tareas. Por esta razón, el aprendizaje automático es de gran valor para casi cualquier área, pero antes que nada, por supuesto, funcionará bien donde existe la ciencia de datos.
Paso 4. Minería de datos y visualización de datos
La minería de datos es un proceso analítico importante diseñado para explorar datos. Es el proceso de analizar patrones ocultos de datos de acuerdo a diferentes perspectivas para su categorización en información útil, la cual es recolectada y ensamblada en áreas comunes, tales como almacenes de datos, para un análisis eficiente, algoritmos de minería de datos, facilitando la toma de decisiones de negocios y otros requerimientos de información para finalmente reducir costos y aumentar los ingresos.
Paso 5. Experiencia práctica
Estudiar sólo la teoría no es muy interesante, hay que probar la práctica. El principiante de Data Scientist tiene algunas buenas opciones para esto:
Utiliza Kaggle, un sitio web dedicado a la ciencia de datos. Constantemente organiza concursos de análisis de datos en los que puedes participar. También hay un gran número de conjuntos de datos abiertos que puede analizar y publicar sus resultados. Además, puede ver los guiones publicados por otros participantes (en Kaggle, estos guiones se llaman Kernels) y aprender de la experiencia exitosa.
Paso 6. Confirmación de la cualificación
Después de que hayas estudiado todo lo que necesita para analizar los datos y probar con tareas abiertas y concursos, a continuación, empieza a buscar un trabajo. Por supuesto, sólo dirás cosas buenas, pero tienes derecho a dudar de tus palabras. A continuación, se mostrarán, por ejemplo, confirmaciones independientes:
Perfil avanzado en Kaggle. Kaggle tiene un sistema de rangos, puedes progresar desde principiante hasta gran maestro. Para participar con éxito en concursos, la publicación de guiones y debates, puede obtener puntos que le permitan aumentar la puntuación. Además, el sitio muestra en qué competiciones has participado y cuáles son tus resultados.
Los programas de análisis de datos pueden ser publicados en GitHub u otros repositorios abiertos, y todos los interesados pueden familiarizarse con ellos. Incluyendo a los representantes del empleador, que realizarán una entrevista con usted.
Cuando Aristóteles y Platón debatían apasionadamente si el mundo es material o ideal, ni siquiera adivinaron el poder de los datos. En este momento, los datos gobiernan el mundo y la ciencia de los datos cada vez toma más fuerza aceptando los desafíos del tiempo y ofreciendo nuevas soluciones algorítmicas. No es de extrañar, se está volviendo más atractivo no solo observar todos esos movimientos sino también ser parte de ellos.
Sin embargo, si usted es un recién llegado en estas cosas, ¿significa esto que tiene un largo camino por recorrer para ser un experto? ¿Es necesario pasar por una serie de intentos y fracasos antes de alcanzar la confianza total de este trabajo? Probablemente si. Pero con esta publicación, intentaré facilitar esta tarea para usted. Hoy dibujaré la forma más efectiva de aprender con excepcionalmente los pasos más necesarios.
Paso 0. ¿Qué es qué?
Bueno, en términos generales, Data Science no es un reino seguro o único, es como una combinación de varias disciplinas que se centran en analizar datos y encontrar las mejores soluciones basadas en ellos. Inicialmente, esas tareas estaban a cargo de especialistas en matemática o estadística, pero luego los expertos en datos comenzaron a usar el aprendizaje automático y la inteligencia artificial, lo que agregó optimización y ciencias de la computación como método para analizar datos. Este nuevo enfoque resultó ser mucho más rápido y efectivo, y muy popular.
En general, la popularidad de Data Science radica en el hecho de que abarca la recopilación de grandes conjuntos de datos estructurados y no estructurados y su conversión a formato legible para el ser humano, incluida la visualización, el trabajo con estadísticas y métodos analíticos: máquina y profundidad. aprendizaje, análisis de probabilidad y modelos predictivos, redes neuronales y su aplicación para resolver problemas reales.
Inteligencia artificial, aprendizaje automático, aprendizaje profundo y ciencia de datos: sin duda, estos términos principales son los más populares en la actualidad. Y aunque de alguna manera están relacionados, no son lo mismo. Entonces, antes de saltar a cualquiera de esos reinos, es obligatorio sentir la diferencia.
La Inteligencia Artificial es el reino que se centra en la creación de máquinas inteligentes que funcionan y reaccionan como los humanos. La IA como estudio se remonta a 1936 cuando Alan Turing construyó las primeras máquinas con IA. A pesar de una historia bastante larga, hoy la IA en la mayoría de las áreas aún no puede reemplazar por completo a un humano. Y la competencia de la IA con los humanos en el ajedrez y el cifrado de datos son dos caras de la misma moneda.
Aprendizaje automático es una herramienta de creación para extraer conocimiento de los datos. En los modelos de ML se puede entrenar en datos de forma independiente o en etapas: entrenamiento con un maestro, es decir, tener datos preparados por humanos o entrenamiento sin un maestro, trabajar con datos espontáneos y ruidosos.
El aprendizaje profundo es la creación de redes neuronales de múltiples capas en áreas donde se necesita un análisis más avanzado o rápido y el aprendizaje automático tradicional no puede hacer frente. La "profundidad" proporciona más de una capa oculta de neuronas en la red que realiza cálculos matemáticos.
Big Data : trabaje con grandes cantidades de datos a menudo no estructurados. Los detalles de la esfera son herramientas y sistemas capaces de soportar altas cargas.
Data Science es la adición de significado a las matrices de datos, la visualización, la recopilación de información y la toma de decisiones basadas en estos datos. Los especialistas de campo utilizan algunos métodos de aprendizaje automático y Big Data: computación en la nube, herramientas para crear un entorno de desarrollo virtual y mucho más. Las tareas de Data Science se resumieron bien con este diagrama de Venn creado por Drew Conway:
Entonces, ¿qué hace Data Scientist? Aquí está todo lo que necesita saber al respecto:
detección de anomalías, por ejemplo, comportamiento anormal del cliente, fraude;
marketing personalizado: boletines personales por correo electrónico, retargeting, sistemas de recomendación;
Pronósticos métricos: indicadores de rendimiento, calidad de campañas publicitarias y otras actividades;
sistemas de puntuación: procesan grandes cantidades de datos y ayudan a tomar una decisión, por ejemplo, sobre la concesión de un préstamo;
interacción básica con el cliente: respuestas estándar en salas de chat, asistentes de voz, clasificación de cartas en carpetas.
Para realizar cualquiera de las tareas anteriores, debe seguir ciertos pasos:
Colección Busque canales donde pueda recopilar datos y cómo obtenerlos.
Comprobar. Validación, anomalías de poda que no afectan el resultado y confunden con un análisis posterior.
Análisis. El estudio de datos, confirmación de supuestos, conclusiones.
Visualización. Presentación en una forma que sea simple y comprensible para la percepción de una persona: en gráficos, diagramas.
Acto. Tomar decisiones basadas en los datos analizados, por ejemplo, sobre cambiar la estrategia de marketing, aumentar el presupuesto para cualquier actividad de la empresa.
Ahora es el momento de avanzar hacia cosas más complicadas. Todos los pasos a continuación probablemente parezcan demasiado difíciles, consuman tiempo y energía, y bla, bla. Bueno, sí, este camino es difícil si lo percibes como algo que puedes aprender en un mes o incluso en un año. Debe admitir el hecho de un aprendizaje constante, el hecho de dar pequeños pasos todos los días y estar listo para ver errores, estar listo para intentar nuevamente y contar con un largo período de dominio de este campo.
Entonces, ¿estás realmente listo para estas cosas? Si es así, vamos a rodar.
Paso 1. Estadística, Matemáticas, Álgebra Lineal
"Data Scientist es una persona que es mejor en estadística que cualquier programador y mejor en programación que cualquier estadístico".
Josh Wills
Si hablamos en general de la ciencia de datos, entonces para una comprensión y trabajo serios necesitamos un curso fundamental en la teoría de la probabilidad (y, por lo tanto, el análisis matemático como herramienta necesaria en la teoría de la probabilidad), álgebra lineal y, por supuesto, estadística matemática. El conocimiento matemático fundamental es importante para poder analizar los resultados de la aplicación de algoritmos de procesamiento de datos. Hay ejemplos de ingenieros relativamente fuertes en aprendizaje automático sin estos antecedentes, pero esta es más bien la excepción.
Si la educación universitaria ha dejado muchas lagunas, recomiendo el libro Los elementos del aprendizaje estadístico de Hastie, Tibshirani y Friedman. En este libro, las secciones clásicas del aprendizaje automático se presentan en términos de estadística matemática con cálculos matemáticos rigurosos. A pesar de la abundancia de formulaciones matemáticas y evidencia, todos los métodos van acompañados de ejemplos prácticos y ejercicios.
El mejor libro en este momento para comprender los principios matemáticos que subyacen a las redes neuronales: Deep Learning de Ian Goodfellow. En la introducción, hay una sección completa sobre todas las matemáticas necesarias para una buena comprensión de las redes neuronales. Una buena referencia más es Redes neuronales y aprendizaje profundo de Michael Nielsen; puede que este no sea un trabajo fundamental, pero será muy útil para comprender los principios básicos.
Introducción a las estadísticas para la ciencia de datos : este tutorial ayuda a explicar el teorema del límite central, que abarca poblaciones y muestras, distribución de muestras, intuición, y contiene un video útil para que pueda continuar su aprendizaje.
De hecho, una gran ventaja sería familiarizarse inmediatamente con los conceptos básicos de la programación. Pero dado que este es un proceso que consume mucho tiempo, puede simplificar un poco esta tarea. ¿Cómo? Todo es simple Comience a aprender un idioma y concéntrese en todos los matices de la programación a través de la sintaxis de ese idioma.
Pero aún así, es difícil prescindir de algún tipo de guía general. Por esta razón, recomiendo prestar atención a este artículo: Habilidades de desarrollo de software para científicos de datos : artículo increíble sobre habilidades blandas importantes para la práctica de programación.
Por ejemplo, le aconsejaría que preste atención a Python. En primer lugar, es perfecto para que los principiantes aprendan, tiene una sintaxis relativamente simple. En segundo lugar, Python combina la demanda de especialistas y es multifuncional.
El tiempo es un recurso precioso, por lo que es mejor no desintegrarse de una vez y no solo desperdiciarlo. Entonces, ¿cómo aprender Python?
Si no tiene ningún conocimiento de programación, le recomiendo leer Automatizar las cosas aburridas con Python . El libro ofrece explicar la programación práctica para principiantes y enseñar desde cero. Lea el Capítulo 6, “Manipulación de cuerdas”, y complete las tareas prácticas para esta lección. Eso será suficiente
Después de aprender los conceptos básicos de Python, debe dedicar tiempo a conocer las bibliotecas principales.
Aquí hay una lista de recomendaciones para estudiar bibliotecas. Aquí he dividido todas las bibliotecas necesarias para su propósito previsto, y también proporcioné todos los enlaces necesarios para el dominio (documentación y guías):
El aprendizaje automático le permite entrenar a las computadoras para que actúen de manera independiente, de modo que no tengamos que escribir instrucciones detalladas para realizar ciertas tareas. Por esta razón, el aprendizaje automático es de gran valor para casi cualquier área, pero antes que nada, por supuesto, funcionará bien donde hay ciencia de datos.
Lo primero o el primer paso para aprender ML son sus tres grupos principales:
1) El aprendizaje supervisado es ahora la forma más desarrollada de ML. La idea aquí es que tiene datos históricos con alguna noción de la variable de salida. La variable de salida está destinada a reconocer cómo puede una buena combinación de varias variables de entrada y los valores de salida correspondientes como datos históricos que se le presentan y luego, basándose en eso, intenta crear una función que pueda predecir una salida dada cualquier entrada. Entonces, la idea clave es que los datos históricos están etiquetados. Etiquetado significa que tiene un valor de salida específico para cada fila de datos, que se le presenta ⠀
PD. en el caso de la variable de salida, si la variable de salida es discreta, se llama CLASIFICACIÓN. Y si es continuo se llama REGRESIÓN
2) El aprendizaje no supervisado no tiene el lujo de haber etiquetado la entrada-salida de datos históricos. En cambio, solo podemos decir que tiene un montón de datos de entrada, RAW INPUT DATA. Nos permite identificar lo que se conoce como patrones en los datos de entrada históricos y perspectivas interesantes desde la perspectiva general. Entonces, la salida aquí está ausente y todo lo que necesita entender es que hay un patrón visible en el conjunto de entrada no supervisado. La belleza del aprendizaje no supervisado es que se presta a numerosas combinaciones de patrones, por eso los algoritmos no supervisados son más difíciles.
3) El aprendizaje por refuerzo ocurre cuando presentas el algoritmo con ejemplos que carecen de etiquetas, como en el aprendizaje no supervisado. Sin embargo, puede acompañar un ejemplo con retroalimentación positiva o negativa de acuerdo con la solución que propone el algoritmo. RL está conectado a aplicaciones para las cuales el algoritmo debe tomar decisiones, y las decisiones tienen consecuencias. Es como aprender por ensayo y error. Un ejemplo interesante de RL ocurre cuando las computadoras aprenden a jugar videojuegos por sí mismas.
Así que está bien, ahora sabes los conceptos básicos de ML. Después de esto, obviamente necesitas aprender más. Aquí hay excelentes recursos para explorar con este propósito:
La minería de datos es un proceso analítico importante diseñado para explorar datos. Es el proceso de analizar patrones ocultos de datos de acuerdo con diferentes perspectivas para la categorización en información útil, que se recopila y ensambla en áreas comunes, como almacenes de datos, para un análisis eficiente, algoritmos de minería de datos, facilitando la toma de decisiones comerciales y otros requisitos de información para finalmente reducir costos e incrementar los ingresos.
La visualización de datos es un término general que describe un esfuerzo para ayudar a las personas a comprender la importancia de los datos colocándolos en un contexto visual.
Estudiar solo la teoría no es muy interesante, debes probar suerte en la práctica. El principiante de Data Scientist tiene algunas buenas opciones para esto:
Use Kaggle , un sitio web dedicado a la ciencia de datos. Constantemente alberga concursos de análisis de datos en los que puede participar. También hay una gran cantidad de conjuntos de datos abiertos que puede analizar y publicar sus resultados. Además, puede ver los scripts publicados por otros participantes (en Kaggle, tales scripts se llaman Kernels) y aprender de la experiencia exitosa.
Paso 7. Confirmación de calificación
Después de haber estudiado todo lo que necesita para analizar los datos y probar suerte en tareas y concursos abiertos, luego comience a buscar trabajo. Por supuesto, solo dirá cosas buenas, pero tiene derecho a dudar de sus palabras. Luego demostrará confirmaciones independientes, por ejemplo:
Perfil avanzado en Kaggle . Kaggle tiene un sistema de rangos, puedes seguir los pasos desde principiante hasta gran maestro. Para una participación exitosa en concursos, la publicación de guiones y debates, puede obtener puntos que le permitan elevar la calificación. Además, el sitio muestra en qué competencias participó y cuáles son sus resultados.
Los programas de análisis de datos se pueden publicar en GitHub u otros repositorios abiertos, luego todos los interesados pueden familiarizarse con ellos. Incluidos los representantes del empleador, quienes realizarán una entrevista con usted.
Consejo final: no seas una copia de una copia, encuentra tu propio camino
Ahora cualquiera puede convertirse en Data Scientist. Hay todo lo que necesita para esto en el dominio público: cursos en línea, libros, concursos para obtener experiencia práctica, etc. Es bueno a primera vista, pero no deberías aprenderlo solo por exagerar. Todo lo que escuchamos sobre Data Science es increíblemente genial y es el trabajo más sexy del siglo XXI. Si estas cosas son la principal motivación para ti, nada funcionará. Triste verdad, sí, y tal vez estoy exagerando un poco, pero así es como me siento al respecto.
Lo que voy a decir ahora es que es posible convertirse en un Data Scientist autodidacta. Sin embargo, la clave de su éxito es una gran motivación para encontrar regularmente tiempo para estudiar el análisis de datos y su aplicación práctica. Lo que es más importante, debe aprender a obtener satisfacción en el proceso de aprendizaje y trabajo. Piénsalo.