Bigquerytrabajos
...Console, Metricool, Office 365 y BigQuery) y consolidará la información en un tablero ejecutivo en Stratio con indicadores clave de tráfico, comportamiento, ROI y ROAS. ALCANCE DEL PROYECTO Diseño e implementación del DataLayer (Capa de Datos): Configuración técnica en Google Tag Manager. Definición de variables y eventos personalizados (hasta 5 funnels). Configuración de funnels y trazabilidad externa (Office 365 / links): Medición de formularios externos y redirecciones fuera del dominio principal. Trazabilidad entre fuentes y registro de eventos externos. Integración de plataformas analíticas y publicitarias: Conexión y validación técnica de GA4, Clarity, Search Console y ...
...Geolocation + proximity engine. Coupon & gamification rules engine. Event management. Business directory management. Incident/SOS management. Notification engine (email, SMS, WhatsApp, web push). Microservices for independent scaling (SOS, maps, notifications). 3.3 Data & AI Layer Front-end: Vue. Operational DB: Supabase (users, sessions, scans, events, coupons, SOS). Data warehouse (BigQuery/Redshift/Snowflake). ETL/ELT for logs ingestion, cleaning, anonymization. AI models: recommendations, predictive heatmaps, under-activated zone detection, anomaly detection (security/fraud). 3.4 Integration Layer Municipality systems: licenses, tourism, culture, security, civil protection. Emergency & medical: C5/911, Red Cross, hospitals (API/web console). Third ...
Busco a un profesional con dominio de Google Cloud Console y las APIs de Google Maps (Places, Geocoding o BigQuery GIS) para realizar un estudio de ubicación de gabinetes radiológicos dentales y clínicas odontológicas en la Ciudad de México y el Estado de México. El objetivo es detectar patrones de concentración, zonas con alta competencia y áreas de oportunidad para la instalación de nuevos gabinetes radiológicos. El trabajo consiste en crear un mapa interactivo (preferentemente en Google My Maps o una plataforma similar) que muestre los puntos exactos de cada gabinete radiológico y clínica dental detectada, con capas diferenciadas por tipo de negocio. También necesito un archivo estructurad...
Dispongo de una base de datos extensa y heterogénea y necesito convertirla en un activo publicitario sólido. La prioridad inmediata es Google Ads; allí quiero trabajar con ...recomendaciones de optimización continua. Criterios de aceptación – Al menos tres segmentos diferenciados validados con un ROAS o CPL superior al baseline histórico. – Etiquetado funcionando y enviando eventos sin pérdida de datos (>95 % de coincidencias). – Informe final que incluya aprendizajes, próximos pasos y tabla de rendimiento por audiencia. Trabajo con acceso a Google Ads, GA4, BigQuery y hojas de cálculo; si utilizas otras herramientas compatibles no hay problema. Mientras cumplamos con la calidad del dato ...
...que se puedan extraer de acuerdo a la herramienta. Almacenamiento de la información: se debe asegurar que la información recopilada pueda ser almacenada de forma estructurada en un data lake (Google Cloud Storage) o data warehouse (BigQuery) o en Google Drive, con el fin de que sea consultada en el tiempo. Fuentes de datos Para la extracción de la información de piezas gráficas se sugiere: Google: Ads transparency Meta, LinkedIn y TikTok: Biblioteca de anuncios Herramientas sugeridas Apify: extraccion y scraping Google Drive, Google Cloud Storage, BigQuery: almacenamiento de las piezas gráficas Servicio Vision de OpenAI: análisis de imágenes N8N: automatizaciones Python Entregables esperados Herramienta o in...
Se busca un especialista con experiencia comprobable para establecer una conexión robusta y automatizada entre Google BigQuery y Power BI Service. El objetivo principal es configurar la sincronización de datos para que las actualizaciones se realicen de forma automática y eficiente. El profesional deberá tener un profundo conocimiento en la gestión de aplicaciones, organizaciones y cuentas tanto en Microsoft (para Power BI Service) como en Google Cloud (para BigQuery), asegurando una configuración integral y sin fisuras. Se espera que el trabajo se complete en un solo día, por lo que se requiere un experto con la capacidad de ejecutar la tarea de manera rápida y efectiva. Se valorará la experiencia previa en proye...
Descripción general: Nuestra plataforma PaaS está diseñada específicamente ...resultados. Control de acceso basado en roles (RBAC) Acceso segmentado para corporativo, divisiones, empresas colaboradoras y auditores, con filtros personalizados de visibilidad según privilegios. Registro automático en BigQuery Toda la actividad (verificación, auditoría, evaluaciones) se almacena automáticamente en Google BigQuery para análisis posterior y trazabilidad. Tecnologías clave Frontend: HTML, CSS institucional, JavaScript modular, Jinja2 Backend: Flask, Python 3, Google APIs (Drive, Sheets, Mail, GCS) Base de datos: Google BigQuery Almacenamiento: Google Cloud Stor...
Descripción general: Nuestra plataforma PaaS está diseñada específicamente ...resultados. Control de acceso basado en roles (RBAC) Acceso segmentado para corporativo, divisiones, empresas colaboradoras y auditores, con filtros personalizados de visibilidad según privilegios. Registro automático en BigQuery Toda la actividad (verificación, auditoría, evaluaciones) se almacena automáticamente en Google BigQuery para análisis posterior y trazabilidad. Tecnologías clave Frontend: HTML, CSS institucional, JavaScript modular, Jinja2 Backend: Flask, Python 3, Google APIs (Drive, Sheets, Mail, GCS) Base de datos: Google BigQuery Almacenamiento: Google Cloud Stor...
...Cloud Platform (GCP) y Looker para solucionar discrepancias en los datos dentro de nuestros dashboards y optimizar la gestión de nuestras herramientas BI. Tareas y Responsabilidades: Diagnosticar y corregir discrepancias en los dashboards de Looker, asegurando que los datos sean precisos, consistentes y alineados con las fuentes originales. Analizar la arquitectura actual de datos en Google BigQuery y Looker para identificar problemas en las transformaciones y cálculos de métricas. Optimizar la estructura de modelos, vistas y exploraciones en Looker para mejorar la confiabilidad y eficiencia de los reportes. Implementar mejores prácticas de modelado de datos en LookML para evitar duplicaciones, errores de agregación y cálculos inc...
Buscamos un freelancer con experiencia en integración de datos y visualización embebida en plataformas web. El objetivo es desarrollar dashboards que se integren dentro de una plataforma MERN, con vistas segmentadas según el tipo de usuario, sin login individual en la herramienta de visualización. Alcance del proyecto: - Integrar datos desde Google Sheets, BigQuery y posiblemente otras fuentes. - Consolidar los datos en una base central (MongoDB o alternativa a definir). - Crear dashboards con filtros por rol, mostrando solo la información correspondiente a cada tipo de usuario. - Embedding de los dashboards en el frontend React de la plataforma existente. - Implementar la lógica necesaria para que la segmentación de datos dependa d...
TERMINOS DE REFERENCIA IMPLEMENTACION DE PIPELINE DE DATOS – AWS Cl...un pipeline de datos automatizado en la nube de AWS. Alcance Configurar, orquestar y automatizar servicios serverless como AWS Step Functions, AWS Lambda, AWS Glue con Auto Scaling, Amazon S3, AWS Athena, y Amazon RDS MySQL; automatización de procesos ETL (extracción, transformación y carga) con reglas dinámicas basadas en metadatos; integración con fuentes de datos como SAP HANA, SQL Server, BigQuery, Google Analytics GA4 y APIs de CRMs; y optimización de costos aprovechando la capa gratuita de AWS. Duración estimada: 4-7 semanas (ajustable según roadmap y complejidad). Perfil requerido: Experiencia comprobada en arquitectura serverless de AWS, Pyt...
...оформлению. Завершение пожертвования (purchase) — фиксировать успешную транзакцию с указанием данных. Отображение данных в GA4: Название проекта (товар). Сумма пожертвования (цена). Способ оплаты (Tranzila, Stripe, PayPal, Bit). 3. Отчёты и визуализация Создать отчёт в GA4 для анализа: Суммы пожертвований по проектам. Распределения по UTM меткам. Добавить возможность выгрузки данных в Google Sheets/BigQuery для дополнительного анализа. Этапы выполнения Изучение документации API платёжных систем. Настройка передачи данных о транзакциях в GA через API. Тестирование корректности передачи данных (фиксация событий и параметров). Настройка событий электронной коммерции в GA4. Проверка отображения данных в отчётах. Документирование процесса настройки и краткая инструкция для по...
Necesito crear un DAG en google composer que ejecute un procedimiento almacenado en Bigquery, he estado trabajando en un codigo pero no logro hacerlo funcionar.
Presupuesto a convenir con el desarrollador, para realizar base de datos en bigquery
Tengo una base de datos en BigQuery donde importo datos de ventas periódicamente. Necesito que los datos estén bien conectados con Looker Studio y reflejen la información más reciente con precisión. Requisitos clave: La base de datos en cuestión importa datos de ventas periódicamente. Los datos deben integrarse en tiempo real con Looker Studio. El Freelancer Ideal: Competente en la gestión e integración de datos desde BigQuery. Experimentado en configurar la integración de datos en tiempo real con Looker Studio. Hábil en mantener la precisión de los datos y asegurarse de que se reflejen correctamente en Looker Studio.
Presupuesto 25dolares hacer mejoras en un tablero de base de datos hecho en bigquery Estimado Enderson, revisando el tablero confeccionado tengo algunos comentarios: Hoja “Resultados Acumulados 2024”: Respecto al indicador “Cantidad de pedidos” el primero debe ser el total y el segundo deben ser SOLO los pedidos de fulfillment, en este momento el total está dos veces. El Precio Promedio está arrojando un numero extraño, si te fijas es mayor a la venta y eso no debiese ser ya que debiese mostrar la VENTA promedio de cada pedido (es decir Venta dividido por Cantidad de Pedidos y otro que sería la Venta promedio por unidad vendida, es decir Venta Dividido por cantidad. En El Gráfico de Evolutivo de Ventas vs años a...
Presupuesto 25dolares hacer mejoras en un tablero de base de datos hecho en bigquery Estimado Enderson, revisando el tablero confeccionado tengo algunos comentarios: Hoja “Resultados Acumulados 2024”: Respecto al indicador “Cantidad de pedidos” el primero debe ser el total y el segundo deben ser SOLO los pedidos de fulfillment, en este momento el total está dos veces. El Precio Promedio está arrojando un numero extraño, si te fijas es mayor a la venta y eso no debiese ser ya que debiese mostrar la VENTA promedio de cada pedido (es decir Venta dividido por Cantidad de Pedidos y otro que sería la Venta promedio por unidad vendida, es decir Venta Dividido por cantidad. En El Gráfico de Evolutivo de Ventas vs años a...
Presupuesto 25dolares hacer mejoras en un tablero de base de datos hecho en bigquery Estimado Enderson, revisando el tablero confeccionado tengo algunos comentarios: Hoja “Resultados Acumulados 2024”: Respecto al indicador “Cantidad de pedidos” el primero debe ser el total y el segundo deben ser SOLO los pedidos de fulfillment, en este momento el total está dos veces. El Precio Promedio está arrojando un numero extraño, si te fijas es mayor a la venta y eso no debiese ser ya que debiese mostrar la VENTA promedio de cada pedido (es decir Venta dividido por Cantidad de Pedidos y otro que sería la Venta promedio por unidad vendida, es decir Venta Dividido por cantidad. En El Gráfico de Evolutivo de Ventas vs años a...
Presupuesto 25dolares hacer mejoras en un tablero de base de datos hecho en bigquery Estimado Enderson, revisando el tablero confeccionado tengo algunos comentarios: Hoja “Resultados Acumulados 2024”: Respecto al indicador “Cantidad de pedidos” el primero debe ser el total y el segundo deben ser SOLO los pedidos de fulfillment, en este momento el total está dos veces. El Precio Promedio está arrojando un numero extraño, si te fijas es mayor a la venta y eso no debiese ser ya que debiese mostrar la VENTA promedio de cada pedido (es decir Venta dividido por Cantidad de Pedidos y otro que sería la Venta promedio por unidad vendida, es decir Venta Dividido por cantidad. En El Gráfico de Evolutivo de Ventas vs años a...
Presupuesto 35 dolares hacer mejoras en un tablero de base de datos hecho en bigquery Perfecto, sería entonces: 1) Dejar configurado el nuevo tablero de Looker con los indicadores a detallar (Te enviaré un correo con ese detalle). 2) Permitir que el nuevo tablero se pueda compartir a usuarios externos con acceso filtrado. Idealmente que estos tableros se puedan configurar (ante futuros cambios) para controlarlos de forma centralizada 3) Ver si podemos agregar para la sheet importadora de Datos a Bigquery algún método para evitar poblar de forma duplicada la base de datos (ejemplo considerar un campo llave que no se pueda repetir). Cuéntame como lo ves.
Presupuesto 35 dolares hacer mejoras en un tablero de base de datos hecho en bigquery Perfecto, sería entonces: 1) Dejar configurado el nuevo tablero de Looker con los indicadores a detallar (Te enviaré un correo con ese detalle). 2) Permitir que el nuevo tablero se pueda compartir a usuarios externos con acceso filtrado. Idealmente que estos tableros se puedan configurar (ante futuros cambios) para controlarlos de forma centralizada 3) Ver si podemos agregar para la sheet importadora de Datos a Bigquery algún método para evitar poblar de forma duplicada la base de datos (ejemplo considerar un campo llave que no se pueda repetir). Cuéntame como lo ves.
Presupuesto 35 dolares hacer mejoras en un tablero de base de datos hecho en bigquery Perfecto, sería entonces: 1) Dejar configurado el nuevo tablero de Looker con los indicadores a detallar (Te enviaré un correo con ese detalle). 2) Permitir que el nuevo tablero se pueda compartir a usuarios externos con acceso filtrado. Idealmente que estos tableros se puedan configurar (ante futuros cambios) para controlarlos de forma centralizada 3) Ver si podemos agregar para la sheet importadora de Datos a Bigquery algún método para evitar poblar de forma duplicada la base de datos (ejemplo considerar un campo llave que no se pueda repetir). Cuéntame como lo ves.
Presupuesto 35 dolares hacer mejoras en un tablero de base de datos hecho en bigquery Perfecto, sería entonces: 1) Dejar configurado el nuevo tablero de Looker con los indicadores a detallar (Te enviaré un correo con ese detalle). 2) Permitir que el nuevo tablero se pueda compartir a usuarios externos con acceso filtrado. Idealmente que estos tableros se puedan configurar (ante futuros cambios) para controlarlos de forma centralizada 3) Ver si podemos agregar para la sheet importadora de Datos a Bigquery algún método para evitar poblar de forma duplicada la base de datos (ejemplo considerar un campo llave que no se pueda repetir). Cuéntame como lo ves.
Presupuesto 35 dolares hacer mejoras en un tablero de base de datos hecho en bigquery Perfecto, sería entonces: 1) Dejar configurado el nuevo tablero de Looker con los indicadores a detallar (Te enviaré un correo con ese detalle). 2) Permitir que el nuevo tablero se pueda compartir a usuarios externos con acceso filtrado. Idealmente que estos tableros se puedan configurar (ante futuros cambios) para controlarlos de forma centralizada 3) Ver si podemos agregar para la sheet importadora de Datos a Bigquery algún método para evitar poblar de forma duplicada la base de datos (ejemplo considerar un campo llave que no se pueda repetir). Cuéntame como lo ves.
Hola! Busco a un experto en BigQuery para impartir una formación presencial de 15 horas en 3 dias en Barcelona. El contenido de la misma ya esta estructurado. Gracias
Buscamos desarrollador JAVA con 2 años de experiencia, si con...· Conocimientos sobre pruebas unitarias. · Conocimientos en base de datos SQL y NoSQL. · Experiencia en desarrollo de Rest Api. · Conocimientos en GIT. · Habilidad para trabajar independientemente sin supervisión. · BigTable experto · Conocimientos básicos de comunicación serial Deseable · Conocimientos en GCP Bigtable, GCP CloudSQL, GCP Bigquery. · Conocimientos en GCP CloudRun. · Conocimientos en GCP Cloud Task. Se requiere realizar la creación de las BD para la solución, garantizar la ingesta de datos, realizar la logica del proyecto pa...
Necesito ayuda para realizar un código basado en SQL para gestionar y optimizar bases de datos
Proyecto para una empresa automotriz para 5 semanas, home office. Conocimientos: Google Cloud Platform, Dataproc, DataFlow, BigQuery.
Se trata de tres proyectos de una automotriz importante en México para la creación de dashboards y reportes para posventa (Data Studio), la recolección de información desde diferentes fuentes, el procesamiento en BigQuery, Dataproc y un proyecto de ciencia de calidad de datos.
Necesito que desarrollen un software para mí. Me gustaría que este software sea desarrollado para Mac utilizando Python.
Actualizar scripts para asegurar la subida de datos en particiones a BigQuery. Asegurarse que los scripts tambien funcionan con un PubSub trigger y los unit tests tienen una covertura superior al 80%.
Buscamos desarrollador con experiencia en extracción y transformación de datos con las plataformas y BigQuery para mostrar la información en dashboards / reportes en Google Data Studio. Las fuentes para la extracción de datos mediante StitchData son: * Facebook Ads. * Klaviyo. * Woocommerce. Además de la información de las plataformas anteriores en Google Data Studio mostraremos información de Google Analytics.
...idear e implementar una estructura de base de datos en BigQuery que se alimente de información actualmente almacenada en hojas Google Sheets. La conexión entre las hojas de Google Sheets y BigQuery será preferentemente via la herramienta Stitch Data, pero puede evaluarse otra herramienta o un desarrollo propio del freelancer. La información dentro de las hojas de Google Sheets tiene una estructura compatible con la integración a BigQuery. En todo caso, la estructura es flexible en pos de amoldarse con los requisitos. Tenemos un recurso que se encargará de la parte de preparación de datos desde el lado de Google Sheets, pero necesitamos un recurso adicional temporal (freelance) que nos facilite la puesta a punto de l...
Buenos días Ismael, Estamos buscando un desarrollador con características similares a las que describes en tu perfil, para integrarlo a nuestro proyecto. Nuestro proyecto es una aplicación web de distribución de música. Las principales tecnologías utilizadas en base de código son React, Redux, Firebase (realtime database, hosting y cloud functions), Google Cloud Storage y BigQuery. Hay hay más cosas pero eso es lo fundamental. Gracias y saludos hasta Culiacán. Gerardo
Necesito un experto en BigQuery capaz de crear un proceso dentro de BigQuery para enviar datos a un FTP. Ese FTP es interno de una herramienta de Marketing Cloud (Salesforce)
Somos una empresa de marketing digital y busco a un google cloud Arquitect certificado que maneje Apigee y diseñar una aplicacion en el entorno de GSuite. El objetivo es capturar información y enviar entre GSuite y Bigquery.
Trabajando con Google BigQuery queremos realizar multitud de queries en sql para ordenar los datos generados por los usuarios de aplicaciones.
...consideraciones: + Implementar un servicio web en Google Cloud Platform con Python API y BigQuery. + Permitir consultas dinámicas con BigQuery. + Tiempo de respuesta de menos de 10 segundos al ejecutar consultas en BigQuery. + Servicio web implementado con protocolos de seguridad GCP y autenticación de usuario. + Cuando el servicio web no responde en un tiempo específico o no está activo, debe enviar una respuesta con un mensaje de error. EN Implement a web service on Google Cloud Platform with the following considerations: + Deploy a Web Service on Google Cloud Platform with Python API and BigQuery. + Allow dynamic queries with BigQuery. + Response Time of less than 10 seconds when executing queries on BigQue...
...profesional de al menos 4 años como Senior Software Engineer. Excelentes conocimiento de programación en JavaSólidos conocimientos de JVM, Tomcat, Linux (Deseable)Dominio del protocolo con herramientas de de Play Framework (Deseable)Experiencia con las siguientes tecnologías (Deseable): Elastic Search, Redis, Oracle, MySQL, MongoDB, Memcached, Cassandra, Google BigQuery, AWS DynamoDBExperiencia con Sistemas distribuidos en cloud (AWS, Google App Engine) (Deseable) Lugar de trabajo: Capital FederalJornada Laboral: Lunes a viernes de 9 a 18 enviar CV a *******@ con asunto: Software Engineer 102/16, sin omitir la remuneración pretendida.-...
...profesional de al menos 4 años como Senior Software Engineer. Excelentes conocimiento de programación en JavaSólidos conocimientos de JVM, Tomcat, Linux (Deseable)Dominio del protocolo con herramientas de de Play Framework (Deseable)Experiencia con las siguientes tecnologías (Deseable): Elastic Search, Redis, Oracle, MySQL, MongoDB, Memcached, Cassandra, Google BigQuery, AWS DynamoDBExperiencia con Sistemas distribuidos en cloud (AWS, Google App Engine) (Deseable) Beneficios: Cobertura médica prepaga para el grupo en cadena de gimnasios de primer de por graduación, cumpleaños, nacimiento de hijos, casamiento, de trabajo: Capital FederalJornada Laboral: Lunes a viernes de 9 a 18 enviar CV
Eco...profesional de al menos 4 años como Senior Software Engineer. Excelentes conocimiento de programación en JavaSólidos conocimientos de JVM, Tomcat, Linux (Deseable)Dominio del protocolo con herramientas de de Play Framework (Deseable)Experiencia con las siguientes tecnologías (Deseable): Elastic Search, Redis, Oracle, MySQL, MongoDB, Memcached, Cassandra, Google BigQuery, AWS DynamoDBExperiencia con Sistemas distribuidos en cloud (AWS, Google App Engine) (Deseable) Beneficios: Cobertura médica prepaga para el grupo en cadena de gimnasios de primer de por graduación, cumpleaños, nacimiento de hijos, casamiento, de trabajo: Capital FederalJornada Laboral: Lunes a viernes de 9 a 18 hs.-
Eco...profesional de al menos 4 años como Senior Software Engineer. Excelentes conocimiento de programación en JavaSólidos conocimientos de JVM, Tomcat, Linux (Deseable)Dominio del protocolo con herramientas de de Play Framework (Deseable)Experiencia con las siguientes tecnologías (Deseable): Elastic Search, Redis, Oracle, MySQL, MongoDB, Memcached, Cassandra, Google BigQuery, AWS DynamoDBExperiencia con Sistemas distribuidos en cloud (AWS, Google App Engine) (Deseable) Beneficios: Cobertura médica prepaga para el grupo en cadena de gimnasios de primer de por graduación, cumpleaños, nacimiento de hijos, casamiento, de trabajo: Capital FederalJornada Laboral: Lunes a viernes de 9 a 18 hs.-
Necesito apoyo para la extracción, transformación y carga de datos en un spreadsheet desde una base de datos (en BigQuery) así como en la visualización y protección del front-end del tablero de control que se va a desarrollar.
Se precisa programador JavaScript para crear una extensión multi-navegador (Chrome, Firefox, Safari, IE) que se ocupará de salvaguardar la privacidad de los usuarios que se la instalen. Se requiere: * Amplia experiencia desarrollando con JavaScript (patrones de diseño, buenas prácticas, uso de prototipos/herencia,...jQuery * Conocimiento de alguna tecnología web de servidor (java, php, python, ruby…) para gestionar altas de usuarios y hacer un registro muy simple de cierta actividad. * Inglés avanzado Se valorará: * Conocimientos de HTML5 y CSS3 * Experiencia portando extensiones a otros navegadores: , Kango, … * Diseño y maquetación web * Experiencia con motores de búsqueda de Big Data: Hadoop, Goo...
Se precisa programador JavaScript para crear una extensión multi-navegador (Chrome, Firefox, Safari, IE) que se ocupará de salvaguardar la privacidad de los usuarios que se la instalen. Dicha extensión se desarrollaría en modo open source a partir de la ya existente Se requiere: * Amplia experiencia desarrol...Conocimiento de alguna tecnología web de servidor (java, php, python, ruby…) para gestionar altas de usuarios y hacer un registro muy simple de cierta actividad. * Inglés avanzado Se valorará: * Conocimientos de HTML5 y CSS3 * Experiencia portando extensiones a otros navegadores: , Kango, … * Diseño y maquetación web * Experiencia con motores de búsqueda de Big Data: Hadoop, Google Big...
...the transformed results are written back to a target schema (or files, if that proves more efficient). Key points you should know • Source: relational database containing nested JSON / key-value blobs. • Goal: parse, normalize, and flatten these blobs into well-defined columns while preserving relationships and lineage. • Scale: millions of rows, so solutions that leverage Spark, Hadoop, BigQuery, Snowflake, or well-tuned SQL/Python pipelines are welcome—as long as they remain maintainable. Deliverables 1. Transformation code (Python, PySpark, SQL, or Scala) with clear comments. 2. A runnable job definition or workflow file (Airflow DAG, Spark submit script, dbt model, etc.) that shows how to execute the pipeline end-to-end. 3. Simple README exp...
...pipelines (dbt, SQL). Analyze datasets and communicate findings for data-driven decisions. Work with LLM benchmarking and agentic coding workflows. What You Need 4+ years professional experience in DS, ML, or Data Engineering. Expert Python (pandas, NumPy, scikit-learn) and SQL. Proven ability to diagnose ML failure modes and improve model quality. Familiarity with cloud warehouses (Snowflake, BigQuery, or Redshift). Why this role? This is a flexible, remote engagement perfect for those looking to contribute to cutting-edge AI research and work with top-tier industry labs without the commitment of a full-time product role....
...an end-to-end data architecture that can reliably ingest, store, and serve a broad range of clinical-trial assets: patient demographics, clinical trial results, genomic data, COA (Clinical Outcomes Assessment) records, and a growing rater database. What I need from you Design the target architecture and implement the core pipelines—ideally using a modern cloud stack (Snowflake, Databricks, BigQuery, Redshift, or a similar platform; feel free to propose the best fit). Your work should cover raw-to-curated layers, automated metadata capture, and role-based access controls that satisfy typical GxP and HIPAA expectations. Key deliverables • Reference architecture diagram with component rationale • Re-usable ingestion and transformation code (Python, SQL, or...
...help me learn Google Cloud Platform (GCP), Terraform, and DevOps practices from basic to advanced level. The training should be highly practical, hands-on, and focused on real-world implementations, not just theory. Learning Requirements: GCP Topics: GCP fundamentals and architecture IAM (Identity & Access Management) Compute Engine, App Engine, Kubernetes Engine (GKE) Cloud Storage, Cloud SQL, BigQuery Networking (VPC, subnets, firewall rules, load balancing) Monitoring & Logging (Cloud Monitoring, Logging) Security best practices Real-world deployments and use cases Terraform (Infrastructure as Code): Terraform fundamentals and setup Writing and managing Terraform configurations Modules and reusable components Remote state management Provisioning GCP infrastructure usin...
...the bootcamp is hands-on practice: together we will build, deploy, monitor and troubleshoot real ETL flows until I can run them solo with confidence. Primary learning goal My priority is data ingestion, extraction, transformation and storage. We will start with the full ingestion toolkit—DataFlow, Pub/Sub and Cloud Storage—then chain that work into the wider GCP ecosystem: • Storage layers: BigQuery, Bigtable, Cloud Spanner, Cloud SQL, Datastore / Firestore • Transformation & orchestration: DataFusion, DataProc, Cloud Composer, Cloud Scheduler, Cloud Functions • Data quality & cataloging: DataPrep, Data Catalog • Visualisation: Looker, Data Studio Preferred teaching style Live, screen-shared sessions where you demo, then watc...