Saltar al contenido principal
Procore

Introducción a Procore Analytics 2.0

Conector Procore Analytics Nube

Introducción

Nube Connector es la forma en que Procore comparte datos, inteligencia y análisis con nuestros clientes. Esto se puede compartir directamente con herramientas de generación de informes como Power BI o Tableau. También se puede compartir con los almacenes de datos, almacenes, lagos u otras aplicaciones de los clientes. Los clientes pueden incluso crear un acceso programático a sus datos utilizando Nube Connector para una verdadera automatización. Nube Connector se basa en el protocolo de uso compartido abierto Delta Share.

Opciones del conector de datos guiados de Procore Analytics 2.0

Delta Sharing es el primer protocolo abierto de la industria para el intercambio seguro de datos, lo que simplifica el intercambio de datos con otras organizaciones, independientemente de las plataformas informáticas que utilicen.  Muchas aplicaciones pueden acceder a los datos con Delta Share. Sin embargo, para mejorar aún más la experiencia del cliente, Procore ha agregado conectores, código prediseñado y guías para las siguientes plataformas, lo que reduce el tiempo de configuración y la complejidad para permitir una conexión perfecta y lista para usar.

  • Servidor SQL
    • SSIS Python
    • Biblioteca de Python
    • Chispa de Python
  • Azure
    • ADLS Azure Functions
    • ADLS Python
    • Chispa de ADLS
    • Fábrica de datos de Lakehouse Fabric
    • Cuaderno de tela Lakehouse
    • SQL Server Azure Functions
    • Factoría de datos de SQL Server Fabric
    • Cuaderno de SQL Server Fabric
  • Databricks
  • Copo de nieve
  • Amazon S3
  • Guías para escribir el tuyo propio (GitHub)

¡Próximamente habrá más conectores de datos!

Acceder a la documentación y al código

La documentación completa y los ejemplos de código están disponibles en el producto Procore Analytics directamente en la aplicación web de Procore a la que pueden acceder sus administradores de Procore. Estos recursos proporcionan instrucciones paso a paso, fragmentos de código y mejores prácticas para ayudarlo a configurar y administrar su integración de datos de manera efectiva.

Siguientes pasos

Continúe con la siguiente sección de esta guía para comenzar el proceso de configuración. 


Para consultas o asistencia adicionales, comuníquese con su gerente de cuenta o con nuestro equipo de soporte.  

Verificar permisos

 Nota:
  • Debe tener habilitado Procore Analytics. 
  • Cualquiera con acceso de nivel "Administrador" a Analytics puede otorgar acceso de usuarios adicionales a Analytics. 
  • Los usuarios deben tener acceso de nivel "Administrador" a Análisis para generar un token de datos. 
  • Cualquier cambio en los permisos de un usuario en el Directorio para Procore Analytics tardará hasta 24 horas en estar activo.

Debe asegurarse de que se asignen los permisos adecuados para generar un token de acceso para que pueda comenzar a conectar sus datos de Procore a su solución BI. El acceso a Procore Analytics está vinculado a sus credenciales de inicio de sesión de Procore, lo que le permite generar un solo token de acceso. El token de acceso es una cadena de dígitos que ingresará en su sistema BI para acceder a los datos. 

Normalmente, los usuarios que necesitan tokens de acceso son ingenieros de datos o desarrolladores de Power BI.  Si tiene acceso a Procore Analytics en varias compañías, su token le permitirá extraer datos de todos ellos. El token está vinculado a usted, no a una compañía específica, por lo que sigue siendo el mismo en todas las compañías a las que tiene acceso.

A los administradores de la compañía y del proyecto se les otorgará un rol de administrador de forma predeterminada. Se permiten los siguientes niveles de acceso de usuario para la herramienta Procore Analytics:

  • Ninguno: No hay acceso a los datos Procore Analytics.
  • Administrador: tiene permisos de acceso completo a los datos para todas las herramientas y proyectos (excepto ciertos datos marcados como privados como datos de correspondencia).

Revocar el acceso

El acceso a herramientas y datos específicos del proyecto en la herramienta Procore Analytics se revocará cuando se eliminen los permisos de la herramienta y del proyecto correspondientes. Cuando el registro de contacto de un usuario se inactiva, el usuario perderá acceso a los datos Procore Analytics.

Generar credenciales de acceso a datos

Para empezar a acceder a los datos de Procore, hay dos opciones para generar las credenciales de acceso a los datos: el método de conexión directa de Databricks o el método Delta Share Token. El token de acceso es una cadena de dígitos que ingresará en el conector de datos correspondiente para acceder a los datos. 

Consideraciones

  • Debe tener habilitada la herramienta Procore Analytics. 
  • De forma predeterminada, todos los administradores de la compañía tienen acceso de nivel "Administrador" a Analytics en el directorio. 
  • Cualquier persona con acceso de nivel "Administrador" a Analytics puede conceder acceso a usuarios adicionales a la herramienta Analytics. 
  • Los usuarios deben tener acceso de nivel "Administrador" a la herramienta Analytics para generar un token de datos. 

Pasos

  1. Inicie sesión en Procore. 
  2. Haga clic en el icono Cuenta y perfil en el área superior derecha de la barra de navegación.
    Account Icon.png
  3. Haga clic en Configuración de mi perfil.  
  4. En Elija su conexión con Procore Analytics, tiene dos opciones para generar credenciales:
    • Databricks se conecta directamente o genera un token de acceso personal con Delta Share.
  5. Escriba el Identificador de uso compartido de Databricks para el método de conexión directa de Databricks y, a continuación, haga clic en Conectar. Consulte Conectar los datos de Procore a un área de trabajo de Databricks para obtener más información. 
    clipboard_e1d2ed9e3cf25a79f259dba109f03e4ab.png
  6. Para el método de token, seleccione Delta Share Token.
  7. Asegúrese de elegir una fecha de vencimiento.
  8. Haga clic en Generar tokens.
    ¡Importante! Se recomienda que copie y almacene su token para referencia futura, ya que Procore no almacena tokens para los usuarios. 
  9. Utilizará su token de portador, su nombre de recurso compartido, la URL del servidor de uso compartido de Delta y su versión de credenciales de uso compartido para comenzar a acceder a sus datos e integrarlos.
    analytics-generate-token.png
  10. Explore las secciones adicionales de la Guía de introducción para conocer los próximos pasos para conectar sus datos en función del método de conexión de datos deseado. 
 Nota:
  • El token desaparecerá después de una hora o también desaparecerá si navega fuera de la página. Para generar un nuevo token, vuelva al paso 1. 
  • Los datos pueden tardar hasta 24 horas en hacerse visibles.
  • No regenere su token durante este tiempo de procesamiento, ya que hacerlo puede causar problemas con su token.

Cargar informes en Power BI (si corresponde)

  1. Navegue a Procore Analytics desde el menú Herramientas de su compañía.
  2. Vaya a la sección Introducción .
  3. En Archivos de Power BI, seleccione y descargue los informes de Power BI disponibles. 
  4. Inicie sesión en el servicio Power BI con sus credenciales de inicio de sesión de Power BI.
  5. Cree un espacio de trabajo donde desee almacenar los reportes de Procore Analytics de su compañía. Consulte la documentación de soporte técnico de Power BI de Microsoft para obtener más información.
    Notas: Es posible que se apliquen requisitos de licencia.
  6. En el área de trabajo, haga clic en Cargar.
  7. Ahora haga clic en Examinar.
  8. Seleccione el archivo de reporte desde su ubicación en su computadora y haga clic en Abrir.
  9. Después de cargar el archivo, haga clic en Filtrar y seleccione Modelo archivado.
  10. Pase el cursor sobre la fila con el nombre del reporte y haga clic en el icono de puntos suspensivos verticales icon-ellipsis-options-menu3.png .
  11. Haga clic en Configuración.
  12. En la página de configuración, haga clic en credenciales de origen de datos y luego haga clic en Editar credenciales.
  13. En la ventana "Configurar [Nombre del reporte]" que aparece, complete lo siguiente:
    • Método de autenticación: Seleccione "Clave". 
    • Clave de cuenta: ingrese el token que recibió de la página de generación de token en Procore. 
    • Configuración de nivel de privacidad para esta fuente de datos: seleccione el nivel de privacidad. Recomendamos seleccionar "Privado" o "Organizativo". Consulte la documentación de soporte de Power BI de Microsoft para obtener más información sobre los niveles de privacidad.
  14. Haga clic en Iniciar sesión.
  15. Haga clic en Refresh y haga lo siguiente:
    • Zona horaria: seleccione la zona horaria que desea utilizar para las actualizaciones de datos programadas.
    • En Configurar un programa de actualización, gire el interruptor a la posición ENCENDIDO.
    • Frecuencia de actualización: seleccione "Diario".
    • Hora: haga clic en Agregar otra hora y seleccione 7:00 a.m.
      Nota: Puede agregar hasta 8 tiempos de actualización.
    • Opcional:
      • Marque la casilla de verificación "Enviar notificaciones de error de actualización al propietario del dataset" para enviar notificaciones de falla de actualización.
      • Ingrese las direcciones de correo electrónico de cualquier otro colega al que desee que el sistema envíe notificaciones de falla actualizada.
  16. Haga clic en Aplicar.
  17. Para verificar que los ajustes se configuraron correctamente y que los datos del reporte se actualizarán correctamente, regresen a la página "Filtrar y seleccionar Modelo de devolución" y complete los siguientes pasos:
    • Coloque el cursor sobre la fila con el nombre del reporte y haga clic en el icono de flecha circular para actualizar los datos manualmente.
    • Verifique la columna "Actualizada" para ver si hay un icono de advertencia icon-warning-estimating.png.
      • Si no aparece ningún icono de advertencia, los datos del informe se han actualizado correctamente.
      • Si se muestra un icono de advertencia, se ha producido un error. Haga clic en el icono de advertencia icon-warning-estimating.png para ver más información sobre el error.
  18. Para eliminar el tablero en blanco, el servicio Power BI creado automáticamente, complete los siguientes pasos:
    • Coloque el cursor sobre la fila con el nombre del tablero. Haga clic en el icono de puntos suspensivos icon-ellipsis-options-menu3.png y haga clic en Eliminar.
  19. Para verificar que el reporte se renderiza correctamente, navegue hasta la página "Todo" o "Contenido" y haga clic en el nombre del reporte para ver el reporte en el servicio Power BI.
     Recomendación
    Haga referencia a la columna "Tipo" para asegurarse de que haga clic en el reporte en lugar de un activo diferente.
  20. Repita los pasos anteriores dentro de Power BI para cada archivo de informe de Procore Analytics.

Conéctese al escritorio de Power BI

 Nota:
Estos métodos de conexión suelen ser utilizados por profesionales de datos.

Conectar nuevos datos

  1. Abra su escritorio de Power BI.
  2. Haga clic en Obtener datos y seleccione Más. 
  3. En la barra de búsqueda, escriba "Compartir en Delta".
  4. Seleccione Compartir en Delta, luego haga clic en Conectar
  5. Escriba o pegue la URL del servidor de uso compartido Delta que recibió de Procore.
  6. Haga clic en Aceptar
  7. Si es la primera vez que se conecta a esta fuente, se le pedirá que proporcione su token de portador de uso compartido de Delta.
  8. Haga clic en Conectar.
  9. Después de la autenticación, seleccione las tablas Procore Analytics que desea ingresar en su reporte Power BI. 
  10. Seleccione Cargar para ver su reporte o seleccione Transformar datos para hacer más revisiones en Power Query. 

Conectarse a una plantilla existente

  1. Abra Power BI Desktop.
  2. Haga clic en el menú desplegable Transformar datos y seleccione Configuración de fuente de datos .
  3. Seleccione Editar permisos.
  4. Haga clic en Editar
  5. Introduzca el token que ha recibido de Analytics 2.0.
  6. Haga clic en Actualizar.
  7. Las columnas de presupuesto personalizadas ahora aparecerán en las tablas Budget y BudgetSnapshots. 

Conexión a SQL Server mediante Python (SSIS)

Descripción general

La herramienta Procore Analytics Nube Connect Access es una interfaz de línea de comandos (CLI) que lo ayuda a configurar y administrar las transferencias de datos de Procore a MS SQL Server. Consta de dos componentes principales:

  •  user_exp.py (Utilidad de configuración de la instalación)
  • delta_share_to_azure_panda.py (script de sincronización de datos)

Requisitos previos

  • Python y pip instalados en su sistema.
  • Acceso a Procore Delta Share.
  • Credenciales de la cuenta de MS SQL Server.
  • Instale las dependencias necesarias: pip install -r requirements.txt.

Pasos

Configuración inicial

  • Ejecute la utilidad de configuración:
    Python user_exp.py

Esto te ayudará a configurar lo siguiente:

  • Configuración de origen de recursos compartidos delta
  • Configuración de destino de MS SQL Server
  • Preferencias de programación

Sincronización de datos

Después de la configuración, tiene dos opciones para ejecutar la sincronización de datos:

  1. Python de ejecución directa
    delta_share_to_azure_panda.py
    O
  2. Ejecución programada
    Si se configura durante la configuración, el trabajo se ejecutará automáticamente de acuerdo con su cron schedule.

Configuración de recursos compartidos delta

  1. Cree un nuevo archivo denominado config.share con sus credenciales de Delta Share en formato JSON.

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[1]"

 

  1. Obtener campos obligatorios:
    Nota: Estos detalles se pueden obtener de la aplicación web Procore Analytics.
    • ShareCredentialsVersion: número de versión (actualmente 1).
    • BearerToken: Su token de acceso a Delta Share.
    • Punto de conexión: la URL del punto de conexión de Delta Share.
    • Guarde el archivo en un lugar seguro.
  2. Al configurar la fuente de datos, se le pedirá que proporcione:
    • Lista de tablas (separadas por comas).
    • Dejar en blanco para sincronizar todas las tablas.
    • Ejemplo: 'tabla1, t able2tabla3'.
    • Ruta a su 'config.share' archivo.

Configuración de MS SQL Server

Deberá proporcionar los siguientes detalles de MS SQL Server:

  • base de datos
  • anfitrión
  • contraseña
  • esquema
  • nombre de usuario

Configuración de SSIS

  1. Usando la línea de comandos, navegue a la carpeta ingresando'cd'.<path to the folder>
  2. Instale los paquetes necesarios usando 'pip install -r requirements.txt' o 'python -m pip install -r requirements.txt'.
  3. Abra SSIS y cree un nuevo proyecto.
  4. En el Cuadro de herramientas de SSIS, arrastre y suelte la actividad "Ejecutar tarea de proceso".

    analytics-data-connector-sql-ssis.png
  5. Haga doble clic en 'Ejecutar tarea de proceso' y navegue hasta la pestaña Proceso.
  6. En 'Ejecutable', ingrese la ruta a python.exe en la carpeta de instalación de Python.
  7. En 'WorkingDirectory', ingrese una ruta a la carpeta que contiene el script que desea ejecutar (sin nombre de archivo de script).
  8. En 'Argumentos', ingrese el nombre del script 'delta_share_to_azure_panda.py' que desea ejecutar con el .py extensión y guardar.

    analytics-sql-ssis2.png
     
  9. Haga clic en el botón 'Inicio' en el panel superior:
    analytics-sql-ssis.png
  10. Durante la ejecución de la tarea, la salida de la consola de Python se muestra en la ventana de la consola externa.
  11. Una vez finalizada la tarea, mostrará una marca verde:

    analytics-sql-ssis1.png

Conectarse a SQL Server mediante la biblioteca de Python

Descripción general

Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.

Requisitos previos

Asegúrese de tener lo siguiente antes de continuar:

  • SKU de Procore Analytics 2.0
  • Archivo pofile de uso compartido de Delta:
    Obtenga el archivo *.share que contiene las credenciales de uso compartido delta. Para mayor comodidad, cópielo en el directorio de paquetes.
  • Entorno Python: Instale Python 3 y pip en su sistema.

 

Pasos

Preparar el paquete

  1. Cree un nuevo archivo denominado config.share con sus credenciales de Delta Share en formato JSON.

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[2]"

  1. Obtener campos obligatorios.
    Nota: Estos detalles se pueden obtener de la aplicación web Procore Analytics.
    • ShareCredentialsVersion: número de versión (actualmente 1).
    • BearerToken: Su token de acceso a Delta Share.
    • Punto de conexión: la URL del punto de conexión de Delta Share.
  2. Descargue y extraiga el paquete.
  3. Descomprima el paquete en un directorio de su elección.
  4. Copie el archivo de perfil *.share Delta Sharing en el directorio del paquete para facilitar el acceso.
    analytics-sql-windows2.png

Instalar dependencias

  1. Abra una terminal en el directorio de paquetes.
  2. Ejecute el siguiente comando para instalar las dependencias:
  3. pip install -r requirements.txt

Generar configuración

  1. Genere el archivo config.yaml ejecutando python user_exp.py:
    Este script ayuda a generar el archivo config.yaml que contiene las credenciales y la configuración necesarias.
  2. Al configurar la fuente de datos, se le pedirá que proporcione:
    • Lista de tablas (separadas por comas).
    • Dejar en blanco para sincronizar todas las tablas.
      Ejemplo: 'tabla1, tabla2, tabla3'.
    • Ruta a su 'config.share' archivo.
  3. Por primera vez, proporcionará sus credenciales, como la ubicación de configuración de origen de Delta Share, las tablas, la base de datos, el host, etc.
    Nota: Después, puede reutilizar o actualizar la configuración manualmente o mediante el user_exp.py python en ejecución nuevamente.

Configurar cron jobs y ejecución inmediata (opcional)

  1. Decida si desea configurar un cron job para su ejecución automática.
  2. Proporcione un cron schedule:
    • Formato: * * * * * ( minuto, hora, día del mes, mes, día de la semana).
    • Ejemplo de ejecución diaria a las 2 de la madrugada: 0 2 * * *
    • Para verificar los registros de programación, el archivo 'procore_scheduling.log' se creará tan pronto como se configure la programación.

También puede verificar la programación ejecutando el comando en la terminal:

Para Linux y MacOs:    

Para editar/eliminar - edite el cron de programación usando:

'''bash
EDITOR=nano crontab -e
```

  • Después de ejecutar el comando anterior, debería ver algo similar a:
  • 2 * * * * /Usuarios/your_user/copo de nieve/venv/bin/python /Usuarios/your_user/copo de nieve/sql_server_python/connection_config.py 2>&1 | mientras se lee la línea; do echo "$(fecha) - $line"; done >> /Usuarios/your_user/copo de nieve/sql_server_python/procore_scheduling.log # procore-data-import
  • También puede ajustar el cron de programación o eliminar toda la línea para que deje de ejecutarse según el programa.

Para Windows:

  • Compruebe que se ha creado la tarea de programa:
    '''PowerShell
    schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v

    ```
  • Para editar/eliminar - tarea de programación:
    Abra el Programador de tareas:
    • Presione Win + R, escriba taskschd.msc, y presione Enter.
    • Navegue hasta las tareas programadas.
    • En el panel izquierdo, expanda la Biblioteca del programador de tareas.
    • Busque la carpeta donde está guardada su tarea (por ejemplo, Biblioteca del programador de tareas o una carpeta personalizada).
  • Encuentre su tarea:
    • Busque el nombre de la tarea: ProcoreDeltaShareScheduling.
    • Haga clic en él para ver sus detalles en el panel inferior.
  • Verifica su horario:
    • Compruebe la pestaña Desencadenadores para ver cuándo está configurada la tarea para ejecutarse.
    • Compruebe la pestaña Historial para confirmar las ejecuciones recientes.
  • Para eliminar la tarea:
    • Eliminar tarea de la GUI.

Pregunta de ejecución inmediata:

  • Opción de ejecutar un script para copiar datos inmediatamente después de la configuración.
  • Después de generar el archivo config.yaml, la CLI está lista para ejecutarse en cualquier momento de forma independiente, mediante la ejecución de un script para copiar datos, según el paquete. Vea los ejemplos a continuación:
    Python delta_share_to_azure_panda.py
    O
    python delta_share_to_sql_spark.py
    O
    python delta_share_to_azure_dfs_spark.py

Ejecución y Mantenimiento

Problemas comunes y soluciones

  1. Configuración de Cron Job:
    • Asegúrese de que los permisos del sistema estén configurados correctamente.
    • Compruebe los registros del sistema si el trabajo no se puede ejecutar.
    •  Compruebe que el script delta_share_to_azure_panda.py tiene permisos de ejecución.
  2. Archivo de configuración:
    • Asegúrese de que el archivo config.yaml esté en el mismo directorio que el script.
    • Haga una copia de seguridad del archivo antes de realizar cambios.

Soporte

Para obtener ayuda adicional:

  1. Revise los registros de scripts para ver los mensajes de error detallados.
  2. Vuelva a comprobar si hay errores de configuración en el archivo config.yaml .
  3. Póngase en contacto con el administrador del sistema si tiene problemas relacionados con los permisos.
  4. Comuníquese con el soporte de Procore para problemas relacionados con el acceso a Delta Share.
  5. Registro de revisión de tablas con errores: failed_tables.log.

Notas

  1. Siempre haga una copia de seguridad de sus archivos de configuración antes de realizar cambios.
  2. Pruebe nuevas configuraciones en un entorno que no sea de producción para evitar interrupciones.

Conexión a SQL Server mediante Python Spark

Descripción general

Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.

Requisitos previos

Asegúrese de tener lo siguiente antes de continuar:

  • SKU de Procore Analytics 2.0
  • Archivo pofile de uso compartido de Delta:
    Obtenga el archivo *.share que contiene las credenciales de uso compartido delta. Para mayor comodidad, cópielo en el directorio de paquetes.
  • Entorno Python: Instale Python 3 y pip en su sistema.

 

Pasos

Preparar el paquete

  1. Cree un nuevo archivo denominado config.share con sus credenciales de Delta Share en formato JSON.

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[3]"

  1. Obtener campos obligatorios.
    Nota: Estos detalles se pueden obtener de la aplicación web Procore Analytics.
    • ShareCredentialsVersion: número de versión (actualmente 1).
    • BearerToken: Su token de acceso a Delta Share.
    • Punto de conexión: la URL del punto de conexión de Delta Share.
  2. Descargue y extraiga el paquete.
  3. Descomprima el paquete en un directorio de su elección.
  4. Copie el archivo de perfil *.share Delta Sharing en el directorio del paquete para facilitar el acceso.
    analytics-sql-windows2.png

Instalar dependencias

  1. Abra una terminal en el directorio de paquetes.
  2. Ejecute el siguiente comando para instalar las dependencias:
  3. pip install -r requirements.txt

Generar configuración

  1. Genere el archivo config.yaml ejecutando python user_exp.py:
    Este script ayuda a generar el archivo config.yaml que contiene las credenciales y la configuración necesarias.
  2. Al configurar la fuente de datos, se le pedirá que proporcione:
    • Lista de tablas (separadas por comas).
    • Dejar en blanco para sincronizar todas las tablas.
      Ejemplo: 'tabla1, tabla2, tabla3'.
    • Ruta a su 'config.share' archivo.
  3. Por primera vez, proporcionará sus credenciales, como la ubicación de configuración de origen de Delta Share, las tablas, la base de datos, el host, etc.
    Nota: Después, puede reutilizar o actualizar la configuración manualmente o mediante el user_exp.py python en ejecución nuevamente.

Configurar cron jobs y ejecución inmediata (opcional)

  1. Decida si desea configurar un cron job para su ejecución automática.
  2. Proporcione un cron schedule:
    • Formato: * * * * * ( minuto, hora, día del mes, mes, día de la semana).
    • Ejemplo de ejecución diaria a las 2 de la madrugada: 0 2 * * *
    • Para verificar los registros de programación, el archivo 'procore_scheduling.log' se creará tan pronto como se configure la programación.

También puede verificar la programación ejecutando el comando en la terminal:

Para Linux y MacOs:    

Para editar/eliminar - edite el cron de programación usando:

'''bash
EDITOR=nano crontab -e
```

  • Después de ejecutar el comando anterior, debería ver algo similar a:
  • 2 * * * * /Usuarios/your_user/copo de nieve/venv/bin/python /Usuarios/your_user/copo de nieve/sql_server_python/connection_config.py 2>&1 | mientras se lee la línea; do echo "$(fecha) - $line"; done >> /Usuarios/your_user/copo de nieve/sql_server_python/procore_scheduling.log # procore-data-import
  • También puede ajustar el cron de programación o eliminar toda la línea para que deje de ejecutarse según el programa.

Para Windows:

  • Compruebe que se ha creado la tarea de programa:
    '''PowerShell
    schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v

    ```
  • Para editar/eliminar - tarea de programación:
    Abra el Programador de tareas:
    • Presione Win + R, escriba taskschd.msc, y presione Enter.
    • Navegue hasta las tareas programadas.
    • En el panel izquierdo, expanda la Biblioteca del programador de tareas.
    • Busque la carpeta donde está guardada su tarea (por ejemplo, Biblioteca del programador de tareas o una carpeta personalizada).
  • Encuentre su tarea:
    • Busque el nombre de la tarea: ProcoreDeltaShareScheduling.
    • Haga clic en él para ver sus detalles en el panel inferior.
  • Verifica su horario:
    • Compruebe la pestaña Desencadenadores para ver cuándo está configurada la tarea para ejecutarse.
    • Compruebe la pestaña Historial para confirmar las ejecuciones recientes.
  • Para eliminar la tarea:
    • Eliminar tarea de la GUI.

Pregunta de ejecución inmediata:

  • Opción de ejecutar un script para copiar datos inmediatamente después de la configuración.
  • Después de generar el archivo config.yaml, la CLI está lista para ejecutarse en cualquier momento de forma independiente, mediante la ejecución de un script para copiar datos, según el paquete. Vea los ejemplos a continuación:
    Python delta_share_to_azure_panda.py
    O
    python delta_share_to_sql_spark.py
    O
    python delta_share_to_azure_dfs_spark.py

Ejecución y Mantenimiento

Problemas comunes y soluciones

  1. Configuración de Cron Job:
    • Asegúrese de que los permisos del sistema estén configurados correctamente.
    • Compruebe los registros del sistema si el trabajo no se puede ejecutar.
    •  Compruebe que el script delta_share_to_azure_panda.py tiene permisos de ejecución.
  2. Archivo de configuración:
    • Asegúrese de que el archivo config.yaml esté en el mismo directorio que el script.
    • Haga una copia de seguridad del archivo antes de realizar cambios.

Soporte

Para obtener ayuda adicional:

  1. Revise los registros de scripts para ver los mensajes de error detallados.
  2. Vuelva a comprobar si hay errores de configuración en el archivo config.yaml .
  3. Póngase en contacto con el administrador del sistema si tiene problemas relacionados con los permisos.
  4. Comuníquese con el soporte de Procore para problemas relacionados con el acceso a Delta Share.
  5. Registro de revisión de tablas con errores: failed_tables.log.

Notas

  1. Siempre haga una copia de seguridad de sus archivos de configuración antes de realizar cambios.
  2. Pruebe nuevas configuraciones en un entorno que no sea de producción para evitar interrupciones.

Conexión a ADLS mediante Azure Functions

Descripción general

Esta guía le guía a través de la configuración e implementación de una función de Azure para integrar datos de uso compartido delta con Procore Analytics. La función de Azure permite el procesamiento eficaz de datos y el uso compartido de flujos de trabajo con perfiles de uso compartido diferencial.

Requisitos previos

  • SKU de Procore Analytics 2.0.
  • Archivo de perfil de uso compartido delta:
    • Su archivo *.share que contiene credenciales de uso compartido delta. Para mayor comodidad, colóquelo dentro del paquete descargado.
    • Entorno de Python:
      • Instaló Python 3.9+ y pip en su sistema.
  •  Configuración de Azure:
    • CLI de Azure instalada e iniciada sesión.
    • Herramientas esenciales de Azure Functions instaladas.

Pasos

Preparar el paquete

  1. Descargue el paquete requerido (adls_azure_function o sql_server_azure_function).
  2. Extraiga los archivos del paquete a un directorio local.
  3. Coloque el archivo de uso compartido de Delta:
    • Copie su archivo de perfil *.share Delta Sharing en el directorio extraído.

 Instalar dependencias

  1. Abra una terminal en el directorio de paquetes.
  2. Ejecute el siguiente comando para instalar las dependencias de Python necesarias:
    • pip install -r requirements.txt

Generar configuración

  1. Genere el archivo config.yaml ejecutando:
    • Python user_exp.py
  2. El script le pedirá que introduzca credenciales como:
    • Mesas
    • Nombre de la base de datos
    • Anfitrión
    • Credenciales adicionales..
  3. La configuración se puede reutilizar o actualizar manualmente o volviendo a ejecutar python user_exp.py.

 Configuración de la CLI de Azure

  1. Inicie sesión en Azure.
  2. Ejecute el siguiente comando para iniciar sesión:
    az login
  3. Comprobación de la cuenta de Azure:
    • az account show
    • Si el comando az no está disponible, instale la CLI de Azure siguiendo las instrucciones que se encuentran aquí: Microsoft Learn.

Instalación de las herramientas esenciales de Azure Functions

Vete a

para obtener instrucciones sobre cómo instalar las herramientas esenciales de Azure Functions.

Preparación de la función de Azure

  1. Utilizar elpara crear lo siguiente:
    • Una aplicación de funciones
    • Un grupo de recursos
    • Plan de consumo
    • Cuenta de almacenamiento
  2. Establecer un programa de cron personalizado (opcional).
    • Abra function_app.py en un editor.
    • Localice la línea: @app.timer_trigger(schedule="0 0 */8 * * *",
  3. Reemplace la programación con su expresión Cron personalizada y guarde el archivo.

Despliegue

  1. Abra un terminal en el directorio de paquetes (adls_azure_function).
  2. Ejecute el siguiente comando de implementación:
    • func azure functionapp publish <FunctionAppName> --build remote --python --clean
  3. Reemplace <FunctionAppName> por el nombre de la aplicación de funciones de Azure en la suscripción de Azure.

Validación

  • Asegúrese de que la implementación se realiza correctamente comprobando el estado de la aplicación de funciones en el Portal de Azure.
  • Supervise los registros para comprobar que la función se está ejecutando según lo previsto.

 

Conéctese a ADLS mediante Python

Descripción general

Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.

Requisitos previos

Asegúrese de tener lo siguiente antes de continuar:

  • SKU de Procore Analytics 2.0
  • Archivo pofile de uso compartido de Delta:
    Obtenga el archivo *.share que contiene las credenciales de uso compartido delta. Para mayor comodidad, cópielo en el directorio de paquetes.
  • Entorno Python: Instale Python 3 y pip en su sistema.

 

Pasos

Preparar el paquete

  1. Cree un nuevo archivo denominado config.share con sus credenciales de Delta Share en formato JSON.

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[4]"

  1. Obtener campos obligatorios.
    Nota: Estos detalles se pueden obtener de la aplicación web Procore Analytics.
    • ShareCredentialsVersion: número de versión (actualmente 1).
    • BearerToken: Su token de acceso a Delta Share.
    • Punto de conexión: la URL del punto de conexión de Delta Share.
  2. Descargue y extraiga el paquete.
  3. Descomprima el paquete en un directorio de su elección.
  4. Copie el archivo de perfil *.share Delta Sharing en el directorio del paquete para facilitar el acceso.
    analytics-sql-windows2.png

Instalar dependencias

  1. Abra una terminal en el directorio de paquetes.
  2. Ejecute el siguiente comando para instalar las dependencias:
  3. pip install -r requirements.txt

Generar configuración

  1. Genere el archivo config.yaml ejecutando python user_exp.py:
    Este script ayuda a generar el archivo config.yaml que contiene las credenciales y la configuración necesarias.
  2. Al configurar la fuente de datos, se le pedirá que proporcione:
    • Lista de tablas (separadas por comas).
    • Dejar en blanco para sincronizar todas las tablas.
      Ejemplo: 'tabla1, tabla2, tabla3'.
    • Ruta a su 'config.share' archivo.
  3. Por primera vez, proporcionará sus credenciales, como la ubicación de configuración de origen de Delta Share, las tablas, la base de datos, el host, etc.
    Nota: Después, puede reutilizar o actualizar la configuración manualmente o mediante el user_exp.py python en ejecución nuevamente.

Configurar cron jobs y ejecución inmediata (opcional)

  1. Decida si desea configurar un cron job para su ejecución automática.
  2. Proporcione un cron schedule:
    • Formato: * * * * * ( minuto, hora, día del mes, mes, día de la semana).
    • Ejemplo de ejecución diaria a las 2 de la madrugada: 0 2 * * *
    • Para verificar los registros de programación, el archivo 'procore_scheduling.log' se creará tan pronto como se configure la programación.

También puede verificar la programación ejecutando el comando en la terminal:

Para Linux y MacOs:    

Para editar/eliminar - edite el cron de programación usando:

'''bash
EDITOR=nano crontab -e
```

  • Después de ejecutar el comando anterior, debería ver algo similar a:
  • 2 * * * * /Usuarios/your_user/copo de nieve/venv/bin/python /Usuarios/your_user/copo de nieve/sql_server_python/connection_config.py 2>&1 | mientras se lee la línea; do echo "$(fecha) - $line"; done >> /Usuarios/your_user/copo de nieve/sql_server_python/procore_scheduling.log # procore-data-import
  • También puede ajustar el cron de programación o eliminar toda la línea para que deje de ejecutarse según el programa.

Para Windows:

  • Compruebe que se ha creado la tarea de programa:
    '''PowerShell
    schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v

    ```
  • Para editar/eliminar - tarea de programación:
    Abra el Programador de tareas:
    • Presione Win + R, escriba taskschd.msc, y presione Enter.
    • Navegue hasta las tareas programadas.
    • En el panel izquierdo, expanda la Biblioteca del programador de tareas.
    • Busque la carpeta donde está guardada su tarea (por ejemplo, Biblioteca del programador de tareas o una carpeta personalizada).
  • Encuentre su tarea:
    • Busque el nombre de la tarea: ProcoreDeltaShareScheduling.
    • Haga clic en él para ver sus detalles en el panel inferior.
  • Verifica su horario:
    • Compruebe la pestaña Desencadenadores para ver cuándo está configurada la tarea para ejecutarse.
    • Compruebe la pestaña Historial para confirmar las ejecuciones recientes.
  • Para eliminar la tarea:
    • Eliminar tarea de la GUI.

Pregunta de ejecución inmediata:

  • Opción de ejecutar un script para copiar datos inmediatamente después de la configuración.
  • Después de generar el archivo config.yaml, la CLI está lista para ejecutarse en cualquier momento de forma independiente, mediante la ejecución de un script para copiar datos, según el paquete. Vea los ejemplos a continuación:
    Python delta_share_to_azure_panda.py
    O
    python delta_share_to_sql_spark.py
    O
    python delta_share_to_azure_dfs_spark.py

Ejecución y Mantenimiento

Problemas comunes y soluciones

  1. Configuración de Cron Job:
    • Asegúrese de que los permisos del sistema estén configurados correctamente.
    • Compruebe los registros del sistema si el trabajo no se puede ejecutar.
    •  Compruebe que el script delta_share_to_azure_panda.py tiene permisos de ejecución.
  2. Archivo de configuración:
    • Asegúrese de que el archivo config.yaml esté en el mismo directorio que el script.
    • Haga una copia de seguridad del archivo antes de realizar cambios.

Soporte

Para obtener ayuda adicional:

  1. Revise los registros de scripts para ver los mensajes de error detallados.
  2. Vuelva a comprobar si hay errores de configuración en el archivo config.yaml .
  3. Póngase en contacto con el administrador del sistema si tiene problemas relacionados con los permisos.
  4. Comuníquese con el soporte de Procore para problemas relacionados con el acceso a Delta Share.
  5. Registro de revisión de tablas con errores: failed_tables.log.

Notas

  1. Siempre haga una copia de seguridad de sus archivos de configuración antes de realizar cambios.
  2. Pruebe nuevas configuraciones en un entorno que no sea de producción para evitar interrupciones.

 

Conexión a ADLS mediante Spark

Descripción general

Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.

Requisitos previos

Asegúrese de tener lo siguiente antes de continuar:

  • SKU de Procore Analytics 2.0
  • Archivo pofile de uso compartido de Delta:
    Obtenga el archivo *.share que contiene las credenciales de uso compartido delta. Para mayor comodidad, cópielo en el directorio de paquetes.
  • Entorno Python: Instale Python 3 y pip en su sistema.

 

Pasos

Preparar el paquete

  1. Cree un nuevo archivo denominado config.share con sus credenciales de Delta Share en formato JSON.

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[5]"

  1. Obtener campos obligatorios.
    Nota: Estos detalles se pueden obtener de la aplicación web Procore Analytics.
    • ShareCredentialsVersion: número de versión (actualmente 1).
    • BearerToken: Su token de acceso a Delta Share.
    • Punto de conexión: la URL del punto de conexión de Delta Share.
  2. Descargue y extraiga el paquete.
  3. Descomprima el paquete en un directorio de su elección.
  4. Copie el archivo de perfil *.share Delta Sharing en el directorio del paquete para facilitar el acceso.
    analytics-sql-windows2.png

Instalar dependencias

  1. Abra una terminal en el directorio de paquetes.
  2. Ejecute el siguiente comando para instalar las dependencias:
  3. pip install -r requirements.txt

Generar configuración

  1. Genere el archivo config.yaml ejecutando python user_exp.py:
    Este script ayuda a generar el archivo config.yaml que contiene las credenciales y la configuración necesarias.
  2. Al configurar la fuente de datos, se le pedirá que proporcione:
    • Lista de tablas (separadas por comas).
    • Dejar en blanco para sincronizar todas las tablas.
      Ejemplo: 'tabla1, tabla2, tabla3'.
    • Ruta a su 'config.share' archivo.
  3. Por primera vez, proporcionará sus credenciales, como la ubicación de configuración de origen de Delta Share, las tablas, la base de datos, el host, etc.
    Nota: Después, puede reutilizar o actualizar la configuración manualmente o mediante el user_exp.py python en ejecución nuevamente.

Configurar cron jobs y ejecución inmediata (opcional)

  1. Decida si desea configurar un cron job para su ejecución automática.
  2. Proporcione un cron schedule:
    • Formato: * * * * * ( minuto, hora, día del mes, mes, día de la semana).
    • Ejemplo de ejecución diaria a las 2 de la madrugada: 0 2 * * *
    • Para verificar los registros de programación, el archivo 'procore_scheduling.log' se creará tan pronto como se configure la programación.

También puede verificar la programación ejecutando el comando en la terminal:

Para Linux y MacOs:    

Para editar/eliminar - edite el cron de programación usando:

'''bash
EDITOR=nano crontab -e
```

  • Después de ejecutar el comando anterior, debería ver algo similar a:
  • 2 * * * * /Usuarios/your_user/copo de nieve/venv/bin/python /Usuarios/your_user/copo de nieve/sql_server_python/connection_config.py 2>&1 | mientras se lee la línea; do echo "$(fecha) - $line"; done >> /Usuarios/your_user/copo de nieve/sql_server_python/procore_scheduling.log # procore-data-import
  • También puede ajustar el cron de programación o eliminar toda la línea para que deje de ejecutarse según el programa.

Para Windows:

  • Compruebe que se ha creado la tarea de programa:
    '''PowerShell
    schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v

    ```
  • Para editar/eliminar - tarea de programación:
    Abra el Programador de tareas:
    • Presione Win + R, escriba taskschd.msc, y presione Enter.
    • Navegue hasta las tareas programadas.
    • En el panel izquierdo, expanda la Biblioteca del programador de tareas.
    • Busque la carpeta donde está guardada su tarea (por ejemplo, Biblioteca del programador de tareas o una carpeta personalizada).
  • Encuentre su tarea:
    • Busque el nombre de la tarea: ProcoreDeltaShareScheduling.
    • Haga clic en él para ver sus detalles en el panel inferior.
  • Verifica su horario:
    • Compruebe la pestaña Desencadenadores para ver cuándo está configurada la tarea para ejecutarse.
    • Compruebe la pestaña Historial para confirmar las ejecuciones recientes.
  • Para eliminar la tarea:
    • Eliminar tarea de la GUI.

Pregunta de ejecución inmediata:

  • Opción de ejecutar un script para copiar datos inmediatamente después de la configuración.
  • Después de generar el archivo config.yaml, la CLI está lista para ejecutarse en cualquier momento de forma independiente, mediante la ejecución de un script para copiar datos, según el paquete. Vea los ejemplos a continuación:
    Python delta_share_to_azure_panda.py
    O
    python delta_share_to_sql_spark.py
    O
    python delta_share_to_azure_dfs_spark.py

Ejecución y Mantenimiento

Problemas comunes y soluciones

  1. Configuración de Cron Job:
    • Asegúrese de que los permisos del sistema estén configurados correctamente.
    • Compruebe los registros del sistema si el trabajo no se puede ejecutar.
    •  Compruebe que el script delta_share_to_azure_panda.py tiene permisos de ejecución.
  2. Archivo de configuración:
    • Asegúrese de que el archivo config.yaml esté en el mismo directorio que el script.
    • Haga una copia de seguridad del archivo antes de realizar cambios.

Soporte

Para obtener ayuda adicional:

  1. Revise los registros de scripts para ver los mensajes de error detallados.
  2. Vuelva a comprobar si hay errores de configuración en el archivo config.yaml .
  3. Póngase en contacto con el administrador del sistema si tiene problemas relacionados con los permisos.
  4. Comuníquese con el soporte de Procore para problemas relacionados con el acceso a Delta Share.
  5. Registro de revisión de tablas con errores: failed_tables.log.

Notas

  1. Siempre haga una copia de seguridad de sus archivos de configuración antes de realizar cambios.
  2. Pruebe nuevas configuraciones en un entorno que no sea de producción para evitar interrupciones.

 

Conexión a Fabric Lakehouse mediante Data Factory

Descripción general

La integración de Delta Sharing con Microsoft Fabric Data Factory permite el acceso y el procesamiento sin problemas de tablas Delta compartidas para sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing, un protocolo abierto para la colaboración segura de datos, garantiza que las organizaciones puedan compartir datos sin duplicación.

Requisitos previos

  •  SKU de Procore Analytics 2.0
  • Credenciales de uso compartido de Delta:
    • Obtenga el archivo de credenciales de usocompartido delta share.json (o equivalente) de su proveedor de datos.
    • Este archivo debe incluir:
      • URL del punto de conexión: la URL del servidor de uso compartido diferencial.
      • Ficha al portador: Se utiliza para el acceso seguro a los datos.
  • Configuración de Microsoft Fabric:
    • Una cuenta de inquilino de Microsoft Fabric con una suscripción activa.
    • Acceso a un área de trabajo habilitada para Microsoft Fabric.

Pasos

Cambiar a la experiencia de Data Factory

  1. Vaya al área de trabajo de Microsoft Fabric.
    clipboard_efd065fed3e214b84c9b311d011d8ae67.png
     
  2. Selecciona Nuevo y, luego, elige Dataflow Gen2.
    clipboard_e73cb72aa551cc8730795b5bd53bb8a7a.png

Configurar el flujo de datos

  1. Vaya al editor de flujo de datos.
  2. Haga clic en Obtener datos y seleccione Más.
  3. En Nuevo origen, seleccione Otro uso compartido delta como origen de datos.
    clipboard_efb6b95e01a2211ba291f186035b8b4ab.png
  4. Ingrese los siguientes detalles:
    • URL: Desde el archivo de configuración de uso compartido diferencial.
    • Token de portador: se encuentra en el archivo config.share.
      clipboard_eb997dd0c67cf6e2bcf47cfc9d7e5d71c.png
  5. Haga clic en Siguiente y seleccione las tablas deseadas.
  6. Haga clic en Crear para completar la configuración.

Realizar transformaciones de datos

Después de configurar el flujo de datos, ahora puede aplicar transformaciones a los datos Delta compartidos. Elija su opción Delta Sharing Data de la siguiente lista:

  • Agregar destino de datos
  • Crear/Abrir Lakehouse

Agregar destino de datos

  1. Vaya a Data Factory.
  2. Haga clic en Agregar destino de datos.
  3. Seleccione Lakehouse como destino y haga clic en Siguiente.
  4. Elija su destino objetivo y confirme haciendo clic en Siguiente.

Crear-Abrir Casa del Lago

  1. Crea/abre tuLakehouse y haz clic en Obtener datos.
  2. Selecciona Nueva generación de Dataflow 2.
  3. Haga clic en Obtener datos, luego en Más y busque Uso compartido de Delta.
  4. Ingrese el token de portador de la URL de su archivo config.share y luego seleccione Next.
  5. Elija los datos o tablas que desee descargar y haga clic en Siguiente.
  6. Después de estas manipulaciones, debería tener todos los datos seleccionados en su Fabric Lakehouse.

Validación y Monitoreo

Pruebe sus canalizaciones y flujos de datos para garantizar una ejecución sin problemas. Uso de herramientas de supervisión en Datos
Fábrica para realizar un seguimiento del progreso y registros de cada actividad.

Conéctese a Fabric Lakehouse mediante cuadernos de tela

Descripción general

El uso de Data Factory en Microsoft Fabric con uso compartido de Delta permite una integración y un procesamiento perfectos de tablas Delta compartidas como parte de sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing es un protocolo abierto para el intercambio seguro de datos, que permite la colaboración entre organizaciones sin duplicar datos.

Esta guía le guiará a través de los pasos para configurar y usar Data Factory en Fabric con Delta Sharing, utilizando Notebooks para procesar y exportar datos a un Lakehouse.

Requisitos previos

  • SKU de Procore Analytics 2.0
  • Credenciales de uso compartido de Delta:
    • Acceso a las credenciales de uso compartido de Delta proporcionadas por un proveedor de datos.
    • Un archivo de perfil de uso compartido (config.share) Contiene:
      • URL del punto de conexión (URL del servidor de uso compartido delta).
      • Token de acceso (token de portador para el acceso seguro a los datos).
  • Cree el archivo config.yaml con credenciales específicas.
  • Entorno de Microsoft Fabric:
    • Una cuenta de inquilino de Microsoft Fabric con una suscripción activa.
    • Un espacio de trabajo habilitado para Fabric.
  • Paquetes y scripts:
    • Descargue el paquete fabric-lakehouse. El directorio debe incluir:
      • ds_to_lakehouse.py: Código del cuaderno.
      • readme.md: Instrucciones.

Pasos

Configurar la configuración

  1. Cree el archivo config.yaml y defina la configuración en la siguiente estructura
    source_config:
        config_path: ruta/a/su/delta-compartir-credenciales-archivo.share
    tablas: # Opcional - Dejar vacío para procesar todas las tablas
        - table_name1
        - table_name2
    target_config:
        lakehouse_path: ruta/a/tu/tela/lakehouse/Tablas/ # Ruta a la casa del lago de tela

Configura tu Lakehouse

  1. Abra el área de trabajo de Microsoft Fabric.
  2. Navegue hasta su Lakehouse y haga clic en Abrir bloc de notas y, a continuación, en Nuevo bloc de notas.
  3. Si no conoce el valor de config.yaml#lakehouse_path, Puedes copiarlo desde la pantalla.
  4. Haga clic en los puntos suspensivos en los archivos y seleccione Copiar ruta ABFS:
    clipboard_e5dd266d8c6a622cceb30dd893a9106d7.png
    clipboard_e08827dbe6aeae6ac8f2bec7f5c758325.png
    clipboard_e390331535300f7f89fd0a91c9a3adebe.png

3. Copie el código de ds_to_lakehouse.py y péguelo en la ventana del cuaderno (Pyspark Python):

clipboard_e5b5d27813f9bebdfbe7dae73291cb3ae.png

El siguiente paso es cargar sus propios config.yaml y config.share en la carpeta Resources de Lakehouse. Puede crear su propio directorio o usar un directorio integrado (ya creado para recursos por Lakehouse):


clipboard_eb5765c4bbf3ac93bd7c51ba6373f8049.png
clipboard_e86d913b62d37d237524537676680e4f3.png

El siguiente ejemplo muestra un directorio interno estándar para un fichero config.yaml.
Nota: Asegúrese de cargar ambos archivos en el mismo nivel y para la propiedad config_path:

clipboard_e8ca378a5a0937b4b675d00adc2ec965f.png

4. Verifique el código del cuaderno, líneas 170-175.
El siguiente ejemplo muestra los cambios de línea necesarios:

config_path = "./env/config.yaml"

Para 

config_path = "./builtin/config.yaml"

Dado que los archivos están en una carpeta interna y no en un entorno personalizado, asegúrese de supervisar su propia estructura de archivos. Puede cargarlos en diferentes carpetas, pero en tales casos, actualice el código del bloc de notas para encontrar el archivo config.yaml correctamente.
 

clipboard_e44e5ad3be4a06929aba88716b0fdaa23.png

5. Haga clic en Ejecutar celda:


clipboard_e381c59ce2e4e9471efc0e9e4cc663b6d.png

Validación

  • Una vez que se complete el trabajo, verifique que los datos se hayan copiado correctamente en su Lakehouse.
  • Compruebe las tablas especificadas y asegúrese de que los datos coincidan con las tablas Delta compartidas.
  • Espere hasta que finalice el trabajo, debe copiar todos los datos.

Conexión a SQL Server mediante Azure Functions

Descripción general

Esta guía le guía a través de la configuración e implementación de una función de Azure para integrar datos de uso compartido delta con Procore Analytics. La función de Azure permite el procesamiento eficaz de datos y el uso compartido de flujos de trabajo con perfiles de uso compartido diferencial.

Requisitos previos

  • SKU de Procore Analytics 2.0.
  • Archivo de perfil de uso compartido delta:
    • Su archivo *.share que contiene credenciales de uso compartido delta. Para mayor comodidad, colóquelo dentro del paquete descargado.
    • Entorno de Python:
      • Instaló Python 3.9+ y pip en su sistema.
  •  Configuración de Azure:
    • CLI de Azure instalada e iniciada sesión.
    • Herramientas esenciales de Azure Functions instaladas.

Pasos

Preparar el paquete

  1. Descargue el paquete requerido (adls_azure_function o sql_server_azure_function).
  2. Extraiga los archivos del paquete a un directorio local.
  3. Coloque el archivo de uso compartido de Delta:
    • Copie su archivo de perfil *.share Delta Sharing en el directorio extraído.

 Instalar dependencias

  1. Abra una terminal en el directorio de paquetes.
  2. Ejecute el siguiente comando para instalar las dependencias de Python necesarias:
    • pip install -r requirements.txt

Generar configuración

  1. Genere el archivo config.yaml ejecutando:
    • Python user_exp.py
  2. El script le pedirá que introduzca credenciales como:
    • Mesas
    • Nombre de la base de datos
    • Anfitrión
    • Credenciales adicionales..
  3. La configuración se puede reutilizar o actualizar manualmente o volviendo a ejecutar python user_exp.py.

 Configuración de la CLI de Azure

  1. Inicie sesión en Azure.
  2. Ejecute el siguiente comando para iniciar sesión:
    az login
  3. Comprobación de la cuenta de Azure:
    • az account show
    • Si el comando az no está disponible, instale la CLI de Azure siguiendo las instrucciones que se encuentran aquí: Microsoft Learn.

Instalación de las herramientas esenciales de Azure Functions

Vete a

para obtener instrucciones sobre cómo instalar las herramientas esenciales de Azure Functions.

Preparación de la función de Azure

  1. Utilizar elpara crear lo siguiente:
    • Una aplicación de funciones
    • Un grupo de recursos
    • Plan de consumo
    • Cuenta de almacenamiento
  2. Establecer un programa de cron personalizado (opcional).
    • Abra function_app.py en un editor.
    • Localice la línea: @app.timer_trigger(schedule="0 0 */8 * * *",
  3. Reemplace la programación con su expresión Cron personalizada y guarde el archivo.

Despliegue

  1. Abra un terminal en el directorio de paquetes (adls_azure_function).
  2. Ejecute el siguiente comando de implementación:
    • func azure functionapp publish <FunctionAppName> --build remote --python --clean
  3. Reemplace <FunctionAppName> por el nombre de la aplicación de funciones de Azure en la suscripción de Azure.

Validación

  • Asegúrese de que la implementación se realiza correctamente comprobando el estado de la aplicación de funciones en el Portal de Azure.
  • Supervise los registros para comprobar que la función se está ejecutando según lo previsto.

Conexión a SQL Server mediante Data Factory

Vista general 

En este documento se proporcionan instrucciones paso a paso para configurar una canalización de datos en Microsoft Fabric para transferir datos de Delta Share a un almacén de SQL. Esta configuración permite una integración de datos perfecta entre los orígenes de Delta Lake y los destinos de SQL.

Requisitos previos

  • Cuenta activa de Microsoft Fabric con los permisos adecuados.
  • Credenciales de Delta Share.
  • Credenciales de almacén de SQL.
  • Acceso a Data Flow Gen2 en Fabric.

Pasos

Acceder a Data Flow Gen2

  1. Inicie sesión en su cuenta de Microsoft Fabric.
  2. Navegue hasta el espacio de trabajo.
  3. Seleccione "Data Flow Gen2" entre las opciones disponibles.

Configurar origen de datos

  1. Haga clic en "Datos de otra fuente" para comenzar la configuración.
  2. En la pantalla Obtener datos, haga lo siguiente:
    • Busque la barra de búsqueda con la etiqueta 'Elegir fuente de datos'.
    • Escriba "delta sharing" en el campo de búsqueda.
    • Seleccione Uso compartido delta en los resultados.

Configurar la conexión Delta Share

  1. Ingrese sus credenciales de Delta Share cuando se le solicite.
    • Asegúrese de que todos los campos obligatorios se completen con precisión.
    • Valide la conexión si es posible.
  2. Haga clic en 'Siguiente' para continuar.
  3. Revise la lista de tablas disponibles:
    • Se mostrarán todas las mesas a las que tiene acceso.
    • Seleccione las tablas deseadas para la transferencia.

Configurar el destino de los datos

  1. Haga clic en 'Agregar destino de datos'.
  2. Seleccione "Almacén SQL" como destino.
  3. Introduzca las credenciales SQL:
    • Detalles del servidor.
    • Información de autenticación.
    • Especificaciones de la base de datos.
    • Compruebe la configuración de la conexión.

Finalizar e implementar

  1. Revise todas las configuraciones.
  2. Haga clic en "Publicar" para implementar el flujo de datos.
  3. Espere el mensaje de confirmación.

Verificación

  1. Acceda a su almacén de SQL.
  2. Verifique que los datos estén disponibles y estructurados correctamente.
  3. Ejecute consultas de prueba para garantizar la integridad de los datos.

Solución de problemas

Problemas comunes y soluciones:

  • Errores de conexión: compruebe las credenciales y la conectividad de red.
  • Tablas que faltan: compruebe los permisos de uso compartido delta.
  • Problemas de rendimiento: revise la configuración de optimización y asignación de recursos.

Conexión a SQL Server mediante Fabric Notebook

Descripción general

El uso de Data Factory en Microsoft Fabric con uso compartido de Delta permite una integración y un procesamiento perfectos de tablas Delta compartidas como parte de sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing es un protocolo abierto para el intercambio seguro de datos, que permite la colaboración entre organizaciones sin duplicar datos.

Esta guía le guiará a través de los pasos para configurar y usar Data Factory en Fabric con Delta Sharing, utilizando Notebooks para procesar y exportar datos a un Lakehouse.

Requisitos previos

  • SKU de Procore Analytics 2.0
  • Credenciales de uso compartido de Delta:
    • Acceso a las credenciales de uso compartido de Delta proporcionadas por un proveedor de datos.
    • Un archivo de perfil de uso compartido (config.share) Contiene:
      • URL del punto de conexión (URL del servidor de uso compartido delta).
      • Token de acceso (token de portador para el acceso seguro a los datos).
  • Cree el archivo config.yaml con credenciales específicas.
  • Entorno de Microsoft Fabric:
    • Una cuenta de inquilino de Microsoft Fabric con una suscripción activa.
    • Un espacio de trabajo habilitado para Fabric.
  • Paquetes y scripts:
    • Descargue el paquete fabric-lakehouse. El directorio debe incluir:
      • ds_to_lakehouse.py: Código del cuaderno.
      • readme.md: Instrucciones.

Pasos

Configurar la configuración

  1. Cree el archivo config.yaml y defina la configuración en la siguiente estructura
    source_config:
        config_path: ruta/a/su/delta-compartir-credenciales-archivo.share
    tablas: # Opcional - Dejar vacío para procesar todas las tablas
        - table_name1
        - table_name2
    target_config:
        lakehouse_path: ruta/a/tu/tela/lakehouse/Tablas/ # Ruta a la casa del lago de tela

Configura tu Lakehouse

  1. Abra el área de trabajo de Microsoft Fabric.
  2. Navegue hasta su Lakehouse y haga clic en Abrir bloc de notas y, a continuación, en Nuevo bloc de notas.
  3. Si no conoce el valor de config.yaml#lakehouse_path, Puedes copiarlo desde la pantalla.
  4. Haga clic en los puntos suspensivos en los archivos y seleccione Copiar ruta ABFS:
    clipboard_e5dd266d8c6a622cceb30dd893a9106d7.png
    clipboard_e08827dbe6aeae6ac8f2bec7f5c758325.png
    clipboard_e390331535300f7f89fd0a91c9a3adebe.png

3. Copie el código de ds_to_lakehouse.py y péguelo en la ventana del cuaderno (Pyspark Python):

clipboard_e5b5d27813f9bebdfbe7dae73291cb3ae.png

El siguiente paso es cargar sus propios config.yaml y config.share en la carpeta Resources de Lakehouse. Puede crear su propio directorio o usar un directorio integrado (ya creado para recursos por Lakehouse):


clipboard_eb5765c4bbf3ac93bd7c51ba6373f8049.png
clipboard_e86d913b62d37d237524537676680e4f3.png

El siguiente ejemplo muestra un directorio interno estándar para un fichero config.yaml.
Nota: Asegúrese de cargar ambos archivos en el mismo nivel y para la propiedad config_path:

clipboard_e8ca378a5a0937b4b675d00adc2ec965f.png

4. Verifique el código del cuaderno, líneas 170-175.
El siguiente ejemplo muestra los cambios de línea necesarios:

config_path = "./env/config.yaml"

Para 

config_path = "./builtin/config.yaml"

Dado que los archivos están en una carpeta interna y no en un entorno personalizado, asegúrese de supervisar su propia estructura de archivos. Puede cargarlos en diferentes carpetas, pero en tales casos, actualice el código del bloc de notas para encontrar el archivo config.yaml correctamente.
 

clipboard_e44e5ad3be4a06929aba88716b0fdaa23.png

5. Haga clic en Ejecutar celda:


clipboard_e381c59ce2e4e9471efc0e9e4cc663b6d.png

Validación

  • Una vez que se complete el trabajo, verifique que los datos se hayan copiado correctamente en su Lakehouse.
  • Compruebe las tablas especificadas y asegúrese de que los datos coincidan con las tablas Delta compartidas.
  • Espere hasta que finalice el trabajo, debe copiar todos los datos.

 

Conectar a Databricks

 Nota:
Este método de conexión suele ser utilizado por profesionales de datos.
  1. Inicie sesión en su entorno databricks.
  2. Navegue hasta la sección Catálogo .
  3. Seleccione Delta Sharing en el menú superior.
  4. Selecciona Compartido conmigo. 
  5. Copie el Identificador de uso compartido que se le proporcionó.
    analytics-delta-sharing1.png
  6. Comparta el Identificador de uso compartido con el equipo de soporte de Procore.
    Nota: Una vez que se agrega el identificador de uso compartido al sistema de Procore, la conexión de Procore Databricks aparecerá en la pestaña Compartido conmigo en Proveedores en su entorno de Databricks. Los datos pueden tardar hasta 24 horas.
    analytics-delta-sharing2.png
  7. Cuando la conexión de Procore Databricks sea visible en la pestaña Compartido conmigo, seleccione el identificador de Procore y haga clic en Crear catálogo.
  8. Introduzca el nombre que prefiera para el catálogo compartido y haga clic en Crear.
    analytics-delta-sharing3.png
  9. El catálogo y las tablas compartidos ahora se mostrarán con el nombre proporcionado en el archivo Explorador de catálogos.
    analytics-delta-sharing4.png

Comuníquese con el Soporte de Procore si tiene alguna pregunta o necesita ayuda.

Conéctese a Snowflake usando Python

Descripción general

La herramienta Procore Analytics Nube Connect Access es una interfaz de línea de comandos (CLI) que lo ayuda a configurar y administrar las transferencias de datos de Procore a Snowflake.

Consta de dos componentes principales: 

  • user_exp.py: Utilidad de configuración
  • ds_to_snowflake.py: Script de sincronización de datos

Requisitos previos

  • Python está instalado en su sistema 
  • Acceso a Procore Delta Share
  • Credenciales de la cuenta de Snowflake 
  • Instale las dependencias necesarias mediante:
    • pip install -r requirements.txt 

Pasos

Configuración inicial

Ejecute la utilidad de configuración usando python user_exp.py.

Sincronización de datos

Después de la configuración, tiene dos opciones para ejecutar la sincronización de datos: 

  • Ejecución directa:
    • Python ds_to_snowflake.py
  • Ejecución programada
    • Si se configura durante la configuración, el trabajo se ejecutará automáticamente de acuerdo con su programa Cron.
    • Para verificar los registros de programación, el archivo 'procore_scheduling.log' se creará tan pronto como se configure la programación.
    • Además, puede verificar la programación ejecutando el comando en la terminal:

Para Linux y MacOS:

  • Para editar/eliminar - edite el cron de programación usando:

    '''bash

    EDITOR=nano crontab -e

    ```

  • Después de ejecutar el comando anterior, debería ver algo similar a:

    2 * * * *
    /usuarios/your_user/copo de nieve/venv/bin/python

     
    /usuarios/your_user/copo de nieve/sql_server_python/connection_config.py
    2> y 1 | mientras se lee la línea; do echo "$(fecha) - $line"; ¡Listo>>

     
    /usuarios/your_user/copo de nieve/sql_server_python/procore_scheduling.log # procore-data-import 

     
  • También puede ajustar el cron de programación o eliminar toda la línea para que deje de ejecutarse según el programa.

Para Windows:

  • Compruebe que se ha creado la tarea de programa: 

    ```
        PowerShell 

        schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v 

    ``` 

  • Para editar/eliminar la tarea de programación, abra el Programador de tareas.
  • Presione Win + R, escriba taskschd.msc, y presione ENTER. 
  • Navegue hasta las tareas programadas. 
  • En el panel izquierdo, expanda la Biblioteca del programador de tareas. 
  • Busque la carpeta donde está guardada su tarea:
    Ejemplo: Biblioteca del programador de tareas o una carpeta personalizada.
  • Encuentre su tarea.
  • Busque el nombre de la tarea: ProcoreDeltaShareScheduling
  • Haga clic en él para ver los detalles en el panel inferior. 
  • Verifica su horario: 
    • Compruebe la pestaña Desencadenadores para ver cuándo está configurada la tarea para ejecutarse. 
    • Compruebe la pestaña Historial para confirmar las ejecuciones recientes. 
  • Para eliminar la tarea: 
    • Eliminar tarea de la GUI.

Configuración de recursos compartidos delta

  • Creación del archivo config.share 
  • Antes de ejecutar la utilidad de configuración, debe crear un archivo config.share con sus credenciales de Delta Share. El archivo debe estar en formato JSON: 

    "shareCredentialsVersion": 1, 
    "bearerToken": "xxxxxxxxxxxxx", 
    "endpoint": "[6]"

     

  • Campos obligatorios: 
    • ShareCredentialsVersion: número de versión (actualmente 1). 
    • BearerToken: Su token de acceso a Delta Share.
    • Punto de conexión: la URL del punto de conexión de Delta Share.
    • Estos detalles se pueden obtener en la interfaz de usuario web de Procore.
  • Pasos para crear config.share: 
    • Cree un nuevo archivo llamado config.share.
    • Copie la plantilla JSON anterior. 
    • Reemplace los valores de marcador de posición por sus credenciales reales. 
    • Guarde el archivo en un lugar seguro. 
    • Deberá proporcionar la ruta de acceso a este archivo durante la configuración. Al configurar la fuente de datos, se le pedirá que proporcione:
      • Lista de tablas (separadas por comas).
      • Dejar en blanco para sincronizar todas las tablas.
      • Ejemplo: tabla1, tabla2, tabla3.
  • Ruta de acceso al archivo config.share .

Configuración de copo de nieve

Deberá proporcionar los siguientes detalles de Snowflake:

  • Autenticación (elija una): 
    • Autenticación de usuario 
      • Nombre de usuario 
      • Contraseña (ingresada de forma segura) 
  • Autenticación de par de claves
    • Nombre de usuario 
    • Ruta del archivo de clave privada
    • Contraseña del archivo de clave privada 
  • Detalles de la conexión: 
    • Identificador de cuenta 
    • Nombre del almacén 
    • Nombre de la base de datos 
    • Nombre del esquema 
    • Número de subprocesos simultáneos 

Opciones de programación

La herramienta ofrece la posibilidad de programar la sincronización automática de datos.

  • Configuración de Cron Job 
    • Elegir si desea configurar un trabajo diario 
    • En caso afirmativo, proporcione un cron schedule 
    • Formato: * * * * * (minuto, hora, día del mes, mes, día de la semana)
    • Ejemplo para todos los días a las 2 a.m.: 0 2 * * * 
  • Ejecución inmediata 
    • Opción para ejecutar el ds_to_snowflake.py inmediatamente después de la configuración  
  • Estructura de archivos

    Unset 
    ├── requirements.txt                    # Dependencias 
    ├── user_exp.py                                # Utilidad de configuración
    ├── ds_to_snowflake.py                # Script de sincronización de datos
    ├── config.yaml                                  # Configuración generada
    ├── config.share                               # Archivo de configuración de Delta Share
    ├── procore_scheduling.log       # Registro de ejecuciones de programación 


    Ejemplo de uso 
    • Paso 1: Instalar dependencias 
      $ pip install -r requirements.txt
    • Paso 2: Ejecutar la utilidad de configuración 
      $ python user_exp.py 
    • Acceso a Procore Analytics Nube Connect 
      • Esta CLI lo ayudará a elegir su almacén de origen y destino para acceder/escribir datos de Procore en Snowflake. 
      • Presione Enter para continuar.
      • Ingrese a la lista de tablas (separadas por comas), déjela en blanco para todas las tablas: proyectos, usuarios, tareas.
      • Ingrese la ruta a config.share: /ruta/a/config.share.
      • Ingrese el nombre de usuario: snowflake_user.
      • ¿Qué tipo de autenticación desea utilizar? (usuario/key_pair): Ingresar.
      • 1 para el usuario,
      • 2 para el par de claves:
      • Ingrese la contraseña: ******** 
      • Ingrese la cuenta: my_account 
      • Entrar en el almacén: my_warehouse 
      • Ingrese el nombre de la base de datos: procore_db
      • Introduzca el nombre del esquema: procore_schema 
      • Introduzca el número de hilos: 4 
      • ¿Quieres configurar esto como un trabajo diario en cron? (Sí/No): Sí 
      • Ingrese el programa en formato cron (por ejemplo, * * * * * ): 0 2 * * * 
      • ¿Desea ejecutar el trabajo ahora? (Sí/No): Sí 
    • Paso 3: Ejecución manual (si es necesario)
      $ python ds_to_snowflake.py 
  • Reutilización de la configuración
    La herramienta guarda su configuración en el archivo config.yaml y le ofrece reutilizar la configuración almacenada anteriormente: 
    • La configuración de origen se puede reutilizar.
    • La configuración de destino (copo de nieve) se puede reutilizar. 
    • Puede optar por actualizar cualquiera de las configuraciones de forma independiente.

Prácticas recomendadas 

  • Autenticación
    • Utilice la autenticación de par de claves siempre que sea posible.
    • Rotar las credenciales con regularidad. 
    • Utilice los permisos mínimos requeridos.
  • Rendimiento 
    • Ajuste el número de subprocesos en función de las capacidades de su sistema. 
    • Comience con un subconjunto más pequeño de tablas para realizar pruebas.

Solución de problemas 

  • Problemas comunes y soluciones: 
    • Tipo de autenticación no válido 
      • Asegúrese de seleccionar "1" (usuario) o "2" (key_pair) cuando se le solicite.
  • Configuración de Cron Job  
    • Verifique que tiene los permisos del sistema adecuados.
    • Compruebe los registros del sistema si el trabajo no se puede ejecutar.
    • Asegúrese de que el ds_to_snowflake.py tenga los permisos correctos. 
    • Verifique la configuración del trabajo cron comprobando los registros del sistema:
      Consulte el archivo 'procore_scheduling.log '.
  • Archivo de configuración
    • Ubicado en el mismo directorio que el script,
    • Llamado config.yaml.
    • Haga una copia de seguridad antes de realizar cualquier cambio.
  • Soporte
    • Compruebe la salida de registro del script. 
    • Revise su archivo config.yaml
    • Póngase en contacto con el administrador del sistema si tiene problemas relacionados con los permisos.
    • Comuníquese con el soporte de Procore para problemas de acceso a Delta Share.

Nota: Recuerde siempre hacer una copia de seguridad de su configuración antes de realizar cambios y probar primero las nuevas configuraciones en un entorno que no sea de producción.
 

Conéctese a Amazon S3 mediante Python

Descripción general

La herramienta Procore Analytics Nube Connect Access es una interfaz de línea de comandos (CLI) que le ayuda a configurar y administrar las transferencias de datos de Procore a Amazon S3 con Procore Analytics 2.0. 

Consta de dos componentes principales: 

  • user_exp.py: Utilidad de configuración
  • delta_share_to_s3.py: Script de sincronización de datos

Requisitos previos

  • SKU de Procore Analytics 2.0
  • Python está instalado en su sistema
  • Acceso a Procore Delta Share
  • Claves de acceso de S3
  • Instalación de las dependencias requeridas mediante:
    • pip install -r requirements.txt 

Pasos

Configuración inicial

Ejecute la utilidad de configuración usando python user_exp.py.

Esto te ayudará a configurar lo siguiente:

  • Configuración de recursos compartidos delta
  • Configuración de destino de S3
  • Preferencias de programación 

Configuración de recursos compartidos delta

  • Creación del archivo config.share 
  • Antes de ejecutar la utilidad de configuración, debe crear un archivo config.share con sus credenciales de Delta Share. El archivo debe estar en formato JSON: 

    "shareCredentialsVersion": 1, 
    "bearerToken": "xxxxxxxxxxxxx", 
    "punto final": "xxxxxx"

  • Campos obligatorios: 
    • ShareCredentialsVersion: número de versión (actualmente 1). 
    • BearerToken: Su token de acceso a Delta Share.
    • Punto de conexión: la URL del punto de conexión de Delta Share.
    • Estos detalles se pueden obtener en la interfaz de usuario web de Procore.
  • Pasos para crear config.share: 
    • Cree un nuevo archivo llamado config.share.
    • Copie la plantilla JSON anterior. 
    • Reemplace los valores de marcador de posición por sus credenciales reales. 
    • Guarde el archivo en un lugar seguro. 
    • Deberá proporcionar la ruta de acceso a este archivo durante la configuración. Al configurar la fuente de datos, se le pedirá que proporcione:
      • Lista de tablas (separadas por comas).
      • Dejar en blanco para sincronizar todas las tablas.
      • Ejemplo: tabla1, tabla2, tabla3.
  • Ruta de acceso al archivo config.share .

Configuración de S3

Deberá proporcionar los siguientes detalles de S3:

  • Autenticación:
    • Tecla de acceso
    • Clave secreta
    • Nombre del bucket sin s3://
    • Clave - Directorio 

Opciones de programación

La herramienta ofrece la posibilidad de programar la sincronización automática de datos.

  • Configuración de Cron Job 
    • Elija si desea configurar un trabajo diario. 
    • En caso afirmativo, proporcione un cron schedule. 
    • Formato: * * * * * (minuto, hora, día del mes, mes, día de la semana).
    • Ejemplo para todos los días a las 2 a.m.: 0 2 * * * 
    • Para verificar los registros de programación, el archivo 'procore_scheduling.log' se creará tan pronto como se configure la programación.

También puede verificar la programación ejecutando el comando terminal

Para Linux y MacOs:    

Para editar/eliminar - edite el cron de programación usando:

'''bash
EDITOR=nano crontab -e
```

  • Después de ejecutar el comando anterior, debería ver algo similar a:
  • 2 * * * * /Usuarios/your_user/copo de nieve/venv/bin/python /Usuarios/your_user/copo de nieve/sql_server_python/connection_config.py 2>&1 | mientras se lee la línea; do echo "$(fecha) - $line"; done >> /Usuarios/your_user/copo de nieve/sql_server_python/procore_scheduling.log # procore-data-import
  • También puede ajustar el cron de programación o eliminar toda la línea para que deje de ejecutarse según el programa.

Para Windows:

  • Compruebe que se ha creado la tarea de programa:
    '''PowerShell
    schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v

    ```
  • Para editar/eliminar - tarea de programación:
    Abra el Programador de tareas:
    • Presione Win + R, escriba taskschd.msc, y presione Enter.
    • Navegue hasta las tareas programadas.
    • En el panel izquierdo, expanda la Biblioteca del programador de tareas.
    • Busque la carpeta donde está guardada su tarea (por ejemplo, Biblioteca del programador de tareas o una carpeta personalizada).
  • Encuentre su tarea:
    • Busque el nombre de la tarea: ProcoreDeltaShareScheduling.
    • Haga clic en él para ver sus detalles en el panel inferior.
  • Verifica su horario:
    • Compruebe la pestaña Desencadenadores para ver cuándo está configurada la tarea para ejecutarse.
    • Compruebe la pestaña Historial para confirmar las ejecuciones recientes.
  • Para eliminar la tarea:
    • Eliminar tarea de la GUI.
  • Ejecución inmediata 
    • Opción para ejecutar el delta_share_to_s3_.pEstructura de archivos
  • Unset 

    ├── requirements.txt                    # Dependencias 
    ├── user_exp.py                                # Utilidad de configuración
    ├── delta_share_to_s3.py            # Script de sincronización de datos
    ├── config.yaml                                  # Configuración generada
    ├── config.share                               # Archivo de configuración de Delta Share
    ├── procore_scheduling.log       # Registro de ejecuciones de programación 


    Ejemplo de uso 
    • Paso 1: Instalar dependencias 
      $ pip install -r requirements.txt
    • Paso 2: Ejecutar la utilidad de configuración 
      $ python user_exp.py 
    • Acceso a Procore Analytics Nube Connect 
      • Esta CLI lo ayudará a elegir su almacén de origen y destino para acceder/escribir datos de Procore en S3. 
      • Presione Enter para continuar.
      • Ingrese a la lista de tablas (separadas por comas), déjela en blanco para todas las tablas: proyectos, usuarios, tareas.
      • Ingrese la ruta a config.share: /ruta/a/config.share.
      • Introduzca la clave de acceso: tecla s3.
      • Introduzca secreto: secreto.
      • Introduzca el cubo: nombre del cubo.
      • ¿Quieres configurar esto como un trabajo diario en cron? (Sí/No): Sí 
      • Ingrese el programa en formato cron (por ejemplo, * * * * * ): 0 2 * * * 
      • ¿Desea ejecutar el trabajo ahora? (Sí/No): Sí 
    • Paso 3: Ejecución manual (si es necesario)
      $ python delta_share_to_s3.py 
  • Reutilización de la configuración
    La herramienta guarda su configuración en el archivo config.yaml y le ofrece reutilizar la configuración almacenada anteriormente: 
    • La configuración de origen se puede reutilizar.
    • La configuración de destino (S3) se puede reutilizar. 
    • Puede optar por actualizar cualquiera de las configuraciones de forma independiente.

Solución de problemas 

Problemas comunes y soluciones

  • Configuración de Cron Job  
    • Asegúrese de que los permisos del sistema estén configurados correctamente.
    • Compruebe los registros del sistema si el trabajo no se puede ejecutar.
    • Verifique el script (delta_share_to_s3.py) Permisos de ejecución.
  • Archivo de configuración
    • Confirme que el archivo config.yaml está en el mismo directorio que el script.
    • Haga una copia de seguridad antes de realizar cualquier cambio.
  • Soporte
    • Revise los registros de scripts para ver los mensajes de error detallados.
    • Revise su archivo config.yaml para ver si hay errores de configuración.
    • Póngase en contacto con el administrador del sistema si tiene problemas relacionados con los permisos.
    • Comuníquese con el soporte de Procore para problemas de acceso a Delta Share.
    • Verifique la configuración del trabajo cron comprobando los registros del sistema: consulte el archivo 'procore_scheduling_log '.

Notas:

  1. Recuerde siempre hacer una copia de seguridad de su configuración antes de realizar cambios.
  2. Pruebe primero las nuevas configuraciones en un entorno que no sea de producción.

Construye tu propia conexión

Descripción general

Delta Sharing es un protocolo abierto para el intercambio seguro de datos en tiempo real, que permite a las organizaciones compartir datos en diferentes plataformas informáticas. Esta guía lo guiará a través del proceso de conexión y acceso a los datos a través de Delta Sharing.

Opciones de conector de uso compartido de Delta

  • Conector de Python
  • Conector de Apache Spark
  • Configurar un shell interactivo
  • Configurar un proyecto independiente

Conector de Python

El conector de Python de uso compartido delta es una biblioteca de Python que implementa el protocolo de uso compartido de delta para leer tablas de un servidor de uso compartido de diferencial. Puede cargar tablas compartidas como un DataFrame de pandas o como un DataFrame de Apache Spark si se ejecuta en PySpark con el conector de Apache Spark instalado.

Requisitos del sistema

  • Python 3.8+ para la versión 1.1+ de uso compartido delta
  • Python 3.6+ para versiones anteriores
  • Si se ejecuta Linux, la versión de glibc >= 2.31
  • Para la instalación automática del paquete delta-kernel-rust-sharing-wrapper, consulte la siguiente sección para obtener más detalles.

Proceso de instalación

Unset
pip3 install delta-sharing

  • Si usa Databricks Runtime, puede seguir el documento de Databricks Libraries para instalar la biblioteca en los clústeres.
  • Si esto no funciona debido a un problema al descargar delta-kernel-rust-sharing-wrapper, pruebe lo siguiente:
    •  Verifique la versión de python3 >= 3.8
    •  Actualice su pip3 a la última versión

Acceso a datos compartidos

El conector accede a tablas compartidas basadas en archivos de perfil, que son archivos JSON que contienen las credenciales de un usuario para acceder a un servidor de uso compartido diferencial. Tenemos varias formas de empezar:

Antes de empezar

  • Descargue un archivo de perfil de su proveedor de datos.

Acceso a las opciones de datos compartidos

Después de guardar el archivo de perfil, puede usarlo en el conector para acceder a las tablas compartidas.

Importar delta_sharing

  • Apunte al archivo de perfil. Puede ser un archivo en el sistema de archivos local o un archivo en un almacenamiento remoto.
    • profile_file = "<profile-file-path>"
  • Cree un SharingClient.
    • cliente = delta_sharing. SharingClient(profile_file)
  • Enumerar todas las tablas compartidas.
    • client.list_all_tables()
  • Cree una dirección URL para acceder a una tabla compartida.
  • Una ruta de acceso de tabla es la ruta del archivo de perfil que sigue con '#' y el nombre completo de una tabla.
  • <share-name><schema-name><table-name>('..').
    • table_url = profile_file + "#..<share-name> <schema-name><table-name>"
  • Recupere 10 filas de una tabla y conviértalas en un DataFrame de Pandas. Esto se puede utilizar para leer datos de muestra de una tabla que no cabe en la memoria.
    • delta_sharing.load_as_pandas(table_url, limit=10)
  •  Cargue una tabla como un DataFrame de Pandas. Esto se puede usar para procesar tablas que pueden caber en la memoria.
    • delta_sharing.load_as_pandas(table_url)
  •  Cargar una tabla como un DataFrame de Pandas explícitamente usando el formato Delta
    • delta_sharing.load_as_pandas(table_url, use_delta_format = true)
  • Si el código se ejecuta con PySpark, puede usar 'load_as_spark' para cargar la tabla como un DataFrame de Spark.
    • delta_sharing.load_as_spark(table_url)
  • Si la tabla admite el uso compartido del historial (tableConfig.cdfEnabled=true en el servidor de uso compartido delta de OSS), el conector puede consultar los cambios de la tabla.
  • Cargue los cambios de tabla de la versión 0 a la versión 5, como un DataFrame de Pandas.
    • delta_sharing.load_table_changes_as_pandas(table_url, starting_version=0, ending_version=5)
  • Si el código se ejecuta con PySpark, puede cargar los cambios de tabla como Spark DataFrame.
    • delta_sharing.load_table_changes_as_spark(table_url, starting_version=0, ending_version=5)

Conector de Apache Spark

El conector de Apache Spark implementa el protocolo de uso compartido delta para leer tablas compartidas de un servidor de uso compartido delta. Se puede utilizar en SQL, Python, Java, Scala y R.

Requisitos del sistema

Acceso a datos compartidos

El conector carga las credenciales de usuario de los archivos de perfil.

Configuración de Apache Spark

Puede configurar Apache Spark para cargar el conector de uso compartido delta en los dos siguientes
Maneras:

  • Ejecutar de forma interactiva: inicie el shell de Spark (Scala o Python) con el conector de uso compartido delta y ejecute los fragmentos de código de forma interactiva en el shell.
  • Ejecutar como un proyecto: configure un proyecto Maven o SBT (Scala o Java) con el conector de uso compartido delta, copie los fragmentos de código en un archivo de código fuente y ejecute el proyecto.

Si usa Databricks Runtime, puede omitir esta sección y seguir el documento de bibliotecas de Databricks para instalar el conector en los clústeres.

Configurar un shell interactivo

Para usar el conector de uso compartido delta de forma interactiva dentro del shell Scala o Python de Spark, puede iniciar los shells de la siguiente manera.

PySpark Shell

Unset
pyspark --packages io.delta:delta-sharing-spark_2.12:3.1.0

 

Concha de Scala

Unset
bin/spark-shell --paquetes
io.delta:delta-sharing-spark_2.12:3.1.0

Configurar un proyecto independiente

Si desea crear un proyecto Java/Scala utilizando el conector Delta Sharing del repositorio central de Maven, puede utilizar las siguientes coordenadas de Maven.

Entendido

El conector de uso compartido delta en el proyecto de Maven se incluye agregándolo como una dependencia en el archivo POM. El conector Delta Sharing se compila con Scala 2.12.

<dependency>


<groupId>io.delta</groupId>


<artifactId>delta-sharing-spark_2.12</artifactId>


<version><versión>3.1.0</versión></version>


</dependency>