Tabla de contenido
Nube Connector es la forma en que Procore comparte datos, inteligencia y análisis con nuestros clientes. Esto se puede compartir directamente con herramientas de generación de informes como Power BI o Tableau. También se puede compartir con los almacenes de datos, almacenes, lagos u otras aplicaciones de los clientes. Los clientes pueden incluso crear un acceso programático a sus datos utilizando Nube Connector para una verdadera automatización. Nube Connector se basa en el protocolo de uso compartido abierto Delta Share.
Delta Sharing es el primer protocolo abierto de la industria para el intercambio seguro de datos, lo que simplifica el intercambio de datos con otras organizaciones, independientemente de las plataformas informáticas que utilicen. Muchas aplicaciones pueden acceder a los datos con Delta Share. Sin embargo, para mejorar aún más la experiencia del cliente, Procore ha agregado conectores, código prediseñado y guías para las siguientes plataformas, lo que reduce el tiempo de configuración y la complejidad para permitir una conexión perfecta y lista para usar.
¡Próximamente habrá más conectores de datos!
La documentación completa y los ejemplos de código están disponibles en el producto Procore Analytics directamente en la aplicación web de Procore a la que pueden acceder sus administradores de Procore. Estos recursos proporcionan instrucciones paso a paso, fragmentos de código y mejores prácticas para ayudarlo a configurar y administrar su integración de datos de manera efectiva.
Continúe con la siguiente sección de esta guía para comenzar el proceso de configuración.
Para consultas o asistencia adicionales, comuníquese con su gerente de cuenta o con nuestro equipo de soporte.
Debe asegurarse de que se asignen los permisos adecuados para generar un token de acceso para que pueda comenzar a conectar sus datos de Procore a su solución BI. El acceso a Procore Analytics está vinculado a sus credenciales de inicio de sesión de Procore, lo que le permite generar un solo token de acceso. El token de acceso es una cadena de dígitos que ingresará en su sistema BI para acceder a los datos.
Normalmente, los usuarios que necesitan tokens de acceso son ingenieros de datos o desarrolladores de Power BI. Si tiene acceso a Procore Analytics en varias compañías, su token le permitirá extraer datos de todos ellos. El token está vinculado a usted, no a una compañía específica, por lo que sigue siendo el mismo en todas las compañías a las que tiene acceso.
A los administradores de la compañía y del proyecto se les otorgará un rol de administrador de forma predeterminada. Se permiten los siguientes niveles de acceso de usuario para la herramienta Procore Analytics:
El acceso a los datos en la herramienta Procore Analytics se revocará cuando se eliminen los permisos de un usuario para la herramienta. Además, si el registro de contacto de un usuario se vuelve inactivo, también perderá el acceso a los datos de Procore Analytics.
Para empezar a acceder a los datos de Procore, hay dos opciones para generar las credenciales de acceso a los datos: el método de conexión directa de Databricks o el método Delta Share Token. El token de acceso es una cadena de dígitos que ingresará en el conector de datos correspondiente para acceder a los datos.


La herramienta Procore Analytics Nube Connect Access es una interfaz de línea de comandos (CLI) que lo ayuda a configurar y administrar las transferencias de datos de Procore a MS SQL Server. Consta de dos componentes principales:
Esto te ayudará a configurar lo siguiente:
Después de la configuración, tiene dos opciones para ejecutar la sincronización de datos:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[1]"
}
Deberá proporcionar los siguientes detalles de MS SQL Server:




Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[2]"
}

También puede verificar la programación ejecutando el comando en la terminal:
Para Linux y MacOs:
Para editar/eliminar - edite el cron de programación usando:
'''bash
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[3]"
}

También puede verificar la programación ejecutando el comando en la terminal:
Para Linux y MacOs:
Para editar/eliminar - edite el cron de programación usando:
'''bash
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
Esta guía le guía a través de la configuración e implementación de una función de Azure para integrar datos de uso compartido delta con Procore Analytics. La función de Azure permite el procesamiento eficaz de datos y el uso compartido de flujos de trabajo con perfiles de uso compartido diferencial.
Vete a
para obtener instrucciones sobre cómo instalar las herramientas esenciales de Azure Functions.
Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[4]"
}

También puede verificar la programación ejecutando el comando en la terminal:
Para Linux y MacOs:
Para editar/eliminar - edite el cron de programación usando:
'''bash
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
Esta guía proporciona instrucciones detalladas para configurar y usar el paquete de integración Delta Sharing en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración que desee.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[5]"
}

También puede verificar la programación ejecutando el comando en la terminal:
Para Linux y MacOs:
Para editar/eliminar - edite el cron de programación usando:
'''bash
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
La integración de Delta Sharing con Microsoft Fabric Data Factory permite el acceso y el procesamiento sin problemas de tablas Delta compartidas para sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing, un protocolo abierto para la colaboración segura de datos, garantiza que las organizaciones puedan compartir datos sin duplicación.




Después de configurar el flujo de datos, ahora puede aplicar transformaciones a los datos Delta compartidos. Elija su opción Delta Sharing Data de la siguiente lista:
Pruebe sus canalizaciones y flujos de datos para garantizar una ejecución sin problemas. Uso de herramientas de supervisión en Datos
Fábrica para realizar un seguimiento del progreso y registros de cada actividad.
El uso de Data Factory en Microsoft Fabric con uso compartido de Delta permite una integración y un procesamiento perfectos de tablas Delta compartidas como parte de sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing es un protocolo abierto para el intercambio seguro de datos, que permite la colaboración entre organizaciones sin duplicar datos.
Esta guía le guiará a través de los pasos para configurar y usar Data Factory en Fabric con Delta Sharing, utilizando Notebooks para procesar y exportar datos a un Lakehouse.



3. Copie el código de ds_to_lakehouse.py y péguelo en la ventana del cuaderno (Pyspark Python):

El siguiente paso es cargar sus propios config.yaml y config.share en la carpeta Resources de Lakehouse. Puede crear su propio directorio o usar un directorio integrado (ya creado para recursos por Lakehouse):


El siguiente ejemplo muestra un directorio interno estándar para un fichero config.yaml.
Nota: Asegúrese de cargar ambos archivos en el mismo nivel y para la propiedad config_path:

4. Verifique el código del cuaderno, líneas 170-175.
El siguiente ejemplo muestra los cambios de línea necesarios:
config_path = "./env/config.yaml"
Para
config_path = "./builtin/config.yaml"
Dado que los archivos están en una carpeta interna y no en un entorno personalizado, asegúrese de supervisar su propia estructura de archivos. Puede cargarlos en diferentes carpetas, pero en tales casos, actualice el código del bloc de notas para encontrar el archivo config.yaml correctamente.

5. Haga clic en Ejecutar celda:

Esta guía le guía a través de la configuración e implementación de una función de Azure para integrar datos de uso compartido delta con Procore Analytics. La función de Azure permite el procesamiento eficaz de datos y el uso compartido de flujos de trabajo con perfiles de uso compartido diferencial.
Vete a
para obtener instrucciones sobre cómo instalar las herramientas esenciales de Azure Functions.En este documento se proporcionan instrucciones paso a paso para configurar una canalización de datos en Microsoft Fabric para transferir datos de Delta Share a un almacén de SQL. Esta configuración permite una integración de datos perfecta entre los orígenes de Delta Lake y los destinos de SQL.
Problemas comunes y soluciones:
El uso de Data Factory en Microsoft Fabric con uso compartido de Delta permite una integración y un procesamiento perfectos de tablas Delta compartidas como parte de sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing es un protocolo abierto para el intercambio seguro de datos, que permite la colaboración entre organizaciones sin duplicar datos.
Esta guía le guiará a través de los pasos para configurar y usar Data Factory en Fabric con Delta Sharing, utilizando Notebooks para procesar y exportar datos a un Lakehouse.



3. Copie el código de ds_to_lakehouse.py y péguelo en la ventana del cuaderno (Pyspark Python):

El siguiente paso es cargar sus propios config.yaml y config.share en la carpeta Resources de Lakehouse. Puede crear su propio directorio o usar un directorio integrado (ya creado para recursos por Lakehouse):


El siguiente ejemplo muestra un directorio interno estándar para un fichero config.yaml.
Nota: Asegúrese de cargar ambos archivos en el mismo nivel y para la propiedad config_path:

4. Verifique el código del cuaderno, líneas 170-175.
El siguiente ejemplo muestra los cambios de línea necesarios:
config_path = "./env/config.yaml"
Para
config_path = "./builtin/config.yaml"
Dado que los archivos están en una carpeta interna y no en un entorno personalizado, asegúrese de supervisar su propia estructura de archivos. Puede cargarlos en diferentes carpetas, pero en tales casos, actualice el código del bloc de notas para encontrar el archivo config.yaml correctamente.

5. Haga clic en Ejecutar celda:





Comuníquese con el Soporte de Procore si tiene alguna pregunta o necesita ayuda.
La herramienta Procore Analytics Nube Connect Access es una interfaz de línea de comandos (CLI) que lo ayuda a configurar y administrar las transferencias de datos de Procore a Snowflake.
Consta de dos componentes principales:
Ejecute la utilidad de configuración usando python user_exp.py.
Después de la configuración, tiene dos opciones para ejecutar la sincronización de datos:
Para Linux y MacOS:
'''bash
EDITOR=nano crontab -e
```
2 * * * *
/usuarios/your_user/copo de nieve/venv/bin/python
/usuarios/your_user/copo de nieve/sql_server_python/connection_config.py
2> y 1 | mientras se lee la línea; do echo "$(fecha) - $line"; ¡Listo>>
/usuarios/your_user/copo de nieve/sql_server_python/procore_scheduling.log # procore-data-import
Para Windows:
```
PowerShell
schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v
```
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "[6]"
}
Deberá proporcionar los siguientes detalles de Snowflake:
La herramienta ofrece la posibilidad de programar la sincronización automática de datos.
Unset
├── requirements.txt # Dependencias
├── user_exp.py # Utilidad de configuración
├── ds_to_snowflake.py # Script de sincronización de datos
├── config.yaml # Configuración generada
├── config.share # Archivo de configuración de Delta Share
├── procore_scheduling.log # Registro de ejecuciones de programación
Nota: Recuerde siempre hacer una copia de seguridad de su configuración antes de realizar cambios y probar primero las nuevas configuraciones en un entorno que no sea de producción.
La herramienta Procore Analytics Nube Connect Access es una interfaz de línea de comandos (CLI) que le ayuda a configurar y administrar las transferencias de datos de Procore a Amazon S3 con Procore Analytics 2.0.
Consta de dos componentes principales:
Ejecute la utilidad de configuración usando python user_exp.py.
Esto te ayudará a configurar lo siguiente:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"punto final": "xxxxxx"
}
Deberá proporcionar los siguientes detalles de S3:
La herramienta ofrece la posibilidad de programar la sincronización automática de datos.
También puede verificar la programación ejecutando el comando terminal
Para Linux y MacOs:
Para editar/eliminar - edite el cron de programación usando:
'''bash
EDITOR=nano crontab -e
```
Para Windows:
Unset
├── requirements.txt # Dependencias
├── user_exp.py # Utilidad de configuración
├── delta_share_to_s3.py # Script de sincronización de datos
├── config.yaml # Configuración generada
├── config.share # Archivo de configuración de Delta Share
├── procore_scheduling.log # Registro de ejecuciones de programación
Problemas comunes y soluciones:
Notas:
Delta Sharing es un protocolo abierto para el intercambio seguro de datos en tiempo real, que permite a las organizaciones compartir datos en diferentes plataformas informáticas. Esta guía lo guiará a través del proceso de conexión y acceso a los datos a través de Delta Sharing.
El conector de Python de uso compartido delta es una biblioteca de Python que implementa el protocolo de uso compartido de delta para leer tablas de un servidor de uso compartido de diferencial. Puede cargar tablas compartidas como un DataFrame de pandas o como un DataFrame de Apache Spark si se ejecuta en PySpark con el conector de Apache Spark instalado.
Unset
pip3 install delta-sharing
El conector accede a tablas compartidas basadas en archivos de perfil, que son archivos JSON que contienen las credenciales de un usuario para acceder a un servidor de uso compartido diferencial. Tenemos varias formas de empezar:
Después de guardar el archivo de perfil, puede usarlo en el conector para acceder a las tablas compartidas.
Importar delta_sharing
El conector de Apache Spark implementa el protocolo de uso compartido delta para leer tablas compartidas de un servidor de uso compartido delta. Se puede utilizar en SQL, Python, Java, Scala y R.
El conector carga las credenciales de usuario de los archivos de perfil.
Puede configurar Apache Spark para cargar el conector de uso compartido delta en los dos siguientes
Maneras:
Si usa Databricks Runtime, puede omitir esta sección y seguir el documento de bibliotecas de Databricks para instalar el conector en los clústeres.
Para usar el conector de uso compartido delta de forma interactiva dentro del shell Scala o Python de Spark, puede iniciar los shells de la siguiente manera.
PySpark Shell
Unset
pyspark --packages io.delta:delta-sharing-spark_2.12:3.1.0
Concha de Scala
Unset
bin/spark-shell --paquetes
io.delta:delta-sharing-spark_2.12:3.1.0
Si desea crear un proyecto Java/Scala utilizando el conector Delta Sharing del repositorio central de Maven, puede utilizar las siguientes coordenadas de Maven.
El conector de uso compartido delta en el proyecto de Maven se incluye agregándolo como una dependencia en el archivo POM. El conector Delta Sharing se compila con Scala 2.12.
<dependency>
<groupId>io.delta</groupId>
<artifactId>delta-sharing-spark_2.12</artifactId>
<version><versión>3.1.0</versión></version>
</dependency>