diff --git a/content/es/integrations/snowflake.md b/content/es/integrations/snowflake.md
deleted file mode 100644
index 8ab3cf4cd00..00000000000
--- a/content/es/integrations/snowflake.md
+++ /dev/null
@@ -1,388 +0,0 @@
----
-app_id: snowflake
-app_uuid: 23e9084d-5801-4a71-88fe-f62b7c1bb289
-assets:
- dashboards:
- Snowflake: assets/dashboards/snowflake.json
- Snowflake Organization Metrics: assets/dashboards/organization_metrics.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: snowflake.storage.storage_bytes.total
- metadata_path: metadata.csv
- prefix: snowflake.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10123
- source_type_name: Snowflake
- monitors:
- Snowflake failed logins: assets/monitors/snowflake_failed_logins.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
-categories:
-- nube
-- almacenes de datos
-- gestión de costes
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/snowflake/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: snowflake
-integration_id: snowflake
-integration_title: Snowflake
-integration_version: 5.6.0
-is_public: true
-manifest_version: 2.0.0
-name: snowflake
-public_title: Snowflake
-short_description: Monitoriza métricas clave para uso de crédito, almacenamiento,
- consulta, historial de usuario y mucho más.
-supported_os:
-- linux
-- macos
-- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - Category::Cloud
- - Category::Data Stores
- - Category::Cost Management
- configuration: README.md#Setup
- description: Monitoriza métricas clave para uso de crédito, almacenamiento, consulta,
- historial de usuario y mucho más.
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: Snowflake
----
-
-
-
-
-## Información general
-
-Este check monitoriza [Snowflake][1] a través del Datadog Agent. Snowflake es un almacén de datos analíticos SaaS y se ejecuta completamente en la infraestructura de la nube.
-Esta integración monitoriza el uso de crédito, la facturación, el almacenamiento, las métricas de consulta y más.
-
-
Nota: Las métricas se recopilan mediante consultas a Snowflake. Las consultas realizadas mediante la integración de Datadog se facturan a través de Snowflake.
-
-## Configuración
-
-Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host.
-
-### Instalación
-
-El check de Snowflake está incluido en el paquete del [Datadog Agent][2].
-
-**Nota**: El check de Snowflake no está disponible en el Datadog Agent v6 con Python 2. Para usar Snowflake en el Agent v6, consulta [Usar Python 3 con el Datadog Agent v6][3] o actualiza al Agent v7.
-
-### Configuración
-Snowflake recomienda otorgar permisos a un rol alternativo como `SYSADMIN`. Lee más sobre cómo controlar el
rol ACCOUNTADMIN para obtener más información.
-
-1. Crea un rol y un usuario específicos de Datadog para monitorizar Snowflake. En Snowflake, ejecuta lo siguiente para crear un rol personalizado con acceso al esquema ACCOUNT_USAGE.
-
- Nota: Por defecto, esta integración monitoriza la base de datos `SNOWFLAKE` y el esquema `ACCOUNT_USAGE`. Consulta "Recopilación de datos de la organización" para obtener información sobre cómo monitorizar el esquema `ORGANIZATION_USAGE`.
- Esta base de datos está disponible por defecto y solo la pueden ver los usuarios con el rol `ACCOUNTADMIN` o [cualquier rol otorgado por el ACCOUNTADMIN][4].
-
-
- ```text
- use role ACCOUNTADMIN;
- grant imported privileges on database snowflake to role SYSADMIN;
-
- use role SYSADMIN;
-
- ```
-
-
- Como alternativa, puedes crear un rol personalizado `DATADOG` con acceso a `ACCOUNT_USAGE`.
-
-
- ```text
- -- Crea un nuevo rol destinado a monitorizar el uso de Snowflake.
- create role DATADOG;
-
- -- Concede privilegios en la base de datos SNOWFLAKE al nuevo rol.
- grant imported privileges on database SNOWFLAKE to role DATADOG;
-
- -- Concede el uso de tu almacén predeterminado al rol DATADOG.
- grant usage on warehouse to role DATADOG;
-
- -- Crea un usuario; omite este paso si estás utilizando un usuario existente.
- create user DATADOG_USER
- LOGIN_NAME = DATADOG_USER
- password = ''
- default_warehouse =
- default_role = DATADOG
- default_namespace = SNOWFLAKE.ACCOUNT_USAGE;
-
- -- Concede el rol de monitor al usuario.
- grant role DATADOG to user ;
- ```
-
-
-2. Edita el archivo `snowflake.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para comenzar a recopilar los datos de rendimiento de Snowflake. Consulta el [ejemplo snowflake.d/conf.yaml][5] para conocer todas las opciones de configuración disponibles.
-
- ```yaml
- ## @param account - string - required
- ## Name of your account (provided by Snowflake), including the platform and region if applicable.
- ## For more information on Snowflake account names,
- ## see https://docs.snowflake.com/en/user-guide/connecting.html#your-snowflake-account-name
- #
- - account: -
-
- ## @param username - string - required
- ## Login name for the user.
- #
- username:
-
- ## @param password - string - required
- ## Password for the user
- #
- password:
-
- ## @param role - string - required
- ## Name of the role to use.
- ##
- ## By default, the SNOWFLAKE database is only accessible by the ACCOUNTADMIN role. Snowflake recommends
- ## configuring a role specific for monitoring:
- ## https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
- #
- role:
-
- ## @param min_collection_interval - number - optional - default: 15
- ## This changes the collection interval of the check. For more information, see:
- ## https://docs.datadoghq.com/developers/write_agent_check/#collection-interval
- ##
- ## NOTE: Most Snowflake ACCOUNT_USAGE views are populated on an hourly basis,
- ## so to minimize unnecessary queries, set the `min_collection_interval` to 1 hour.
- #
- min_collection_interval: 3600
-
- # @param disable_generic_tags - boolean - optional - default: false
- # Generic tags such as `cluster` will be replaced by _cluster to avoid
- # getting mixed with other integration tags.
- # disable_generic_tags: true
- ```
-
- In the default `conf.yaml`, the
min_collection_interval is 1 hour.
- Snowflake metrics are aggregated by day, you can increase the interval to reduce the number of queries.
-
Note: Snowflake ACCOUNT_USAGE views have a
known latency of 45 minutes to 3 hours.
-
-3. [Reinicia el Agent][6].
-
-#### Recopilación de datos de la organización
-
-Por defecto, esta integración monitoriza el esquema `ACCOUNT_USAGE`, pero se puede configurar para monitorizar métricas a nivel de la organización.
-
-Para recopilar métricas de la organización, cambia el campo del esquema a `ORGANIZATION_USAGE` y aumenta `min_collection_interval` a 43200 en la configuración de la integración. Esto reduce el número de consultas a Snowflake, ya que la mayoría de las consultas de la organización tienen una latencia de hasta 24 horas.
-
-Nota: Para monitorizar métricas de organización, tu `user` debe tener el rol `ORGADMIN`.
-
- ```yaml
- - schema: ORGANIZATION_USAGE
- min_collection_interval: 43200
- ```
-
-De forma predeterminada, solo se habilitan algunas métricas de la organización. Para recopilar todas las métricas de la organización disponibles, utiliza la opción de configuración `metric_groups`:
-
- ```yaml
- metric_groups:
- - snowflake.organization.warehouse
- - snowflake.organization.currency
- - snowflake.organization.credit
- - snowflake.organization.storage
- - snowflake.organization.contracts
- - snowflake.organization.balance
- - snowflake.organization.rate
- - snowflake.organization.data_transfer
- ```
-
-Además, puedes monitorizar las métricas de la cuenta y de la organización al mismo tiempo:
-
- ```yaml
- instances:
- - account: example-inc
- username: DATADOG_ORG_ADMIN
- password: ''
- role: SYSADMIN
- schema: ORGANIZATION_USAGE
- database: SNOWFLAKE
- min_collection_interval: 43200
-
- - account: example-inc
- username: DATADOG_ACCOUNT_ADMIN
- password: ''
- role: DATADOG_ADMIN
- schema: ACCOUNT_USAGE
- database: SNOWFLAKE
- min_collection_interval: 3600
- ```
-
-#### Recopilación de datos para múltiples entornos
-
-Si deseas recopilar datos para varios entornos de Snowflake, añade cada entorno como una instancia en tu archivo `snowflake.d/conf.yaml`. Por ejemplo, si necesitas recopilar datos para dos usuarios llamados `DATADOG_SYSADMIN` y `DATADOG_USER`:
-
-```yaml
-instances:
- - account: example-inc
- username: DATADOG_SYSADMIN
- password: ''
- role: SYSADMIN
- database: EXAMPLE-INC
-
- - account: example-inc
- username: DATADOG_USER
- password: ''
- role: DATADOG_USER
- database: EXAMPLE-INC
-```
-
-#### Configuración de proxy
-
-Snowflake recomienda configurar [variables de entorno para la configuración de proxy][7].
-
-También puedes configurar `proxy_host`, `proxy_port`, `proxy_user` y `proxy_password` bajo `init_config` en [snowflake.d/conf.yaml][5].
-
-**NOTA**: Snowflake formatea automáticamente las configuraciones de proxy y establece [variables de entorno de proxy estándar][8].
-Estas variables también afectan todas las solicitudes de integraciones, incluidos los orquestadores como Docker, ECS y Kubernetes.
-
-#### Conectividad privada a la configuración de Snowflake
-
-Si la [conectividad privada][9] (como [AWS PrivateLink][10]) está habilitada en Snowflake, puedes configurar la integración de Snowflake actualizando la opción de configuración `account` con el siguiente formato:
-
- ```yaml
- - account: ..privatelink
- ```
-
-### Consultas personalizadas de Snowflake
-
-La integración de Snowflake admite consultas personalizadas. De forma predeterminada, la integración se conecta a la base de datos compartida `SNOWFLAKE` y al esquema `ACCOUNT_USAGE`.
-
-Para ejecutar consultas personalizadas en un esquema o una base de datos diferentes, añade otra instancia al [ejemplo snowflake.d/conf.yaml][5] y especifica las opciones `database` y `schema`.
-Asegúrate de que el usuario y el rol tengan acceso a la base de datos o al esquema especificados.
-
-#### Opciones de configuración
-La opción `custom_queries` tiene las siguientes opciones:
-
-| Opción | Obligatorio | Descripción |
-|---------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| query | Sí | Este es el SQL que se va a ejecutar. Puede ser una sentencia simple o un script de varias líneas. Se evalúan todas las filas de los resultados. Utiliza la barra vertical si requieres un script de varias líneas. |
-| columns | Sí | Esta es una lista que representa cada columna ordenada de forma secuencial de izquierda a derecha.
Hay 2 datos necesarios:
- **`name`**: este es el sufijo que hay que anexar a metric_prefix para formar el nombre completo de la métrica. Si `type` se especifica como `tag`, la columna se aplica como etiqueta a las métricas que recoge esta consulta.
- **`type`**: este es el método de envío (`gauge`, `count`, `rate`, etc.). También puede configurarse como `tag` para etiquetar las métricas de la fila con el nombre y el valor (`:`) del elemento en esta columna. |
-| tags | No | Una lista de etiquetas (tags) estáticas que pueden aplicarse a las métricas. |
-
-
-##### Notas
-- Al menos uno de los elementos definidos en `columns` debería ser un tipo de métrica (`gauge`, `count`, `rate`, etc.).
-- El número de elementos en las columnas debe ser igual a la cantidad de columnas devueltas en la consulta.
-- El orden en que se definen los elementos en `columns` debe ser el mismo orden en que se devuelven en la consulta
-
-```yaml
-custom_queries:
- - query: select F3, F2, F1 from Table;
- columns:
- - name: f3_metric_alias
- type: gauge
- - name: f2_tagkey
- type: tag
- - name: f1_metric_alias
- type: count
- tags:
- - test:snowflake
-```
-
-#### Ejemplo
-El siguiente ejemplo es una consulta que cuenta todas las consultas de la [vista `QUERY_HISTORY`][22] etiquetadas por nombres de base de datos, esquema y almacén.
-
-```TEXT
-select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
-```
-
-##### Configuración
-
-La configuración de una consulta personalizada en `instances` tiene el siguiente aspecto:
-
-```yaml
-custom_queries:
- - query: select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
- columns:
- - name: query.total
- type: gauge
- - name: database_name
- type: tag
- - name: schema_name
- type: tag
- - name: warehouse_name
- type: tag
- tags:
- - test:snowflake
-```
-
-##### Validación
-
-Para verificar el resultado, busca las métricas utilizando el [Resumen de métricas][12]:
-
-![Resumen de métricas de Snowflake][13]
-
-
-### Validación
-
-[Ejecuta el subcomando de estado del Agent][14] y busca `snowflake` en la sección Checks.
-
-## Datos recopilados
-
-Nota: Por defecto, solo están habilitadas las métricas de los siguientes grupos de métricas:
snowflake.query.*,
snowflake.billing.*,
snowflake.storage.* y
snowflake.logins.*.
-
-Si deseas recopilar métricas de otros grupos de métricas, consulta
el archivo de configuración de ejemplo para esta integración.
-
-
-### Métricas
-{{< get-metrics-from-git "snowflake-web" >}}
-
-
-### Eventos
-
-Snowflake no incluye ningún evento.
-
-### Checks de servicio
-{{< get-service-checks-from-git "snowflake-web" >}}
-
-
-## Solucionar problemas
-
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][17].
-
-## Lectura adicional
-
-Más enlaces, artículos y documentación útiles:
-
-- [Monitorización de Snowflake con Datadog][18]
-
-
-[1]: https://www.snowflake.com/
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/es/agent/guide/agent-v6-python-3/?tab=hostagent
-[4]: https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
-[5]: https://github.com/DataDog/integrations-core/blob/master/snowflake/datadog_checks/snowflake/data/conf.yaml.example
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[7]: https://docs.snowflake.com/en/user-guide/python-connector-example.html#using-a-proxy-server
-[8]: https://github.com/snowflakedb/snowflake-connector-python/blob/d6df58f1c338b255393571a08a1f9f3a71d8f7b6/src/snowflake/connector/proxy.py#L40-L41
-[9]: https://docs.snowflake.com/en/user-guide/private-snowflake-service.html
-[10]: https://docs.snowflake.com/en/user-guide/admin-security-privatelink.html
-[11]: https://docs.snowflake.com/en/sql-reference/account-usage/query_history.html
-[12]: https://docs.datadoghq.com/es/metrics/summary/
-[13]: https://raw.githubusercontent.com/DataDog/integrations-core/master/snowflake/images/custom_query.png
-[14]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[15]: https://github.com/DataDog/integrations-core/blob/master/snowflake/metadata.csv
-[16]: https://github.com/DataDog/integrations-core/blob/master/snowflake/assets/service_checks.json
-[17]: https://docs.datadoghq.com/es/help/
-[18]: https://www.datadoghq.com/blog/snowflake-monitoring-datadog/
diff --git a/content/fr/integrations/snowflake.md b/content/fr/integrations/snowflake.md
deleted file mode 100644
index 708e4bc81c9..00000000000
--- a/content/fr/integrations/snowflake.md
+++ /dev/null
@@ -1,387 +0,0 @@
----
-app_id: snowflake
-app_uuid: 23e9084d-5801-4a71-88fe-f62b7c1bb289
-assets:
- dashboards:
- Snowflake: assets/dashboards/snowflake.json
- Snowflake Organization Metrics: assets/dashboards/organization_metrics.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: snowflake.storage.storage_bytes.total
- metadata_path: metadata.csv
- prefix: snowflake.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10123
- source_type_name: Snowflake
- monitors:
- Snowflake failed logins: assets/monitors/snowflake_failed_logins.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
-categories:
-- cloud
-- data stores
-- gestion des coûts
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/snowflake/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: snowflake
-integration_id: snowflake
-integration_title: Snowflake
-integration_version: 5.6.0
-is_public: true
-manifest_version: 2.0.0
-name: snowflake
-public_title: Snowflake
-short_description: Surveillez des métriques clés concernant l'utilisation des crédits,
- le stockage, les requêtes, l'historique utilisateur et plus encore.
-supported_os:
-- linux
-- macos
-- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - Category::Cloud
- - Category::Data Stores
- - Category::Cost Management
- configuration: README.md#Setup
- description: Surveillez des métriques clés concernant l'utilisation des crédits,
- le stockage, les requêtes, l'historique utilisateur et plus encore.
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: Snowflake
----
-
-
-
-
-## Présentation
-
-Ce check permet de surveiller [Snowflake][1] via l'Agent Datadog. Snowflake est un entrepôt de données analytique fourni en tant que SaaS et s'exécute entièrement sur une infrastructure cloud.
-Cette intégration permet de surveiller l'utilisation des crédits, la facturation, le stockage, l'historique des requêtes et bien plus encore.
-
-Remarque : les métriques sont recueillies par le biais de requêtes envoyées à Snowflake. Les requêtes transmises par l'intégration Datadog sont susceptibles d'être facturées par Snowflake.
-
-## Configuration
-
-Suivez les instructions ci-dessous pour installer et configurer ce check lorsque l'Agent est exécuté sur un host.
-
-### Installation
-
-Le check Snowflake est inclus avec le package de l'[Agent Datadog][2].
-
-**Remarque** : le check Snowflake n'est pas disponible dans l'Agent v6 basé sur Python 2. Pour utiliser Snowflake avec l'Agent v6, consultez la section [Utiliser Python 3 avec l'Agent v6 de Datadog][3] ou passez à l'Agent v7.
-
-### Configuration
-Snowflake recommande d'accorder des autorisations à un rôle alternatif tel que `SYSADMIN`. En savoir plus sur le contrôle
du rôle ACCOUNTADMIN (en anglais).
-
-1. Créez un rôle et un utilisateur spécifiques Datadog pour surveiller Snowflake. Dans Snowflake, exécutez les commandes suivantes pour créer un rôle personnalisé ayant accès au schéma ACCOUNT_USAGE.
-
- Remarque : par défaut, cette intégration surveille la base de données `SNOWFLAKE` et le schéma `ACCOUNT_USAGE`. Consultez la section « Recueillir les données d'une organisation » pour découvrir comment surveiller le schéma `ORGANIZATION_USAGE`.
- Cette base de données est disponible par défaut et ne peut être consultée que par les utilisateurs disposant du rôle `ACCOUNTADMIN` ou de [tout rôle accordé par ACCOUNTADMIN][4].
-
-
- ```text
- use role ACCOUNTADMIN;
- grant imported privileges on database snowflake to role SYSADMIN;
-
- use role SYSADMIN;
-
- ```
-
-
- Vous pouvez également créer un rôle personnalisé `DATADOG` ayant accès à `ACCOUNT_USAGE`.
-
-
- ```text
- -- Créer un nouveau rôle destiné à surveiller l'utilisation de Snowflake.
- create role DATADOG;
-
- -- Accorder des autorisations sur la base de données SNOWFLAKE au nouveau rôle.
- grant imported privileges on database SNOWFLAKE to role DATADOG;
-
- -- Accorder l'accès à l'utilisation de votre entrepôt de données par défaut au rôle DATADOG.
- grant usage on warehouse to role DATADOG;
-
- -- Créer un utilisateur. Ignorez cette étape si vous avez déjà un utilisateur existant.
- create user UTILISATEUR_DATADOG
- LOGIN_NAME = UTILISATEUR_DATADOG
- password = ''
- default_warehouse =
- default_role = DATADOG
- default_namespace = SNOWFLAKE.ACCOUNT_USAGE;
-
- -- Accorder le rôle de monitor à l'utilisateur.
- grant role DATADOG to user ;
- ```
-
-
-2. Modifiez le fichier `snowflake.d/conf.yaml` dans le dossier `conf.d/` à la racine du répertoire de configuration de votre Agent pour commencer à recueillir vos données de performance Snowflake. Consultez le [fichier d'exemple snowflake.d/conf.yaml][5] pour découvrir toutes les options de configuration disponibles.
-
- ```yaml
- ## @param account - string - required
- ## Name of your account (provided by Snowflake), including the platform and region if applicable.
- ## For more information on Snowflake account names,
- ## see https://docs.snowflake.com/en/user-guide/connecting.html#your-snowflake-account-name
- #
- - account: -
-
- ## @param username - string - required
- ## Login name for the user.
- #
- username:
-
- ## @param password - string - required
- ## Password for the user
- #
- password:
-
- ## @param role - string - required
- ## Name of the role to use.
- ##
- ## By default, the SNOWFLAKE database is only accessible by the ACCOUNTADMIN role. Snowflake recommends
- ## configuring a role specific for monitoring:
- ## https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
- #
- role:
-
- ## @param min_collection_interval - number - optional - default: 15
- ## This changes the collection interval of the check. For more information, see:
- ## https://docs.datadoghq.com/developers/write_agent_check/#collection-interval
- ##
- ## NOTE: Most Snowflake ACCOUNT_USAGE views are populated on an hourly basis,
- ## so to minimize unnecessary queries, set the `min_collection_interval` to 1 hour.
- #
- min_collection_interval: 3600
-
- # @param disable_generic_tags - boolean - optional - default: false
- # Generic tags such as `cluster` will be replaced by _cluster to avoid
- # getting mixed with other integration tags.
- # disable_generic_tags: true
- ```
-
- In the default `conf.yaml`, the
min_collection_interval is 1 hour.
- Snowflake metrics are aggregated by day, you can increase the interval to reduce the number of queries.
-
Note: Snowflake ACCOUNT_USAGE views have a
known latency of 45 minutes to 3 hours.
-
-3. [Redémarrez l'Agent][6].
-
-#### Recueillir les données d'une organisation
-
-Par défaut, cette intégration surveille le schéma `ACCOUNT_USAGE`. Vous pouvez toutefois la configurer pour qu'elle surveille les métriques liées à votre organisation.
-
-Pour recueillir les métriques liées à votre organisation, définissez le champ schema sur `ORGANIZATION_USAGE` et le champ `min_collection_interval` sur 43200 dans la configuration de l'intégration. Ce paramètre permet de réduire le nombre de requêtes envoyées à Snowflake, la plupart des métriques affichant une latence pouvant aller jusqu'à 24 heures.
-
-Remarque : pour surveiller les métriques liées à votre organisation, votre `user` doit disposer du rôle `ORGADMIN`.
-
- ```yaml
- - schema: ORGANIZATION_USAGE
- min_collection_interval: 43200
- ```
-
-Seules certaines métriques sont activées par défaut. Pour recueillir toutes les métriques liées à votre organisation, utilisez l'option de configuration `metric_groups` :
-
- ```yaml
- metric_groups:
- - snowflake.organization.warehouse
- - snowflake.organization.currency
- - snowflake.organization.credit
- - snowflake.organization.storage
- - snowflake.organization.contracts
- - snowflake.organization.balance
- - snowflake.organization.rate
- - snowflake.organization.data_transfer
- ```
-
-Vous pouvez également surveiller les métriques liées à votre compte en plus de celles liées à votre organisation :
-
- ```yaml
- instances:
- - account: example-inc
- username: DATADOG_ORG_ADMIN
- password: ''
- role: SYSADMIN
- schema: ORGANIZATION_USAGE
- database: SNOWFLAKE
- min_collection_interval: 43200
-
- - account: example-inc
- username: DATADOG_ACCOUNT_ADMIN
- password: ''
- role: DATADOG_ADMIN
- schema: ACCOUNT_USAGE
- database: SNOWFLAKE
- min_collection_interval: 3600
- ```
-
-#### Recueillir les données de plusieurs environnements différents
-
-Si vous souhaitez recueillir les données de plusieurs environnements Snowflake, ajoutez chaque environnement en tant qu'instance dans votre fichier `snowflake.d/conf.yaml`. Par exemple, pour recueillir les données de deux utilisateurs nommés `DATADOG_SYSADMIN` et `DATADOG_USER` :
-
-```yaml
-instances:
- - account: example-inc
- username: DATADOG_SYSADMIN
- password: ''
- role: SYSADMIN
- database: EXAMPLE-INC
-
- - account: example-inc
- username: DATADOG_USER
- password: ''
- role: DATADOG_USER
- database: EXAMPLE-INC
-```
-
-#### Configuration d'un proxy
-
-Snowflake recommande de définir des [variables d'environnement pour configurer un proxy][7].
-
-Vous pouvez également définir `proxy_host`, `proxy_port`, `proxy_user` et `proxy_password` sous `init_config` dans le fichier [snowflake.d/conf.yaml][5].
-
-**REMARQUE** : Snowflake met automatiquement en forme les configurations de proxy et définit [les variables d'environnement de proxy standard][8]. Ces variables ont une incidence sur l'ensemble des requêtes provenant des intégrations, y compris les services d'orchestration comme Docker, ECS et Kubernetes.
-
-#### Connectivité privée dans la configuration Snowflake
-
-Si une [connectivité privée][9] (par exemple [AWS PrivateLink][10]) est activée dans Snowflake, vous pouvez configurer l'intégration Snowflake en mettant à jour l'option de configuration `account` et en appliquant le format suivant :
-
- ```yaml
- - account: ..privatelink
- ```
-
-### Requêtes personnalisées Snowflake
-
-L'intégration Snowflake prend en charge les requêtes personnalisées. Par défaut, elle interagit avec la base de données partagée `SNOWFLAKE` et le schéma `ACCOUNT_USAGE`.
-
-Pour exécuter des requêtes personnalisées avec un autre schéma ou une autre base de données, ajoutez une autre instance au [fichier d'exemple snowflake.d/conf.yaml][5] et configurez les options `database` et `schema`.
-Vérifiez que l'utilisateur et le rôle ont accès à la base de données ou au schéma indiqué.
-
-#### Options de configuration
-`custom_queries` dispose des options suivantes :
-
-| Option | Obligatoire | Description |
-|---------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| query | Oui | Le SQL à exécuter. Il peut s'agir d'une simple déclaration ou d'un script sur plusieurs lignes. Toutes les rangées des résultats sont évaluées. Utilisez le symbole pipe « | » si vous avez besoin d'un script sur plusieurs lignes. |
-| columns | Oui | Liste représentant toutes les colonnes, triées par ordre séquentiel de gauche à droite.
Deux types d'informations sont obligatoires :
-**`name`** : le suffixe à ajouter à metric_prefix afin de former un nom de métrique complet. Si le `type` est défini sur `tag`, la colonne est considérée comme un tag et appliquée à chaque métrique recueillie par cette requête.
- **`type`** : la méthode d'envoi (`gauge`, `count`, `rate`, etc.). Cette option peut également être définie sur `tag` pour ajouter à chaque métrique de la rangée le nom et la valeur (`:`) de l'élément en tant que tag dans cette colonne. |
-| usage-metering-get-hourly-usage-for-lambda-traced-invocations | Non | La liste des tags statiques à appliquer à chaque métrique. |
-
-
-##### Remarques
-- Au moins un élément de `columns` doit correspondre à un type de métrique (`gauge`, `count`, `rate`, etc.).
-- Le nombre d'éléments dans columns doit correspondre au nombre de colonnes renvoyées par la requête.
-- L'ordre des éléments dans `columns` doit correspondre à celui des valeurs renvoyées par la requête.
-
-```yaml
-custom_queries:
- - query: select F3, F2, F1 from Table;
- columns:
- - name: f3_metric_alias
- type: gauge
- - name: f2_tagkey
- type: tag
- - name: f1_metric_alias
- type: count
- tags:
- - test:snowflake
-```
-
-#### Exemple
-La requête suivante compte toutes les requêtes de la [vue `QUERY_HISTORY`][11] avec un tag comportant les noms de la base de données, du schéma et de l'entrepôt.
-
-```TEXT
-select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
-```
-
-##### Configuration
-
-Voici un exemple de configuration de requêtes personnalisées dans `instances` :
-
-```yaml
-custom_queries:
- - query: select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
- columns:
- - name: query.total
- type: gauge
- - name: database_name
- type: tag
- - name: schema_name
- type: tag
- - name: warehouse_name
- type: tag
- tags:
- - test:snowflake
-```
-
-##### Validation
-
-Pour vérifier le résultat, recherchez les métriques à l'aide de la vue [Metrics Summary][12] :
-
-![Résumé des métriques Snowflake][13]
-
-
-### Validation
-
-[Lancez la sous-commande status de l'Agent][14] et cherchez `snowflake` dans la section Checks.
-
-## Données collectées
-
-Remarque : seules les métriques des groupes de métriques suivants sont recueillies par défaut :
snowflake.query.*,
snowflake.billing.*,
snowflake.storage.* et
snowflake.logins.*.
-
-Si vous souhaitez recueillir des métriques d'autres groupes, consultez l'
exemple de fichier de configuration pour cette intégration.
-
-
-### Métriques
-{{< get-metrics-from-git "snowflake-web" >}}
-
-
-### Événements
-
-Snowflake n'inclut aucun événement.
-
-### Checks de service
-{{< get-service-checks-from-git "snowflake-web" >}}
-
-
-## Dépannage
-
-Besoin d'aide ? Contactez [l'assistance Datadog][17].
-
-## Pour aller plus loin
-
-Documentation, liens et articles supplémentaires utiles :
-
-- [Surveillance de Snowflake avec Datadog][18]
-
-
-[1]: https://www.snowflake.com/
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/fr/agent/guide/agent-v6-python-3/?tab=hostagent
-[4]: https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
-[5]: https://github.com/DataDog/integrations-core/blob/master/snowflake/datadog_checks/snowflake/data/conf.yaml.example
-[6]: https://docs.datadoghq.com/fr/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[7]: https://docs.snowflake.com/en/user-guide/python-connector-example.html#using-a-proxy-server
-[8]: https://github.com/snowflakedb/snowflake-connector-python/blob/d6df58f1c338b255393571a08a1f9f3a71d8f7b6/src/snowflake/connector/proxy.py#L40-L41
-[9]: https://docs.snowflake.com/en/user-guide/private-snowflake-service.html
-[10]: https://docs.snowflake.com/en/user-guide/admin-security-privatelink.html
-[11]: https://docs.snowflake.com/en/sql-reference/account-usage/query_history.html
-[12]: https://docs.datadoghq.com/fr/metrics/summary/
-[13]: https://raw.githubusercontent.com/DataDog/integrations-core/master/snowflake/images/custom_query.png
-[14]: https://docs.datadoghq.com/fr/agent/guide/agent-commands/#agent-status-and-information
-[15]: https://github.com/DataDog/integrations-core/blob/master/snowflake/metadata.csv
-[16]: https://github.com/DataDog/integrations-core/blob/master/snowflake/assets/service_checks.json
-[17]: https://docs.datadoghq.com/fr/help/
-[18]: https://www.datadoghq.com/blog/snowflake-monitoring-datadog/
diff --git a/content/ja/integrations/snowflake.md b/content/ja/integrations/snowflake.md
deleted file mode 100644
index e92a614180e..00000000000
--- a/content/ja/integrations/snowflake.md
+++ /dev/null
@@ -1,357 +0,0 @@
----
-app_id: snowflake
-app_uuid: 23e9084d-5801-4a71-88fe-f62b7c1bb289
-assets:
- dashboards:
- Snowflake: assets/dashboards/snowflake.json
- Snowflake Organization Metrics: assets/dashboards/organization_metrics.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: snowflake.storage.storage_bytes.total
- metadata_path: metadata.csv
- prefix: snowflake.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10123
- source_type_name: Snowflake
- monitors:
- Snowflake failed logins: assets/monitors/snowflake_failed_logins.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com (日本語対応)
- support_email: help@datadoghq.com
-categories:
-- cloud
-- data stores
-- コスト管理
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/snowflake/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: snowflake
-integration_id: snowflake
-integration_title: Snowflake
-integration_version: 5.6.0
-is_public: true
-manifest_version: 2.0.0
-name: snowflake
-public_title: Snowflake
-short_description: クレジットの使用状況、ストレージ、クエリ、ユーザー履歴などの主要なメトリクスを監視します。
-supported_os:
-- linux
-- macos
-- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - Category::Cloud
- - Category::Data Stores
- - Category::Cost Management
- configuration: README.md#Setup
- description: クレジットの使用状況、ストレージ、クエリ、ユーザー履歴などの主要なメトリクスを監視します。
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: Snowflake
----
-
-
-
-
-## 概要
-
-このチェックは、Datadog Agent を通じて [Snowflake][1] を監視します。Snowflake は SaaS 分析データウェアハウスであり、完全にクラウドインフラストラクチャー上で実行されます。
-このインテグレーションにより、クレジットの使用状況、請求、ストレージ、クエリメトリクスなどが監視されます。
-
-注: メトリクスは Snowflake へのクエリとともに収集されます。Datadog インテグレーションによるクエリは、Snowflake によって課金されます。
-
-## セットアップ
-
-以下の手順に従って、このチェックをインストールし、ホストで実行中の Agent に対して構成します。
-
-### インストール
-
-Snowflake チェックは [Datadog Agent][2] パッケージに含まれています。
-
-**注**: Python 2 を使用する Datadog Agent v6 では、Snowflake チェックは利用できません。Agent v6 で Snowflake を使用するには、[Datadog Agent v6 で Python 3 を使用する][3]を参照するか、Agent v7 にアップグレードしてください。
-
-### 構成
-Snowflake は、`SYSADMIN` などの代替ロールにアクセス許可を付与することをお勧めします。詳細については、
ACCOUNTADMIN ロールの制御の詳細をご覧ください。
-
-1. Snowflake を監視するための Datadog 固有のロールとユーザーを作成します。Snowflake で、以下を実行して、ACCOUNT_USAGE スキーマにアクセスできるカスタムロールを作成します。
-
- 注: デフォルトでは、このインテグレーションは `SNOWFLAKE` データベースと `ACCOUNT_USAGE` スキーマを監視します。`ORGANIZATION_USAGE` スキーマを監視する方法については、"組織データの収集” を参照してください。
- このデータベースはデフォルトで使用でき、表示できるのは `ACCOUNTADMIN` ロールまたは [ACCOUNTADMIN によって付与されたロール][4]のユーザーのみです。
-
-
-"```text
use role ACCOUNTADMIN;
grant imported privileges on database snowflake to role SYSADMIN;
use role SYSADMIN;
```
別の方法として、`ACCOUNT_USAGE` にアクセスできる `DATADOG` カスタムロールを作成することができます。
```text
-- Snowflake の使用量を監視するための新しいロールを作成します。
create role DATADOG;
-- 新しいロールに SNOWFLAKE データベースの特権を付与します。
grant imported privileges on database SNOWFLAKE to role DATADOG;
-- DATADOG ロールにデフォルトのウェアハウスの使用権限を付与します。"
-grant usage on warehouse <WAREHOUSE> to role DATADOG;
-
-"-- ユーザーを作成します (既存のユーザーを使用する場合はこのステップをスキップします)。
create user DATADOG_USER
LOGIN_NAME = DATADOG_USER
password = '<PASSWORD>'
default_warehouse = <WAREHOUSE>
default_role = DATADOG
default_namespace = SNOWFLAKE.ACCOUNT_USAGE;
-- ユーザーにモニターロールを付与します。
grant role DATADOG to user <USER>;
```"
-
-
-2. Snowflake のパフォーマンスデータの収集を開始するには、Agent のコンフィギュレーションディレクトリのルートにある `conf.d/` フォルダーの `snowflake.d/conf.yaml` ファイルを編集します。使用可能なすべてのコンフィギュレーションオプションの詳細については、[サンプル snowflake.d/conf.yaml][5] を参照してください。
-
- ```yaml
- ## @param account - string - required
- ## Name of your account (provided by Snowflake), including the platform and region if applicable.
- ## For more information on Snowflake account names,
- ## see https://docs.snowflake.com/en/user-guide/connecting.html#your-snowflake-account-name
- #
- - account: -
-
- ## @param username - string - required
- ## Login name for the user.
- #
- username:
-
- ## @param password - string - required
- ## Password for the user
- #
- password:
-
- ## @param role - string - required
- ## Name of the role to use.
- ##
- ## By default, the SNOWFLAKE database is only accessible by the ACCOUNTADMIN role. Snowflake recommends
- ## configuring a role specific for monitoring:
- ## https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
- #
- role:
-
- ## @param min_collection_interval - number - optional - default: 15
- ## This changes the collection interval of the check. For more information, see:
- ## https://docs.datadoghq.com/developers/write_agent_check/#collection-interval
- ##
- ## NOTE: Most Snowflake ACCOUNT_USAGE views are populated on an hourly basis,
- ## so to minimize unnecessary queries, set the `min_collection_interval` to 1 hour.
- #
- min_collection_interval: 3600
-
- # @param disable_generic_tags - boolean - optional - default: false
- # Generic tags such as `cluster` will be replaced by _cluster to avoid
- # getting mixed with other integration tags.
- # disable_generic_tags: true
- ```
-
- In the default `conf.yaml`, the
min_collection_interval is 1 hour.
- Snowflake metrics are aggregated by day, you can increase the interval to reduce the number of queries.
-
Note: Snowflake ACCOUNT_USAGE views have a
known latency of 45 minutes to 3 hours.
-
-3. [Agent を再起動します][6]。
-
-#### 組織データの収集
-
-デフォルトでは、このインテグレーションは `ACCOUNT_USAGE` スキーマを監視しますが、代わりに組織レベルのメトリクスを監視するように設定することができます。
-
-組織メトリクスを収集するには、インテグレーションの構成でスキーマフィールドを `ORGANIZATION_USAGE` に変更し、`min_collection_interval` を 43200 に増やします。ほとんどの組織クエリのレイテンシーが最大 24 時間であるため、これにより Snowflake へのクエリ数を減らすことができます。
-
-注: 組織のメトリクスを監視するには、`user` が `ORGADMIN` ロールである必要があります。
-
- ```yaml
- - schema: ORGANIZATION_USAGE
- min_collection_interval: 43200
- ```
-
-デフォルトでは、一部の組織メトリクスのみが有効になっています。利用可能なすべての組織メトリクスを収集するには、`metric_groups` 構成オプションを使用します。
-
- ```yaml
- metric_groups:
- - snowflake.organization.warehouse
- - snowflake.organization.currency
- - snowflake.organization.credit
- - snowflake.organization.storage
- - snowflake.organization.contracts
- - snowflake.organization.balance
- - snowflake.organization.rate
- - snowflake.organization.data_transfer
- ```
-
-さらに、アカウントと組織の両方のメトリクスを同時に監視することができます。
-
- ```yaml
- instances:
- - account: example-inc
- username: DATADOG_ORG_ADMIN
- password: ''
- role: SYSADMIN
- schema: ORGANIZATION_USAGE
- database: SNOWFLAKE
- min_collection_interval: 43200
-
- - account: example-inc
- username: DATADOG_ACCOUNT_ADMIN
- password: ''
- role: DATADOG_ADMIN
- schema: ACCOUNT_USAGE
- database: SNOWFLAKE
- min_collection_interval: 3600
- ```
-
-#### 複数環境のデータ収集
-
-複数の Snowflake 環境のデータを収集したい場合は、`snowflake.d/conf.yaml` ファイルに各環境をインスタンスとして追加します。例えば、`DATADOG_SYSADMIN` と `DATADOG_USER` という 2 つのユーザーのデータを収集する必要がある場合:
-
-```yaml
-instances:
- - account: example-inc
- username: DATADOG_SYSADMIN
- password: ''
- role: SYSADMIN
- database: EXAMPLE-INC
-
- - account: example-inc
- username: DATADOG_USER
- password: ''
- role: DATADOG_USER
- database: EXAMPLE-INC
-```
-
-#### プロキシのコンフィギュレーション
-
-Snowflake は、[プロキシコンフィギュレーションの環境変数][7]を設定することをお勧めします。
-
-[snowflake.d/conf.yaml][5] の `init_config` の下に `proxy_host`、`proxy_port`、`proxy_user`、`proxy_password` を設定することもできます。
-
-**注**: Snowflake は、プロキシコンフィギュレーションを自動的にフォーマットし、[標準プロキシ環境変数][8]を設定します。
-これらの変数は、Docker、ECS、Kubernetes などのオーケストレーターを含むインテグレーションからのすべてのリクエストにも影響を与えます。
-
-#### Snowflake 構成へのプライベート接続
-
-Snowflake で[プライベート接続][9] ([AWS PrivateLink][10] など) が有効な場合、`account` 構成オプションを以下の形式に更新することで Snowflake とのインテグレーションを構成することが可能です。
-
- ```yaml
- - account: ..privatelink
- ```
-
-### Snowflake カスタムクエリ
-
-Snowflake インテグレーションは、カスタムクエリに対応しています。デフォルトで、インテグレーションは共有 `SNOWFLAKE` データベースと `ACCOUNT_USAGE` スキーマに接続します。
-
-カスタムクエリを別のスキーマまたはデータベースで実行するには、別のインスタンスを[サンプル snowflake.d/conf.yaml][5] に追加して `database` および `schema` オプションを指定します。
-ユーザーとロールには、指定したデータベースまたはスキーマへのアクセス権があることを確認します。
-
-#### コンフィギュレーションオプション
-`custom_queries` には以下のオプションがあります。
-
-| オプション | 必須 | 説明 |
-|---------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| クエリ | はい | 実行する SQL です。簡単なステートメントにすることも、複数行のスクリプトにすることもできます。結果のすべての行が評価されます。複数行のスクリプトが必要な場合は、パイプを使用します。 |
-| 列 | はい | 列を表すリストです。左から右へ順に並べられます。
次の 2 つの必須データがあります。
- **`name`**: サフィックスとして metric_prefix に付加され、完全な名前を形成します。`type` が `tag` と指定されている場合、この列は、このクエリによって収集されるすべてのメトリクスにタグとして適用されます。
- **`type`**: 送信方法 (`gauge`、`count`、`rate` など)。`tag` と設定し、この列のアイテムの名前と値 (`:`) で行の各メトリクスにタグ付けすることができます。 |
-| usage-metering-get-hourly-usage-for-lambda-traced-invocations | いいえ | 各メトリクスに適用する静的タグのリスト。 |
-
-
-##### 注
-- 定義済みの `columns` のうち最低 1 つは、メトリクスタイプ (`gauge`、`count`、`rate` など) である必要があります。
-- 列内のアイテム数は、クエリで返された列数と同じである必要があります。
-- `columns` のアイテムが定義される順番は、クエリで返された順番と同じである必要があります。
-
-```yaml
-custom_queries:
- - query: select F3, F2, F1 from Table;
- columns:
- - name: f3_metric_alias
- type: gauge
- - name: f2_tagkey
- type: tag
- - name: f1_metric_alias
- type: count
- tags:
- - test:snowflake
-```
-
-#### 例
-以下は、データベース、スキーマ、ウェアハウス名でタグ付けされた [`QUERY_HISTORY` ビュー][11]ですべてのクエリをカウントするクエリの例です。
-
-```TEXT
-select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
-```
-
-##### 構成
-
-`instances` のカスタムクエリのコンフィギュレーションは、以下のようになります。
-
-```yaml
-custom_queries:
- - query: select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
- columns:
- - name: query.total
- type: gauge
- - name: database_name
- type: tag
- - name: schema_name
- type: tag
- - name: warehouse_name
- type: tag
- tags:
- - test:snowflake
-```
-
-##### 検証
-
-結果を確認するには、[メトリクスの概要][12]を使用してメトリクスを検索します。
-
-![Snowflake メトリクスの概要][13]
-
-
-### 検証
-
-[Agent の status サブコマンドを実行][14]し、Checks セクションで `snowflake` を探します。
-
-## 収集データ
-
-注: デフォルトでは、以下のメトリクスグループのメトリクスのみが有効になっています。
snowflake.query.*、
snowflake.billing.*、
snowflake.storage.*、
snowflake.logins.*
-
-他のメトリクスグループのメトリクスを収集する場合は、
でこのインテグレーションのコンフィグファイル例を参照してください。
-
-
-### メトリクス
-{{< get-metrics-from-git "snowflake-web" >}}
-
-
-### イベント
-
-Snowflake には、イベントは含まれません。
-
-### サービスのチェック
-{{< get-service-checks-from-git "snowflake-web" >}}
-
-
-## トラブルシューティング
-
-ご不明な点は、[Datadog のサポートチーム][17]までお問合せください。
-
-## その他の参考資料
-
-お役に立つドキュメント、リンクや記事:
-
-- [Datadog で Snowflake を監視する][18]
-
-
-[1]: https://www.snowflake.com/
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/ja/agent/guide/agent-v6-python-3/?tab=hostagent
-[4]: https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
-[5]: https://github.com/DataDog/integrations-core/blob/master/snowflake/datadog_checks/snowflake/data/conf.yaml.example
-[6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[7]: https://docs.snowflake.com/en/user-guide/python-connector-example.html#using-a-proxy-server
-[8]: https://github.com/snowflakedb/snowflake-connector-python/blob/d6df58f1c338b255393571a08a1f9f3a71d8f7b6/src/snowflake/connector/proxy.py#L40-L41
-[9]: https://docs.snowflake.com/en/user-guide/private-snowflake-service.html
-[10]: https://docs.snowflake.com/en/user-guide/admin-security-privatelink.html
-[11]: https://docs.snowflake.com/en/sql-reference/account-usage/query_history.html
-[12]: https://docs.datadoghq.com/ja/metrics/summary/
-[13]: https://raw.githubusercontent.com/DataDog/integrations-core/master/snowflake/images/custom_query.png
-[14]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information
-[15]: https://github.com/DataDog/integrations-core/blob/master/snowflake/metadata.csv
-[16]: https://github.com/DataDog/integrations-core/blob/master/snowflake/assets/service_checks.json
-[17]: https://docs.datadoghq.com/ja/help/
-[18]: https://www.datadoghq.com/blog/snowflake-monitoring-datadog/
diff --git a/content/ko/integrations/snowflake.md b/content/ko/integrations/snowflake.md
deleted file mode 100644
index 29b202796be..00000000000
--- a/content/ko/integrations/snowflake.md
+++ /dev/null
@@ -1,386 +0,0 @@
----
-app_id: snowflake
-app_uuid: 23e9084d-5801-4a71-88fe-f62b7c1bb289
-assets:
- dashboards:
- Snowflake: assets/dashboards/snowflake.json
- Snowflake Organization Metrics: assets/dashboards/organization_metrics.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: snowflake.storage.storage_bytes.total
- metadata_path: metadata.csv
- prefix: snowflake.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10123
- source_type_name: Snowflake
- monitors:
- Snowflake failed logins: assets/monitors/snowflake_failed_logins.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
-categories:
-- cloud
-- 데이터 스토어
-- 비용 관리
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/snowflake/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: snowflake
-integration_id: snowflake
-integration_title: Snowflake
-integration_version: 5.6.0
-is_public: true
-manifest_version: 2.0.0
-name: snowflake
-public_title: Snowflake
-short_description: 크레딧 사용량, 저장 용량, 쿼리, 사용자 기록 등에 대한 주요 메트릭을 모니터링하세요.
-supported_os:
-- 리눅스
-- macos
-- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - "\b카테고리::클라우드"
- - 카테고리::데이터 저장
- - Category::Cost Management
- configuration: README.md#Setup
- description: 크레딧 사용량, 저장 용량, 쿼리, 사용자 기록 등에 대한 주요 메트릭을 모니터링하세요.
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: Snowflake
----
-
-
-
-
-## 개요
-
-이 검사는 Datadog Agent를 통해 [Snowflake][1]를 모니터링합니다. Snowflake는 SaaS 분석 데이터 웨어하우스이며 완전히 클라우드 인프라스트럭처에서 실행됩니다.
-이 통합은 크레딧 사용량, 청구, 저장용량, 쿼리 메트릭 등을 모니터링합니다.
-
-참고: 메트릭은 Snowflake에 대한 쿼리를 통해 수집됩니다. Datadog 통합으로 생성된 쿼리는 Snowflake에서 청구 가능합니다..
-
-## 설정
-
-호스트에서 실행되는 Agent에 대해 이 검사를 설치하고 구성하려면 아래 지침을 따르세요.
-
-### 설치
-
-Snowflake 검사는 [Datadog Agent][2] 패키지에 포함되어 있습니다.
-
-**참고**: Python 2를 사용하는 Datadog Agent v6에서는 Snowflake 검사를 사용할 수 없습니다. Agent v6에서 Snowflake를 사용하려면 [Datadog Agent v6에서 Python 3 사용][3]을 참조하거나 Agent v7로 업그레이드하세요.
-
-### 구성
-Snowflake에서는 `SYSADMIN`과 같은 대체 역할에 권한을 부여할 것을 권장합니다. 자세히 알아보려면
ACCOUNTADMIN 역할 제어를 참고하세요.
-
-1. Snowflake를 모니터링하려면 Datadog 특정 역할과 사용자를 생성하세요. Snowflake에서 다음을 실행하여 ACCOUNT_USAGE 스키마에 대한 액세스 권한이 있는 커스텀 역할을 생성합니다.
-
- 참고: 기본적으로 이 통합은 `SNOWFLAKE` 데이터베이스와 `ACCOUNT_USAGE` 스키마를 모니터링합니다. `ORGANIZATION_USAGE` 스키마 모니터링 방법을 알아보려면 "Collecting Organization Data"를 참조하세요.
- 이 데이터베이스는 기본적으로 사용 가능하며 `ACCOUNTADMIN` 역할 또는 [ACCOUNTADMIN이 부여한 모든 역할][4]의 사용자만 볼 수 있습니다.
-
-
- ```text
- use role ACCOUNTADMIN;
- grant imported privileges on database snowflake to role SYSADMIN;
-
- use role SYSADMIN;
-
- ```
-
-
- 또는 `ACCOUNT_USAGE`에 대한 액세스 권한이 있는 `DATADOG` 커스텀 역할을 생성할 수 있습니다..
-
-
- ```text
- -- Snowflake 사용량을 모니터링하기 위한 새 역할을 만듭니다.
- create role DATADOG;
-
- -- SNOWFLAKE 데이터베이스에 대한 권한을 새 역할에 부여합니다.
- grant imported privileges on database SNOWFLAKE to role DATADOG;
-
- -- DATADOG 역할에 기본 웨어하우스 대한 사용 권한을 부여합니다.
- grant usage on warehouse to role DATADOG;
-
- -- 사용자를 생성합니다. 기존 사용자를 사용하는 경우 이 단계를 건너뜁니다.
- create user DATADOG_USER
- LOGIN_NAME = DATADOG_USER
- password = ''
- default_warehouse =
- default_role = DATADOG
- default_namespace = SNOWFLAKE.ACCOUNT_USAGE;
-
- -- 사용자에게 모니터 역할을 부여합니다.
- grant role DATADOG to user ;
- ```
-
-
-2. Snowflake 성능 데이터 수집을 시작하려면 Agent 구성 디렉터리 루트에 있는 `conf.d/` 폴더에서 `snowflake.d/conf.yaml` 파일을 편집하세요. 사용 가능한 모든 구성 옵션은 [샘플 snowflake.d/conf.yaml][5]을 참조하세요.
-
- ```yaml
- ## @param account - string - required
- ## Name of your account (provided by Snowflake), including the platform and region if applicable.
- ## For more information on Snowflake account names,
- ## see https://docs.snowflake.com/en/user-guide/connecting.html#your-snowflake-account-name
- #
- - account: -
-
- ## @param username - string - required
- ## Login name for the user.
- #
- username:
-
- ## @param password - string - required
- ## Password for the user
- #
- password:
-
- ## @param role - string - required
- ## Name of the role to use.
- ##
- ## By default, the SNOWFLAKE database is only accessible by the ACCOUNTADMIN role. Snowflake recommends
- ## configuring a role specific for monitoring:
- ## https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
- #
- role:
-
- ## @param min_collection_interval - number - optional - default: 15
- ## This changes the collection interval of the check. For more information, see:
- ## https://docs.datadoghq.com/developers/write_agent_check/#collection-interval
- ##
- ## NOTE: Most Snowflake ACCOUNT_USAGE views are populated on an hourly basis,
- ## so to minimize unnecessary queries, set the `min_collection_interval` to 1 hour.
- #
- min_collection_interval: 3600
-
- # @param disable_generic_tags - boolean - optional - default: false
- # Generic tags such as `cluster` will be replaced by _cluster to avoid
- # getting mixed with other integration tags.
- # disable_generic_tags: true
- ```
-
- In the default `conf.yaml`, the
min_collection_interval is 1 hour.
- Snowflake metrics are aggregated by day, you can increase the interval to reduce the number of queries.
-
Note: Snowflake ACCOUNT_USAGE views have a
known latency of 45 minutes to 3 hours.
-
-3. [에이전트를 재시작합니다][6].
-
-#### 조직 데이터 수집
-
-기본적으로 이 통합은 `ACCOUNT_USAGE` 스키마를 모니터링하지만 대신 조직 수준 메트릭을 모니터링하도록 설정할 수 있습니다.
-
-조직 메트릭을 수집하려면 통합 구성에서 스키마 필드를 `ORGANIZATION_USAGE`로 변경하고 `min_collection_interval`을 43200으로 늘립니다. 대부분의 조직 쿼리에는 최대 24시간의 지연 시간이 있으므로 이렇게 하면 Snowflake에 대한 쿼리 수가 줄어듭니다.
-
-참고: 조직 메트릭을 모니터링하려면 `user`에게 `ORGADMIN` 역할이 있어야 합니다.
-
- ```yaml
- - schema: ORGANIZATION_USAGE
- min_collection_interval: 43200
- ```
-
-기본적으로 일부 조직 메트릭만 활성화됩니다. 사용 가능한 모든 조직 메트릭을 수집하려면 `metric_groups` 구성 옵션을 활용하세요.
-
- ```yaml
- metric_groups:
- - snowflake.organization.warehouse
- - snowflake.organization.currency
- - snowflake.organization.credit
- - snowflake.organization.storage
- - snowflake.organization.contracts
- - snowflake.organization.balance
- - snowflake.organization.rate
- - snowflake.organization.data_transfer
- ```
-
-또한 계정과 조직 메트릭을 동시에 모니터링할 수 있습니다.
-
- ```yaml
- instances:
- - account: example-inc
- username: DATADOG_ORG_ADMIN
- password: ''
- role: SYSADMIN
- schema: ORGANIZATION_USAGE
- database: SNOWFLAKE
- min_collection_interval: 43200
-
- - account: example-inc
- username: DATADOG_ACCOUNT_ADMIN
- password: ''
- role: DATADOG_ADMIN
- schema: ACCOUNT_USAGE
- database: SNOWFLAKE
- min_collection_interval: 3600
- ```
-
-#### 여러 환경에 대한 데이터 수집
-
-여러 Snowflake 환경에 대한 데이터를 수집하려면 각 환경을 `snowflake.d/conf.yaml` 파일에 인스턴스로 추가하세요. 예를 들어 이름이 `DATADOG_SYSADMIN` 및 이`DATADOG_USER`인 두 명의 사용자에 대한 데이터를 수집해야 하는 경우:
-
-```yaml
-instances:
- - account: example-inc
- username: DATADOG_SYSADMIN
- password: ''
- role: SYSADMIN
- database: EXAMPLE-INC
-
- - account: example-inc
- username: DATADOG_USER
- password: ''
- role: DATADOG_USER
- database: EXAMPLE-INC
-```
-
-#### 프록시 설정
-
-Snowflake에서는 [프록시 구성을 위한 환경 변수][7] 설정을 권장합니다.
-
-[snowflake.d/conf.yaml][5]의 `init_config`에서 `proxy_host`, `proxy_port`, `proxy_user`, `proxy_password`를 설정할 수 있습니다.
-
-**참고**: Snowflake는 자동으로 프록시 구성 형식을 지정하고 [표준 프록시 환경 변수][8]를 설정합니다.
-이러한 변수는 Docker, ECS, Kubernetes와 같은 오케스트레이터를 포함한 통합의 모든 요청에도 영향을 미칩니다.
-
-#### Snowflake 구성에 대한 프라이빗 연결
-
-Snowflake에서 [프라이빗 연결][9](예: [AWS PrivateLink][10])이 활성화된 경우 `account` 구성 옵션을 다음과 같이 업데이트하여 Snowflake 통합을 구성할 수 있습니다.
-
- ```yaml
- - account: ..privatelink
- ```
-
-### Snowflake 커스텀 쿼리
-
-Snowflake 통합은 커스텀 쿼리를 지원합니다. 기본적으로 통합은 공유 `SNOWFLAKE` 데이터베이스 및 `ACCOUNT_USAGE` 스키마에 연결됩니다.
-
-다른 스키마나 데이터베이스에서 커스텀 쿼리를 실행하려면 [sample snowflake.d/conf.yaml][5]에 다른 인스턴스를 추가하고 `database` 및 `schema` 옵션을 지정합니다.
-사용자 및 역할이 지정된 데이터베이스 또는 스키마에 대한 액세스 권한이 있는지 확인하세요.
-
-#### 설정 옵션
-`custom_queries` 옵션에는 다음과 같은 옵션이 있습니다.
-
-| 옵션 | 필수 | 설명 |
-|---------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| 쿼리 | 네 | 실행할 SQL입니다. 간단한 구문이나 여러 줄의 스크립트일 수 있습니다. 결과의 모든 열이 평가됩니다. 여러 줄 스크립트일 경우 파이프를 사용합니다. |
-| 컬럼 | 네 | 각 컬럼을 나타내는 목록이 왼쪽에서 오른쪽으로 순차 정렬되어 있습니다.
다음과 같은 필수 데이터 두 가지가 있습니다:
-`name`**: metric_prefix에 추가하여 전체 메트릭 이름을 구성하는 접두사입니다. `type`을 `tag`으로 지정하면 해당 컬럼은 이 쿼리에서 수집한 모든 메트릭에 태그로 적용됩니다.
-`type`**: 제출 방법입니다(`gauge`, `count`, `rate` 등). `tag`로 설정하여 행의 각 메트릭에 이 컬럼에 있는 항목의 이름과 값(`:`)을 태그로 지정할 수도 있습니다. |
-| tags | 아니요 | 각 메트릭에 적용할 정적 태그 목록입니다. |
-
-
-##### 참고
-- 정의된 `columns`의 항목 중 최소 하나 이상은 메트릭 유형(`gauge`, `count`, `rate` 등)이어야 합니다.
-- 열의 항목 수는 쿼리에 반환된 열 수와 동일해야 합니다.
-- 정의된 `columns` 항목의 순서는 쿼리에서 반환된 순서와 동일해야 합니다.
-
-```yaml
-custom_queries:
- - query: select F3, F2, F1 from Table;
- columns:
- - name: f3_metric_alias
- type: gauge
- - name: f2_tagkey
- type: tag
- - name: f1_metric_alias
- type: count
- tags:
- - test:snowflake
-```
-
-#### 예시
-다음 예는 데이터베이스, 스키마 및 웨어하우스 이름으로 태그가 지정된 [`QUERY_HISTORY` 뷰][11]의 모든 쿼리를 계산하는 쿼리입니다.
-
-```TEXT
-select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
-```
-
-##### 구성
-
-`instances`에서 커스텀 쿼리 구성은 다음과 같습니다.
-
-```yaml
-custom_queries:
- - query: select count(*), DATABASE_NAME, SCHEMA_NAME, WAREHOUSE_NAME from QUERY_HISTORY group by 2, 3, 4;
- columns:
- - name: query.total
- type: gauge
- - name: database_name
- type: tag
- - name: schema_name
- type: tag
- - name: warehouse_name
- type: tag
- tags:
- - test:snowflake
-```
-
-##### 검증
-
-결과를 확인하려면 [Metrics Summary][12]를 사용하여 메트릭을 검색합니다.
-
-![Snowflake Metric Summary][13]
-
-
-### 검증
-
-[Agent의 상태 하위 명령을 실행][14]하고 Checks 섹션에서 `snowflake`를 찾으세요.
-
-## 수집한 데이터
-
-참고: 다음 메트릭 그룹의 메트릭만 기본적으로 활성화됩니다.
snowflake.query.*,
snowflake.billing.*,
snowflake.storage.*,
snowflake.logins.*.
-
-다른 메트릭 그룹에서 메트릭을 수집하려면
이 통합에 대한 예제 구성 파일을 참조하세요.
-
-
-### 메트릭
-{{< get-metrics-from-git "snowflake-web" >}}
-
-
-### 이벤트
-
-Snowflake는 이벤트를 포함하지 않습니다.
-
-### 서비스 점검
-{{< get-service-checks-from-git "snowflake-web" >}}
-
-
-## 트러블슈팅
-
-도움이 필요하신가요? [Datadog 지원팀][17]에 문의해 주세요.
-
-## 참고 자료
-
-기타 유용한 문서, 링크 및 기사:
-
-- [Datadog을 사용한 Snowflake 모니터링][18]
-
-
-[1]: https://www.snowflake.com/
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/ko/agent/guide/agent-v6-python-3/?tab=hostagent
-[4]: https://docs.snowflake.com/en/sql-reference/account-usage.html#enabling-account-usage-for-other-roles
-[5]: https://github.com/DataDog/integrations-core/blob/master/snowflake/datadog_checks/snowflake/data/conf.yaml.example
-[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[7]: https://docs.snowflake.com/en/user-guide/python-connector-example.html#using-a-proxy-server
-[8]: https://github.com/snowflakedb/snowflake-connector-python/blob/d6df58f1c338b255393571a08a1f9f3a71d8f7b6/src/snowflake/connector/proxy.py#L40-L41
-[9]: https://docs.snowflake.com/en/user-guide/private-snowflake-service.html
-[10]: https://docs.snowflake.com/en/user-guide/admin-security-privatelink.html
-[11]: https://docs.snowflake.com/en/sql-reference/account-usage/query_history.html
-[12]: https://docs.datadoghq.com/ko/metrics/summary/
-[13]: https://raw.githubusercontent.com/DataDog/integrations-core/master/snowflake/images/custom_query.png
-[14]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information
-[15]: https://github.com/DataDog/integrations-core/blob/master/snowflake/metadata.csv
-[16]: https://github.com/DataDog/integrations-core/blob/master/snowflake/assets/service_checks.json
-[17]: https://docs.datadoghq.com/ko/help/
-[18]: https://www.datadoghq.com/blog/snowflake-monitoring-datadog/