From a4fc93673dd851b5855509e7cac199557080120b Mon Sep 17 00:00:00 2001 From: Shawn Kilburn Date: Mon, 12 Aug 2024 15:00:33 -0700 Subject: [PATCH 01/15] feat(Docs): Initial commit: release notes --- .../docs-release-notes/docs-8-16-2024.mdx | 21 +++++++++++++++++++ 1 file changed, 21 insertions(+) create mode 100644 src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx diff --git a/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx new file mode 100644 index 00000000000..7a1212653f9 --- /dev/null +++ b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx @@ -0,0 +1,21 @@ +--- +subject: "Docs" +releaseDate: '2024-08-16' +version: 'version: August 9-15, 2024' +--- + +### New docs + +* [Create "host not reporting" NRQL alert conditions](/docs/alerts/create-alert/create-alert-condition/create-nrql-host-not-reporting-conditions) describes how to set up alerting for a loss of signal. + + +### Major changes + + + +### Minor changes + +* Updated [version compatibility information](/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-nginx-buildpack-integration/#requirements-compatibility) for our NGINX integration buildpack for VMware Tanzu. + +### Release notes and What's New posts + From dd6649beb55589653fde611fffaca8eec47abd46 Mon Sep 17 00:00:00 2001 From: Shawn Kilburn Date: Mon, 12 Aug 2024 15:14:43 -0700 Subject: [PATCH 02/15] feat(Docs): Added latest info, as of August 12 --- .../release-notes/docs-release-notes/docs-8-16-2024.mdx | 6 +++++- 1 file changed, 5 insertions(+), 1 deletion(-) diff --git a/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx index 7a1212653f9..8fa20317cf3 100644 --- a/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx +++ b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx @@ -11,11 +11,15 @@ version: 'version: August 9-15, 2024' ### Major changes - +* Improved our installation and configuration steps in [introduction to AWS Lambda monitoring](/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/introduction-lambda/#setup) to make it easier to see how your Lambda functions are performing in our UI. ### Minor changes * Updated [version compatibility information](/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-nginx-buildpack-integration/#requirements-compatibility) for our NGINX integration buildpack for VMware Tanzu. +* Our [infrastructure agent](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/#system) now supports Ubuntu version 24.04.x (LTS version). ### Release notes and What's New posts +* [Agentless monitoring for EC2, Azure VM, and standardized entity creation for EC2, Azure VMs, and GCP CE](/docs/release-notes/infrastructure-release-notes/cloud-integration-release-notes/agentless-monitoring-and-standardized-entity-creation) + * Enhance visibility into your Amazon EC2 and Azure VM infrastructure + * Remove the need for manual agent installations \ No newline at end of file From 816513c4bee3bca25fb906ece5af6aaad4baad6c Mon Sep 17 00:00:00 2001 From: Shawn Kilburn Date: Tue, 13 Aug 2024 14:17:02 -0700 Subject: [PATCH 03/15] feat(Docs): Added release notes up to morning, Aug 13 --- .../docs-release-notes/docs-8-16-2024.mdx | 10 +++++++++- 1 file changed, 9 insertions(+), 1 deletion(-) diff --git a/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx index 8fa20317cf3..1809fa9c608 100644 --- a/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx +++ b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx @@ -20,6 +20,14 @@ version: 'version: August 9-15, 2024' ### Release notes and What's New posts +* What's New for [Synthetics now supports Firefox and multiple emulated devices](/whats-new/2024/08/whats-new-08-12-synthetics-browsers) * [Agentless monitoring for EC2, Azure VM, and standardized entity creation for EC2, Azure VMs, and GCP CE](/docs/release-notes/infrastructure-release-notes/cloud-integration-release-notes/agentless-monitoring-and-standardized-entity-creation) * Enhance visibility into your Amazon EC2 and Azure VM infrastructure - * Remove the need for manual agent installations \ No newline at end of file + * Remove the need for manual agent installations +* [Infrastructure agent v1.56.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-1600) + * Add support for Fluent Bit 3 on Windows +* [Kubernetes integration v3.29.4](/docs/release-notes/infrastructure-release-notes/kubernetes-integration-release-notes/kubernetes-integration-3-29-4) + * Update Go to v1.22.5 +* [Node.js agent v12.1.0](/docs/release-notes/agent-release-notes/nodejs-release-notes/node-agent-12-1-0) + * In Pino instrumentation, pick log message from merging objects + * Add TLS verification for Redis \ No newline at end of file From 00beb418f3ff5ae6351cc23e8f337d1dae14ddfc Mon Sep 17 00:00:00 2001 From: Shawn Kilburn Date: Wed, 14 Aug 2024 15:29:16 -0700 Subject: [PATCH 04/15] feat(Docs): Updated as of midday release, Aug 14 --- .../release-notes/docs-release-notes/docs-8-16-2024.mdx | 9 +++++++++ 1 file changed, 9 insertions(+) diff --git a/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx index 1809fa9c608..aeaffcdcf56 100644 --- a/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx +++ b/src/content/docs/release-notes/docs-release-notes/docs-8-16-2024.mdx @@ -12,11 +12,13 @@ version: 'version: August 9-15, 2024' ### Major changes * Improved our installation and configuration steps in [introduction to AWS Lambda monitoring](/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/introduction-lambda/#setup) to make it easier to see how your Lambda functions are performing in our UI. +* We've got a new [end-of-life announcements](/eol/) section in our docs to make it easier for you to keep track of what's being end-of-lifed and when. It also includes an RSS feed for your convenience. ### Minor changes * Updated [version compatibility information](/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-nginx-buildpack-integration/#requirements-compatibility) for our NGINX integration buildpack for VMware Tanzu. * Our [infrastructure agent](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/#system) now supports Ubuntu version 24.04.x (LTS version). +* We've deprecated pre-built alerts in our UI install flow and updated various docs to reflect that. ### Release notes and What's New posts @@ -24,6 +26,13 @@ version: 'version: August 9-15, 2024' * [Agentless monitoring for EC2, Azure VM, and standardized entity creation for EC2, Azure VMs, and GCP CE](/docs/release-notes/infrastructure-release-notes/cloud-integration-release-notes/agentless-monitoring-and-standardized-entity-creation) * Enhance visibility into your Amazon EC2 and Azure VM infrastructure * Remove the need for manual agent installations +* [Browser agent v1.263.0](/docs/release-notes/new-relic-browser-release-notes/browser-agent-release-notes/browser-agent-v1.263.0) + * Decrease bundle size via converting static strings to warning codes + * Shut down agent initialization if there isn't a valid `licenseKey` and `applicationID` + * Shut down agent when it can't read a date header for the pageview event harvest +* [Browser agent v1.264.0](/docs/release-notes/new-relic-browser-release-notes/browser-agent-release-notes/browser-agent-v1.263.0) + * Normalize, aggregate, and harvest all generic events (1,000 event limit) + * Report all customer `PageAction` data that uses the generic events feature * [Infrastructure agent v1.56.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-1600) * Add support for Fluent Bit 3 on Windows * [Kubernetes integration v3.29.4](/docs/release-notes/infrastructure-release-notes/kubernetes-integration-release-notes/kubernetes-integration-3-29-4) From 7f3ba4670dab5585be54aa62f7edc31f39e90a75 Mon Sep 17 00:00:00 2001 From: svc-docs-eng-opensource-bot Date: Thu, 15 Aug 2024 12:04:58 +0000 Subject: [PATCH 05/15] chore: add translations --- .../ai-monitoring/drop-sensitive-data.mdx | 109 +++-------- .../get-started/networks.mdx | 42 ++-- .../cloud-watch-fallback.mdx | 183 +++++++----------- .../ai-monitoring/drop-sensitive-data.mdx | 105 ++-------- ...port-new-relic-format-traces-trace-api.mdx | 34 ++-- .../cloud-watch-fallback.mdx | 175 +++++++---------- .../ai-monitoring/drop-sensitive-data.mdx | 107 +++------- ...ompatibility-requirements-nodejs-agent.mdx | 34 ++-- ...port-new-relic-format-traces-trace-api.mdx | 34 ++-- .../get-started/networks.mdx | 44 +++-- .../cloud-watch-fallback.mdx | 175 +++++++---------- .../ai-monitoring/drop-sensitive-data.mdx | 107 ++-------- ...ompatibility-requirements-nodejs-agent.mdx | 34 ++-- ...port-new-relic-format-traces-trace-api.mdx | 34 ++-- ...-infrastructure-monitoring-agent-linux.mdx | 145 ++++++-------- .../get-started/networks.mdx | 44 +++-- .../cloud-watch-fallback.mdx | 183 +++++++----------- 17 files changed, 593 insertions(+), 996 deletions(-) diff --git a/src/i18n/content/es/docs/ai-monitoring/drop-sensitive-data.mdx b/src/i18n/content/es/docs/ai-monitoring/drop-sensitive-data.mdx index fd5384fe88d..37423b98650 100644 --- a/src/i18n/content/es/docs/ai-monitoring/drop-sensitive-data.mdx +++ b/src/i18n/content/es/docs/ai-monitoring/drop-sensitive-data.mdx @@ -7,7 +7,7 @@ translationType: machine Tiene dos opciones para eliminar datos confidenciales de IA antes de enviarlos a New Relic. Este documento lo guía a través de estos dos métodos para que pueda tener un mejor control sobre los tipos de datos que recopila el agente. -## Deshabilitar ai.monitoring.record_content.enabled [#disable-event] +## Deshabilitar ai.monitoring.record\_content.enabled [#disable-event] Cuando deshabilitas `ai_monitoring.record_content.enabled`, los datos del evento que contienen el símbolo final de usuario y las respuestas IA no se enviarán a NRDB. Puede leer más sobre la configuración de agentes en nuestro [documento de monitoreo de configuración de IA](/docs/ai-monitoring/customize-agent-ai-monitoring). @@ -19,36 +19,16 @@ Cuando deshabilitas `ai_monitoring.record_content.enabled`, los datos del evento Un filtro de gota única tiene como objetivo un atributo específico dentro de un tipo de evento, pero la información confidencial de una única interacción de IA se almacena en múltiples eventos. Para eliminar información antes de que ingrese a NRDB, necesita seis filtros de eliminación separados. -A gif displaying the workflow for creating a set of drop filters +A gif displaying the workflow for creating a set of drop filters
- De **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters**: para crear un filtro de colocación, seleccione el evento que puede contener datos confidenciales y luego elija la expresión regular que corresponda con el tipo de datos que desea descartar. + De **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters**: para crear un filtro de colocación, seleccione el evento que puede contener datos confidenciales y luego elija la expresión regular que corresponda con el tipo de datos que desea descartar.
-1. Vaya a - - - **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** - - - y luego haga clic en - - - **Create drop filter** - - - . - -2. Crea un nombre de filtro. Recomendamos crear nombres basados en la información incluida, como "tarjeta de crédito", "emails", "direcciones", etc. - +1. Vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** y luego haga clic en **Create drop filter**. +2. Crea un nombre de filtro. Recomendamos crear nombres basados en la información incluida, como "tarjeta de crédito", "emails", "direcciones", etc. 3. Elija el evento del que desea eliminar información o elija eliminar de todos los eventos. - 4. Asigne expresiones regulares al filtro de caída. Tenga en cuenta que, si bien puede seleccionar varios eventos al crear un conjunto de filtros desplegables, solo puede seleccionar un tipo de expresión regular por creación de filtro. - 5. Repita los pasos anteriores para otros tipos de información que desee eliminar. Por ejemplo, si asignó expresiones regulares a su primer conjunto para incluir información de tarjetas de crédito, entonces su siguiente conjunto debería eliminar atributos para otro tipo de información. ## Cómo funcionan los filtros de caída [#drop-rules-work] @@ -59,7 +39,7 @@ Un filtro de gota puede contener tres partes: * **Evento**: Un registro almacenado de una interacción dentro de su sistema. * **Regex**: una cadena de caracteres y operadores que corresponde a tipos de información. -* **Criterios coincidentes** (opcional): una cláusula NRQL que agrega especificidad al filtro de caída. Por ejemplo, si solo desea eliminar datos de `openai`, puede agregar `AND vendor IN 'openai'` +* **Criterios coincidentes** (opcional): una cláusula NRQL que agrega especificidad al filtro de caída. Por ejemplo, si solo desea eliminar datos de `openai`, puede agregar `vendor IN ('openai')` Un filtro de caída evalúa los datos reenviados por el agente dentro del proceso de ingesta de datos para que se pueda descartar información confidencial. @@ -70,10 +50,7 @@ Dado que el comportamiento predeterminado del agente es capturar todas las parte Consulte la expresión regular a continuación para comenzar a crear su primera consulta: - + **Expresión:** ```regex @@ -81,10 +58,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -92,10 +66,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -103,10 +74,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -114,10 +82,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -125,10 +90,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -136,10 +98,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -147,10 +106,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -158,10 +114,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -169,10 +122,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -180,10 +130,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -191,10 +138,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -202,10 +146,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -213,10 +154,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -224,10 +162,7 @@ Consulte la expresión regular a continuación para comenzar a crear su primera ``` - + **Expresión:** ```regex @@ -251,4 +186,4 @@ Ahora que ha protegido los datos de sus clientes, puede explorar el monitoreo de * [Aprenda a explorar sus datos de IA](/docs/ai-monitoring/view-ai-data). * ¿Quiere ajustar su ingesta de datos? [Obtenga información sobre cómo configurar el monitoreo de IA](/docs/ai-monitoring/customize-agent-ai-monitoring). -* ¿Habilitaste el registro? Aprenda cómo [ocultar información confidencial](/docs/logs/ui-data/obfuscation-ui) de su registro o [eliminar mensajes de registro completos si contienen información confidencial](/docs/logs/ui-data/drop-data-drop-filter-rules). +* ¿Habilitaste el registro? Aprenda cómo [ocultar información confidencial](/docs/logs/ui-data/obfuscation-ui) de su registro o [eliminar mensajes de registro completos si contienen información confidencial](/docs/logs/ui-data/drop-data-drop-filter-rules). \ No newline at end of file diff --git a/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx index 63aa32c1b66..0cc53a28175 100644 --- a/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx +++ b/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx @@ -9,7 +9,9 @@ freshnessValidatedDate: never translationType: machine --- -**This list is current. Networks, IPs, domains, ports, and endpoints last updated April 23, 2024.** + + **This list is current. Networks, IPs, domains, ports, and endpoints last updated April 23, 2024.** + Esta es una lista de las redes, direcciones IP, dominio, puertos y extremos utilizados por los clientes o agentes API para comunicarse con New Relic. [Se requiere TLS para todos los dominios](#tls). @@ -49,7 +51,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **APM** + + **APM** + @@ -73,7 +77,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **AWS** + + **AWS** + @@ -111,7 +117,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **Browser** + + **Browser** + @@ -135,7 +143,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **IAST** + + **IAST** + @@ -163,7 +173,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **Ingest APIs** + + **Ingest APIs** + @@ -229,7 +241,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **Infrastructure** + + **Infrastructure** + @@ -281,7 +295,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **Lookup tables** + + **Lookup tables** + @@ -305,7 +321,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **Mobile** + + **Mobile** + @@ -357,7 +375,9 @@ Para obtener más detalles sobre agentes e integración específicos, y sobre pu - **OpenTelemetry** + + **OpenTelemetry** + @@ -761,4 +781,4 @@ Utiliza el siguiente dominio: * `*.pubnub.com` * `*.pubnub.net` * `*.pndsn.com` -* `*.pubnubapi.com` +* `*.pubnubapi.com` \ No newline at end of file diff --git a/src/i18n/content/es/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx b/src/i18n/content/es/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx index 49ad3f9132e..04e7a67b86f 100644 --- a/src/i18n/content/es/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx +++ b/src/i18n/content/es/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx @@ -41,10 +41,7 @@ Hay tres formas de implementar un respaldo de CloudWatch: 3. **Extensión deshabilitada**: en este escenario, CloudWatch siempre se usa para enviar logs y carga. - + Si no envía el log a CloudWatch, esta opción es la forma más económica y estable de garantizar que la carga instrumentada siempre llegue a New Relic. Si envía un log, esta opción introducirá algunos costos de CloudWatch por el envío log . Consulte [Ingesta de datos: facturación y reglas](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) para obtener más información sobre los precios. Luego de agregar una capa New Relic Lambda, la extensión está habilitada y tiene el envío log deshabilitado de forma predeterminada. @@ -59,34 +56,31 @@ Hay tres formas de implementar un respaldo de CloudWatch: * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` (si envía el registro) - O, si estás usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), configura: + O, si estás usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), configura: - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - - `enableIntegration` solo debe incluir si su función se está implementando en una cuenta AWS que aún no tiene una integración. Una vez configurada la integración, esta opción debe eliminar del yaml de la función desplegar. - + + El parámetro `enableIntegration` solo debe incluir si su función se está implementando en una cuenta AWS que aún no tiene una integración. Una vez configurada la integración, esta opción debe eliminar del `serverless.yml` empleado para implementar su función. + - O, si estás usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), configura: + O, si estás usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), configura: - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - + Esta opción proporciona la ruta de menor costo que garantiza que la carga instrumentada siempre llegue a New Relic. Esta opción envía el log de funciones a través de la extensión New Relic Lambda, por lo que si la extensión no se inicia o falla, el log de funciones faltará en New Relic. Si está enviando un log de función, cerciorar de que la extensión esté configurada para hacerlo. Estos logs solo los enviará la extensión y no habrá un respaldo de CloudWatch para el log para evitar duplicados. @@ -102,34 +96,31 @@ Hay tres formas de implementar un respaldo de CloudWatch: * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `false` (deshabilite el reenvío de logpara evitar duplicados o configure el patrón de filtro de subscripción de CloudWatch para que coincida solo con `NR_LAMBDA_MONITORING` líneas) - O, si estás usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), configura: + O, si estás usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), configura: - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: true - enableIntegration: true - cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: true + enableIntegration: true + cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) + ``` - - `enableIntegration` solo debe incluir si su función se está implementando en una cuenta AWS que aún no tiene una integración. Una vez configurada la integración, esta opción debe eliminar del yaml de la función desplegar. - + + El parámetro `enableIntegration` solo debe incluir si su función se está implementando en una cuenta AWS que aún no tiene una integración. Una vez configurada la integración, esta opción debe eliminar del `serverless.yml` empleado para implementar su función. + - O, si estás usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), configura: + O, si estás usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), configura: - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" + ``` - + Esta opción depende completamente de CloudWatch y nuestra función `newrelic-log-ingestion` para enviar logs y carga a New Relic. Esta opción tiene la extensión deshabilitada para evitar posibles tiempos de inactividad causados por fallas de la extensión. Para este método, la extensión New Relic Lambda debe estar completamente deshabilitada para que no impida que la línea `NR_LAMBDA_MONITORING` se escriba en CloudWatch. Con la extensión New Relic Lambda desactivada, toda la telemetría saldrá a través de CloudWatch, el filtro de subscripción y la función `newrelic-log-ingestion`. @@ -137,7 +128,6 @@ Hay tres formas de implementar un respaldo de CloudWatch: Luego de agregar una capa New Relic Lambda, la extensión está habilitada y tiene el envío log deshabilitado de forma predeterminada. Deberá deshabilitar la extensión con una variable de entorno. 1. Configure [las variables de entorno de extensión](https://github.com/newrelic/newrelic-lambda-extension/blob/main/config/config.go) en su función de la siguiente manera: - * `NEW_RELIC_LAMBDA_EXTENSION_ENABLED`: `false` 2. Configure las variables de entorno de su función `newrelic-log-ingestion` de la siguiente manera: @@ -145,81 +135,46 @@ Hay tres formas de implementar un respaldo de CloudWatch: * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` - O, si estás usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), configura: - - ```yaml - custom: - newRelic: - enableExtension: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + O, si estás usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), configura: - - `enableIntegration` solo debe incluir si su función se está implementando en una cuenta AWS que aún no tiene una integración. Una vez configurada la integración, esta opción debe eliminar del yaml de la función desplegar. - + ```yaml + custom: + newRelic: + enableExtension: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - O, si estás usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), configura: + + El parámetro `enableIntegration` solo debe incluir si su función se está implementando en una cuenta AWS que aún no tiene una integración. Una vez configurada la integración, esta opción debe eliminar del `serverless.yml` empleado para implementar su función. + - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id --disable-extension - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + O, si estás usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), configura: - También puede elegir manualmente enviar datos solo a CloudWatch. Para hacer esto: + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id --disable-extension + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - 3. Deshabilite la extensión agregando la variable de entorno `NEW_RELIC_LAMBDA_EXTENSION_ENABLED` a su función, con el valor `false`. + También puede elegir manualmente enviar datos solo a CloudWatch. Para hacer esto: - 4. Cree un filtro de suscripción de logs de CloudWatch para invocar la función `newrelic-log-ingestion` con el log de su función. + 1. Deshabilite la extensión agregando la variable de entorno `NEW_RELIC_LAMBDA_EXTENSION_ENABLED` a su función, con el valor `false`. + 2. Cree un filtro de suscripción de logs de CloudWatch para invocar la función `newrelic-log-ingestion` con el log de su función. * La CLI puede hacer esto por usted: `newrelic-lambda subscriptions install --function FUNCTION_NAME` * Alternativamente, use la consola AWS para crear un filtro de subscripción desde el grupo log de CloudWatch de su función para invocar la función `newrelic-log-ingestion` Lambda. - O puede seguir estos pasos para transmitir el log de CloudWatch a New Relic Lambda: - - 1. Abra CloudWatch y seleccione - - - **Logs** - - - en el menú de la izquierda y luego seleccione el grupo log para la función que está monitoreando. - - 2. Seleccione - - - **Actions > Subscription filters > Create Lambda subscription filter** - - - . - - 3. En - - - **Lambda function** - - - , seleccione la función `newrelic-log-ingestion` . - - 4. Establezca el - - - **Log format** - - - en `JSON`. - - 5. Establezca el - - - **Subscription filter pattern to** - + O puede seguir estos pasos para transmitir el log de CloudWatch a New Relic Lambda: - `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId`. Alternativamente, si está empleando la variable de entorno `LOGGING_ENABLED` [, transmita todo su log](#stream-all-logs) a nuestro log, deje este campo en blanco. + 1. Abra CloudWatch y seleccione **Logs** en el menú de la izquierda y luego seleccione el grupo log para la función que está monitoreando. + 2. Seleccione **Actions > Subscription filters > Create Lambda subscription filter**. + 3. En **Lambda function**, seleccione la función `newrelic-log-ingestion` . + 4. Establezca el **Log format** en `JSON`. + 5. Establezca el **Subscription filter pattern to** `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId`. Alternativamente, si está empleando la variable de entorno `LOGGING_ENABLED` [, transmita todo su log](#stream-all-logs) a nuestro log, deje este campo en blanco. - - Asegúrese de que la función Lambda `newrelic-log-ingestion` que seleccione en el método anterior esté en la misma región de AWS que su función Lambda. - + + Asegúrese de que la función Lambda `newrelic-log-ingestion` que seleccione en el método anterior esté en la misma región de AWS que su función Lambda. + - + \ No newline at end of file diff --git a/src/i18n/content/jp/docs/ai-monitoring/drop-sensitive-data.mdx b/src/i18n/content/jp/docs/ai-monitoring/drop-sensitive-data.mdx index fa8773fa0b1..4fd54f6ee65 100644 --- a/src/i18n/content/jp/docs/ai-monitoring/drop-sensitive-data.mdx +++ b/src/i18n/content/jp/docs/ai-monitoring/drop-sensitive-data.mdx @@ -7,7 +7,7 @@ translationType: machine 機密性の高い AI データを New Relic に送信する前に削除するには 2 つのオプションがあります。 このドキュメントでは、エージェントが収集するデータの種類をより適切に制御できるように、これら 2 つの方法について説明します。 -## ai.monitoring.record_content.enabled を無効にする [#disable-event] +## ai.monitoring.record\_content.enabled を無効にする [#disable-event] `ai_monitoring.record_content.enabled`を無効にすると、エンドユーザーのプロンプトと AI 応答を含むイベント データは NRDB に送信されません。 エージェント設定の詳細については[、AIモニタリング設定のドキュメントを](/docs/ai-monitoring/customize-agent-ai-monitoring)ご覧ください。 @@ -19,34 +19,16 @@ translationType: machine 1 つのドロップ フィルターは 1 つのイベント タイプ内の指定されたプロパティを対象としますが、1 つの AI インタラクションからの機密情報は複数のイベントに保存されます。 NRDB に入る前に情報をドロップするには、6 つの個別のドロップ フィルターが必要です。 -A gif displaying the workflow for creating a set of drop filters +A gif displaying the workflow for creating a set of drop filters
- **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters**から: ドロップ フィルターを作成するには、機密データが含まれる可能性のあるイベントを選択し、ドロップするデータのタイプに対応する正規表現を選択します。 + **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters**から: ドロップ フィルターを作成するには、機密データが含まれる可能性のあるイベントを選択し、ドロップするデータのタイプに対応する正規表現を選択します。
-1. - **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** - - - に移動し、 - - - **Create drop filter** - - - をクリックします。 - +1. **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters**に移動し、 **Create drop filter**をクリックします。 2. フィルター名を作成します。 「クレジットカード」、「電子メール」、「住所」など、ドロップされた情報に基づいて名前を作成することをお勧めします。 - 3. 情報を削除するイベントを選択するか、すべてのイベントから削除することを選択します。 - 4. ドロップ フィルターに正規表現を割り当てます。 ドロップ フィルターのセットを作成するときに複数のイベントを選択できますが、フィルターの作成ごとに選択できる正規表現タイプは 1 つだけであることに注意してください。 - 5. 削除する他の種類の情報については、上記の手順を繰り返します。 たとえば、最初のセットに正規表現を割り当ててクレジットカード情報を削除した場合、次のセットでは別の種類の情報の属性を削除する必要があります。 ## ドロップフィルターの仕組み [#drop-rules-work] @@ -57,7 +39,7 @@ translationType: machine * **イベント**: システム内のインタラクションから保存された記録。 * **Regex** : 情報の種類に対応する文字と演算子の文字列。 -* **一致基準**(オプション): ドロップ フィルターに詳細度を追加する NRQL 句。 たとえば、 `openai`からデータを削除するだけの場合は、 `AND vendor IN 'openai'` +* **一致基準**(オプション): ドロップ フィルターに詳細度を追加する NRQL 句。 たとえば、 `openai`からデータを削除するだけの場合は、 `vendor IN ('openai')` ドロップ フィルターは、データ取り込みパイプライン内でエージェントによって転送されたデータを評価し、機密情報をドロップできるようにします。 @@ -68,10 +50,7 @@ translationType: machine 最初のクエリの作成を開始するには、以下の正規表現を参照してください。 - + **表現:** ```regex @@ -79,10 +58,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -90,10 +66,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -101,10 +74,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -112,10 +82,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -123,10 +90,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -134,10 +98,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -145,10 +106,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -156,10 +114,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -167,10 +122,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -178,10 +130,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -189,10 +138,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -200,10 +146,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -211,10 +154,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -222,10 +162,7 @@ translationType: machine ``` - + **表現:** ```regex @@ -249,4 +186,4 @@ New Relic は、この機能がデータ開示の問題を完全に解決する * [AI データの探索方法を学びましょう](/docs/ai-monitoring/view-ai-data)。 * データの取り込みを調整したいですか? [AI モニタリングの構成方法について学びます](/docs/ai-monitoring/customize-agent-ai-monitoring)。 -* ログを有効にしましたか? ログから[機密情報を難読化する](/docs/logs/ui-data/obfuscation-ui)方法、または[機密情報が含まれている場合にログメッセージ全体を削除する](/docs/logs/ui-data/drop-data-drop-filter-rules)方法を学びます。 +* ログを有効にしましたか? ログから[機密情報を難読化する](/docs/logs/ui-data/obfuscation-ui)方法、または[機密情報が含まれている場合にログメッセージ全体を削除する](/docs/logs/ui-data/drop-data-drop-filter-rules)方法を学びます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx b/src/i18n/content/jp/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx index 8b522a15087..be20aaf327d 100644 --- a/src/i18n/content/jp/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx +++ b/src/i18n/content/jp/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx @@ -29,7 +29,7 @@ Trace API の使用を開始するには、以下のいずれかの方法をと 以下では、 `newrelic`形式を使用して、標準の ( [Infinite Tracing](/docs/understand-dependencies/distributed-tracing/trace-api/introduction-trace-api#sampling)ではない) ペイロードを Trace API に送信する方法について説明します。 -1. 入手する データを報告するアカウントの。 +1. データをレポートするアカウントのを取得します。 2. そのキーを以下のJSONに挿入し、そのJSONを私たちのエンドポイントに送信します。 注:EUのNew Relicアカウントをお持ちの方は、代わりにEUのエンドポイント [をご利用ください。](/docs/understand-dependencies/distributed-tracing/trace-api/trace-api-general-requirements-limits#requirements) @@ -79,7 +79,7 @@ Trace API の使用を開始するには、以下のいずれかの方法をと 3. [](/docs/understand-dependencies/distributed-tracing/trace-api/trace-api-general-requirements-limits#requirements) -4. [](/docs/understand-dependencies/distributed-tracing/trace-api/trace-api-general-requirements-limits#requirements) + [](/docs/understand-dependencies/distributed-tracing/trace-api/trace-api-general-requirements-limits#requirements) [テストが`HTTP/1.1 202 Accepted`を返した場合は](/docs/understand-dependencies/distributed-tracing/trace-api/trace-api-general-requirements-limits#requirements)[、UI](https://one.newrelic.com/launcher/distributed-tracing-nerdlets.distributed-tracing?launcher=eyJ0aW1lUmFuZ2UiOnsiYmVnaW5fdGltZSI6bnVsbCwiZW5kX3RpbWUiOm51bGwsImR1cmF0aW9uIjoxODAwMDAwfSwiJGlzRmFsbGJhY2tUaW1lUmFuZ2UiOnRydWV9&pane=eyJuZXJkbGV0SWQiOiJkaXN0cmlidXRlZC10cmFjaW5nLW5lcmRsZXRzLmRpc3RyaWJ1dGVkLXRyYWNpbmctbGF1bmNoZXIiLCJzb3J0SW5kZXgiOjAsInNvcnREaXJlY3Rpb24iOiJERVNDIiwicXVlcnkiOnsib3BlcmF0b3IiOiJBTkQiLCJpbmRleFF1ZXJ5Ijp7ImNvbmRpdGlvblR5cGUiOiJJTkRFWCIsIm9wZXJhdG9yIjoiQU5EIiwiY29uZGl0aW9ucyI6W119LCJzcGFuUXVlcnkiOnsib3BlcmF0b3IiOiJBTkQiLCJjb25kaXRpb25TZXRzIjpbeyJjb25kaXRpb25UeXBlIjoiU1BBTiIsIm9wZXJhdG9yIjoiQU5EIiwiY29uZGl0aW9ucyI6W3siYXR0ciI6InNlcnZpY2UubmFtZSIsIm9wZXJhdG9yIjoiRVEiLCJ2YWx1ZSI6IlRlc3QgU2VydmljZSBBIn1dfV19fX0=)に移動して、スパン属性`service.name = Test Service A`を使用したテスト データのクエリを確認します。 @@ -125,7 +125,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ - _ストリング_ + *ストリング* @@ -147,7 +147,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ - _ストリング_ + *ストリング* @@ -169,7 +169,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ - _長さ_ + *長さ* @@ -191,15 +191,15 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ - _物体_ + *物体* - スパンに関する詳細を追加するキーと値のペアの任意のセット。`duration.ms` 、 `name` 、および`parent.id`を追加することを強くお勧めします。 + スパンに関する詳細を追加するキーの値のペアのセット。 `duration.ms`は必須であり、 `name`および`parent.id`属性を追加することを強くお勧めします。 - ノー + そう @@ -245,7 +245,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ - _物体_ + *物体* @@ -289,7 +289,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ `duration.ms` - _浮く_ + *浮く* @@ -305,7 +305,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ `name` - _ストリング_ + *ストリング* @@ -321,7 +321,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ `parent.id` - _ストリング_ + *ストリング* @@ -337,7 +337,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ `service.name` - _ストリング_ + *ストリング* @@ -377,7 +377,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ `entity.name` - _ストリング_ + *ストリング* @@ -393,7 +393,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ `entity.type` - _ストリング_ + *ストリング* @@ -409,7 +409,7 @@ Trace API JSON ペイロードはオブジェクトの配列であり、各オ `entity.guid` - _ストリング_ + *ストリング* @@ -482,4 +482,4 @@ New Relic でのスパンの表示方法を制御する方法 (エラーの追 * [Trace API のデータが UI のどこに表示されるかについて](/docs/understand-dependencies/distributed-tracing/ui-data/additional-distributed-tracing-features-new-relic-one#find-data). * [スパンを装飾する方法をご紹介します](/docs/apm/distributed-tracing/trace-api/trace-api-decorate-spans-attributes) よりリッチで詳細なUI体験を提供します。例えば、データストアのスパンを表示させたり、エラーを表示させたりすることができます。 * 一般的な [データの制限、必要なメタデータ、および応答の検証については、](/docs/apm/distributed-tracing/trace-api/trace-api-endpoint-requirements-limits) を参照してください。 -* トレースデータが表示されない場合は、 [トラブルシューティング](/docs/apm/distributed-tracing/trace-api/troubleshooting-missing-trace-api-data) を参照してください。 +* トレースデータが表示されない場合は、 [トラブルシューティング](/docs/apm/distributed-tracing/trace-api/troubleshooting-missing-trace-api-data) を参照してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx b/src/i18n/content/jp/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx index 916dd1abfb3..5656b4a8be6 100644 --- a/src/i18n/content/jp/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx +++ b/src/i18n/content/jp/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx @@ -41,10 +41,7 @@ CloudWatch フォールバックを実装する方法は 3 つあります。 3. **拡張機能が無効**: このシナリオでは、ログとペイロードの送信に常に CloudWatch が使用されます。 - + ログを CloudWatch に送信しない場合は、このオプションが、インストゥルメントされたペイロードが常にNew Relicに届くようにするための最も安価で堅牢な方法です。 ログを送信する場合、このオプションを選択すると、ログの送信に CloudWatch のコストが発生します。 料金の詳細については、 [「データ取り込み: 課金とルール」](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/)を参照してください。 New Relic Lambda レイヤーを追加すると、拡張機能が有効になり、ログ配布はデフォルトで無効になります。 @@ -59,34 +56,31 @@ CloudWatch フォールバックを実装する方法は 3 つあります。 * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` (ログを送信する場合) - または、 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers)使用している場合は、次のように設定します。 + または、 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers)使用している場合は、次のように設定します。 - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - - `enableIntegration` インテグレーションがまだ設定されていないAWSアカウントに関数をデプロイする場合にのみ含める必要があります。インテグレーションが設定されたら、このオプションはデプロイ関数の yaml から削除する必要があります。 - + + `enableIntegration` 問題は、まだ統合されていないAWSアカウントに関数がデプロイされている場合にのみ含める必要があります。 統合が設定されたら、関数のデプロイに使用される`serverless.yml`からこのオプションを削除する必要があります。 + - または、 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli)を使用している場合は、次のように設定します。 + または、 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli)を使用している場合は、次のように設定します。 - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - + このオプションは、インストゥルメントされたペイロードが常にNew Relicに到達することを保証する、最も低コストのパスを提供します。 このオプションは、New Relic Lambda 拡張機能を通じて関数ログを送信するため、拡張機能が起動に失敗したりクラッシュしたりすると、New Relic から関数ログが失われます。 関数ログを送信する場合は、拡張機能がそのように設定されていることを確認してください。 これらのログは拡張機能によってのみ送信され、重複を避けるためにログの CloudWatch フォールバックは行われません。 @@ -102,34 +96,31 @@ CloudWatch フォールバックを実装する方法は 3 つあります。 * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `false` (重複を避けるためにログ転送を無効にするか、CloudWatch サブスクリプションのフィルタ パターンを`NR_LAMBDA_MONITORING`行のみに一致するように設定します) - または、 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers)使用している場合は、次のように設定します。 + または、 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers)使用している場合は、次のように設定します。 - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: true - enableIntegration: true - cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: true + enableIntegration: true + cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) + ``` - - `enableIntegration` インテグレーションがまだ設定されていないAWSアカウントに関数をデプロイする場合にのみ含める必要があります。インテグレーションが設定されたら、このオプションはデプロイ関数の yaml から削除する必要があります。 - + + `enableIntegration` 問題は、まだ統合されていないAWSアカウントに関数がデプロイされている場合にのみ含める必要があります。 統合が設定されたら、関数のデプロイに使用される`serverless.yml`からこのオプションを削除する必要があります。 + - または、 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli)を使用している場合は、次のように設定します。 + または、 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli)を使用している場合は、次のように設定します。 - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" + ``` - + このオプションは、ログとペイロードを New Relic に送信するために CloudWatch と`newrelic-log-ingestion`関数に完全に依存しています。 このオプションでは、拡張機能の障害によって発生する可能性のあるダウンタイムを回避するために拡張機能が無効になります。 この方法では、 `NR_LAMBDA_MONITORING`行が CloudWatch に書き込まれるのを妨げないように、New Relic Lambda 拡張機能を完全に無効にする必要があります。 New Relic Lambda 拡張機能が無効になっている場合、すべてのテレメトリは CloudWatch、サブスクリプション フィルター、および `newrelic-log-ingestion` 関数を介して送信されます。 @@ -137,7 +128,6 @@ CloudWatch フォールバックを実装する方法は 3 つあります。 New Relic Lambda レイヤーを追加すると、拡張機能が有効になり、ログ配布はデフォルトで無効になります。 環境変数を使用して拡張機能を無効にする必要があります。 1. 関数に[拡張環境変数を](https://github.com/newrelic/newrelic-lambda-extension/blob/main/config/config.go)次のように設定します。 - * `NEW_RELIC_LAMBDA_EXTENSION_ENABLED`: `false` 2. `newrelic-log-ingestion`関数の環境変数を次のように設定します。 @@ -145,73 +135,46 @@ CloudWatch フォールバックを実装する方法は 3 つあります。 * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` - または、 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers)使用している場合は、次のように設定します。 - - ```yaml - custom: - newRelic: - enableExtension: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + または、 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers)使用している場合は、次のように設定します。 - - `enableIntegration` インテグレーションがまだ設定されていないAWSアカウントに関数をデプロイする場合にのみ含める必要があります。インテグレーションが設定されたら、このオプションはデプロイ関数の yaml から削除する必要があります。 - + ```yaml + custom: + newRelic: + enableExtension: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - または、 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli)を使用している場合は、次のように設定します。 + + `enableIntegration` 問題は、まだ統合されていないAWSアカウントに関数がデプロイされている場合にのみ含める必要があります。 統合が設定されたら、関数のデプロイに使用される`serverless.yml`からこのオプションを削除する必要があります。 + - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id --disable-extension - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + または、 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli)を使用している場合は、次のように設定します。 - データを CloudWatch のみに送信するように手動で選択することもできます。 これをする: + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id --disable-extension + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - 3. 関数に`NEW_RELIC_LAMBDA_EXTENSION_ENABLED`環境変数を値`false`で追加して、拡張機能を無効にします。 + データを CloudWatch のみに送信するように手動で選択することもできます。 これをする: - 4. CloudWatch Logsサブスクリプションフィルターを作成して、関数のログで`newrelic-log-ingestion`関数を呼び出します。 + 1. 関数に`NEW_RELIC_LAMBDA_EXTENSION_ENABLED`環境変数を値`false`で追加して、拡張機能を無効にします。 + 2. CloudWatch Logsサブスクリプションフィルターを作成して、関数のログで`newrelic-log-ingestion`関数を呼び出します。 * CLIはこれを行うことができます: `newrelic-lambda subscriptions install --function FUNCTION_NAME` * または、 AWSコンソールを使用して、関数の CloudWatch ログ グループからサブスクリプション フィルターを作成し、`newrelic-log-ingestion` Lambda 関数を呼び出します。 - または、次の手順に従って CloudWatch ログを New Relic Lambda にストリーミングすることもできます。 - - 1. CloudWatch を開き、左側のメニューで - - - **Logs** - - - を選択し、監視している機能のログ グループを選択します。 - - 2. - **Actions > Subscription filters > Create Lambda subscription filter** - - - を選択します。 - - 3. - **Lambda function** - - - で、 `newrelic-log-ingestion`関数を選択します。 - - 4. - **Log format** - - - を`JSON`に設定します。 - - 5. - **Subscription filter pattern to** - + または、次の手順に従って CloudWatch ログを New Relic Lambda にストリーミングすることもできます。 - `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId`を設定します。 あるいは、 `LOGGING_ENABLED`環境変数を使用して[すべてのログを当社のログにストリームする](#stream-all-logs)場合は、このフィールドを空白のままにしておきます。 + 1. CloudWatch を開き、左側のメニューで**Logs**を選択し、監視している機能のログ グループを選択します。 + 2. **Actions > Subscription filters > Create Lambda subscription filter**を選択します。 + 3. **Lambda function**で、 `newrelic-log-ingestion`関数を選択します。 + 4. **Log format**を`JSON`に設定します。 + 5. **Subscription filter pattern to** `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId`を設定します。 あるいは、 `LOGGING_ENABLED`環境変数を使用して[すべてのログを当社のログにストリームする](#stream-all-logs)場合は、このフィールドを空白のままにしておきます。 - - 上記の方法で選択した`newrelic-log-ingestion` Lambda関数が、Lambda関数と同じAWSリージョンにあることを確認してください。 - + + 上記の方法で選択した`newrelic-log-ingestion` Lambda関数が、Lambda関数と同じAWSリージョンにあることを確認してください。 + - + \ No newline at end of file diff --git a/src/i18n/content/kr/docs/ai-monitoring/drop-sensitive-data.mdx b/src/i18n/content/kr/docs/ai-monitoring/drop-sensitive-data.mdx index b54b2fbdf6e..5198d8b0b16 100644 --- a/src/i18n/content/kr/docs/ai-monitoring/drop-sensitive-data.mdx +++ b/src/i18n/content/kr/docs/ai-monitoring/drop-sensitive-data.mdx @@ -7,7 +7,7 @@ translationType: machine 민감한 AI 데이터를 뉴렐릭으로 보내기 전에 삭제할 수 있는 두 가지 옵션이 있습니다. 이 문서에서는 에이전트가 수집하는 데이터 종류를 더 잘 제어할 수 있도록 이 두 가지 방법을 안내합니다. -## ai.monitoring.record_content.enabled 비활성화 [#disable-event] +## ai.monitoring.record\_content.enabled 비활성화 [#disable-event] `ai_monitoring.record_content.enabled` 를) 비활성화하면 최종 사용자 프롬프트 및 AI 응답이 포함된 이벤트 데이터가 NRDB로 전송되지 않습니다. [AI 시뮬레이션 설정 문서](/docs/ai-monitoring/customize-agent-ai-monitoring) 에서 에이전트 설정에 대해 자세히 알아볼 수 있습니다. @@ -19,34 +19,16 @@ translationType: machine 단일 드롭 필터는 하나의 이벤트 유형 내에서 지정된 속성을 목표로 하지만 단일 AI의 민감한 정보는 여러 이벤트에 저장됩니다. 정보가 NRDB에 들어가기 전에 삭제하려면 6개의 별도 삭제 필터가 필요합니다. -A gif displaying the workflow for creating a set of drop filters +A gif displaying the workflow for creating a set of drop filters
- **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** 에서: 삭제 필터를 만들려면 민감한 데이터가 포함될 수 있는 이벤트를 선택한 다음 삭제하려는 데이터 유형에 해당하는 정규식을 선택하세요. + **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** 에서: 삭제 필터를 만들려면 민감한 데이터가 포함될 수 있는 이벤트를 선택한 다음 삭제하려는 데이터 유형에 해당하는 정규식을 선택하세요.
-1. - **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** - - - 으로 이동한 다음 - - - **Create drop filter** - - - 클릭하세요. - -2. 필터 이름을 만듭니다. "신용카드", "이메일", "주소" 등과 같이 삭제된 정보를 기반으로 이름을 만드는 것이 좋습니다. - +1. **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** 으로 이동한 다음 **Create drop filter** 클릭하세요. +2. 필터 이름을 만듭니다. "신용카드", "이메일", "주소" 등과 같이 삭제된 정보를 기반으로 이름을 만드는 것이 좋습니다. 3. 정보를 삭제할 이벤트를 선택하거나 모든 이벤트에서 삭제하도록 선택하세요. - 4. 드롭 필터에 정규식을 할당합니다. 드롭 필터 세트를 생성할 때 여러 이벤트를 선택할 수 있지만 필터 생성당 하나의 정규식 유형만 선택할 수 있다는 점을 명심하세요. - 5. 삭제하려는 다른 종류의 정보에 대해 위 단계를 반복합니다. 예를 들어 신용 카드 정보를 삭제하기 위해 첫 번째 세트에 정규식을 할당한 경우 다음 세트에서는 다른 종류의 정보에 대한 속성을 삭제해야 합니다. ## 드롭 필터 작동 방식 [#drop-rules-work] @@ -57,7 +39,7 @@ translationType: machine * **이벤트**: 귀하의 시스템 내에 있는 블록결합에서 저장된 기록입니다. * **Regex**: 정보 종류에 해당하는 문자 및 연산자의 문자열입니다. -* **일치 기준** (선택 사항): 삭제 필터에 구체성을 추가하는 NRQL 절입니다. 예를 들어, `openai` 에서만 데이터를 삭제하려면 다음을 추가하면 됩니다. `AND vendor IN 'openai'` +* **일치 기준** (선택 사항): 삭제 필터에 구체성을 추가하는 NRQL 절입니다. 예를 들어, `openai` 에서만 데이터를 삭제하려면 다음을 추가하면 됩니다. `vendor IN ('openai')` 삭제 필터는 중요한 정보가 삭제될 수 있도록 데이터 수집 파이프라인 내에서 에이전트가 전달한 데이터를 평가합니다. @@ -68,10 +50,7 @@ translationType: machine 첫 번째 쿼리 작성을 시작하려면 아래 정규식을 참조하세요. - + **표현:** ```regex @@ -79,10 +58,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -90,10 +66,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -101,10 +74,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -112,10 +82,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -123,10 +90,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -134,10 +98,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -145,10 +106,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -156,10 +114,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -167,10 +122,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -178,10 +130,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -189,10 +138,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -200,10 +146,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -211,10 +154,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -222,10 +162,7 @@ translationType: machine ``` - + **표현:** ```regex @@ -249,4 +186,4 @@ translationType: machine * [AI 데이터를 탐색하는 방법을 알아보세요](/docs/ai-monitoring/view-ai-data). * 데이터 수집을 조정하고 싶으십니까? [AI 모니터링 구성 방법에 대해 알아보세요](/docs/ai-monitoring/customize-agent-ai-monitoring). -* 로그를 활성화하셨나요? 로그에서 [민감한 정보를 난독화하는](/docs/logs/ui-data/obfuscation-ui) 방법을 알아보거나 [민감한 정보가 포함된 경우 전체 로그 메시지를 제거하는](/docs/logs/ui-data/drop-data-drop-filter-rules) 방법을 알아보세요. +* 로그를 활성화하셨나요? 로그에서 [민감한 정보를 난독화하는](/docs/logs/ui-data/obfuscation-ui) 방법을 알아보거나 [민감한 정보가 포함된 경우 전체 로그 메시지를 제거하는](/docs/logs/ui-data/drop-data-drop-filter-rules) 방법을 알아보세요. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx b/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx index e4fc2e0cd1d..0ae3d06cc05 100644 --- a/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx +++ b/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx @@ -18,10 +18,7 @@ Node.js 에이전트는 [npm(Node Package Manager) 저장소](https://npmjs.org/ [에이전트를 설치](/docs/apm/agents/nodejs-agent/installation-configuration/install-nodejs-agent) 하기 전에 시스템이 최소 요구 사항을 충족하는지 확인하십시오. 최상의 성능을 얻으려면 Node.js의 최신 활성 LTS(장기 지원) 버전을 사용하세요. - + Node.js 에이전트는 다음 운영 체제와 호환됩니다. * Linux @@ -30,10 +27,7 @@ Node.js 에이전트는 [npm(Node Package Manager) 저장소](https://npmjs.org/ * Windows Server 2008 이상 - + 다음 호스팅 서비스와도 호환됩니다. * [Google App Engine(GAE) 가변형 환경](/docs/agents/nodejs-agent/hosting-services/install-new-relic-nodejs-agent-gae-flexible-environment) @@ -42,17 +36,11 @@ Node.js 에이전트는 [npm(Node Package Manager) 저장소](https://npmjs.org/ * [헤로쿠](/docs/nodejs/nodejs-agent-on-heroku) - + [데이터 수집을 위한 표준 보안 수단으로](/docs/accounts-partnerships/accounts/security/data-security) 앱 서버는 SHA-2(256비트)를 지원해야 합니다. SHA-1은 지원되지 않습니다. - + 우리는 다음 활성 장기 지원 일정이 시작될 때까지 [Node.js 릴리스의 최신 버전을](https://nodejs.org/en/about/previous-releases) 지원할 것입니다. 버전 지원 정책은 일반적인 EOL(수명 종료) 정책을 대체하지 않습니다. 다음은 제안된 시간 범위입니다. 실제 출시일은 다를 수 있습니다. @@ -263,7 +251,7 @@ Node.js 에이전트는 [npm(Node Package Manager) 저장소](https://npmjs.org/ **참고**: 지원되는 최신 버전은 지원되는 최신 버전을 반영하지 않을 수 있습니다. -| 패키지 이름 | 최소 지원 버전 | 최신 지원 버전 | 도입된 버전\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.8.4 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.10.5 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.624.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.14.0 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.11.1 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.10 | 9.0.0 | | `@koa/router` | 11.0.2 | 12.0.1 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.2.21 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.2 | 10.1.0 | | `@prisma/client` | 5.0.0 | 5.18.0 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.1.12 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.4 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1669.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.19.2 | 2.6.0 | | `fastify` | 2.0.0 | 4.28.1 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 12.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.8.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.0 | 1.32.0 | | `next` | 13.4.19 | 14.2.5 | 12.0.0 | | `openai` | 4.0.0 | 4.55.1 | 11.13.0 | | `pg` | 8.2.0 | 8.12.0 | 9.0.0 | | `pg-native` | 2.0.0 | 3.1.0 | 9.0.0 | | `pino` | 7.0.0 | 9.3.2 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.0.0 | 4.9.0 | | `undici` | 5.0.0 | 6.19.5 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.13.1 | 8.11.0 | +| 패키지 이름 | 최소 지원 버전 | 최신 지원 버전 | 도입된 버전\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.8.4 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.11.0 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.629.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.629.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.15.0 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.11.1 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.10 | 9.0.0 | | `@koa/router` | 11.0.2 | 12.0.1 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.2.23 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.4 | 10.1.0 | | `@prisma/client` | 5.0.0 | 5.18.0 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.1.12 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.4 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1673.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.19.2 | 2.6.0 | | `fastify` | 2.0.0 | 4.28.1 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 12.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.8.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.0 | 1.32.0 | | `next` | 13.4.19 | 14.2.5 | 12.0.0 | | `openai` | 4.0.0 | 4.55.4 | 11.13.0 | | `pg` | 8.2.0 | 8.12.0 | 9.0.0 | | `pg-native` | 2.0.0 | 3.1.0 | 9.0.0 | | `pino` | 7.0.0 | 9.3.2 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.0.0 | 4.9.0 | | `undici` | 5.0.0 | 6.19.7 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.14.1 | 8.11.0 | \*패키지를 지정하지 않으면 `newrelic` 패키지 내에서 지원됩니다. @@ -275,7 +263,7 @@ Node.js 에이전트는 다음 AI 플랫폼 및 통합을 지원합니다. `@aws-sdk/client-bedrock-runtime` 모듈을 통해 다음을 지원합니다. -| 모델 | 이미지 | 텍스트 | 비전 | | --- | --- | --- | --- | | AI21 연구소 쥬라기-2 | ❌ | ✅ | - | | 아마존 타이탄 | ❌ | ✅ | - | | 인류학 클로드 | ❌ | ✅ | ❌ | | 코히어 | ❌ | ✅ | - | | 메타 라마2 | ❌ | ✅ | - | | 메타 라마3 | ❌ | ✅ | - | +| 모델 | 이미지 | 텍스트 | 비전 | | -------------------- | ----- | ---- | ------ | | AI21 Labs Jurassic-2 | ❌ | ✅ | - | | Amazon Titan | ❌ | ✅ | - | | Anthropic Claude | ❌ | ✅ | ❌ | | Cohere | ❌ | ✅ | - | | Meta Llama2 | ❌ | ✅ | - | | Meta Llama3 | ❌ | ✅ | - | 참고: 모델이 스트리밍을 지원하는 경우 스트리밍 변형도 소비합니다. @@ -283,17 +271,17 @@ Node.js 에이전트는 다음 AI 플랫폼 및 통합을 지원합니다. LangChain 의 다음과 같은 일반 기능이 지원됩니다. -| 에이전트 | 체인 | 도구 | 벡터스토어 | | --- | --- | --- | --- | | ✅ | ✅ | ✅ | ✅ | +| 에이전트 | 체인 | 도구 | 벡터스토어 | | ------ | ------ | ----- | ------------ | | ✅ | ✅ | ✅ | 모델/공급자는 일반적으로 공급자 모듈의 계측을 통해 전이적으로 지원됩니다. -| 공급자 | 지원됨 | 전이적으로 | | --- | --- | --- | | Azure OpenAI | ❌ | ❌ | | 아마존 기반암 | ❌ | ❌ | | 오픈AI | ✅ | ✅ | +| 공급자 | 지원됨 | 전이적 | | -------------- | --------- | ------------ | | Azure OpenAI | ❌ | ❌ | | Amazon Bedrock | ❌ | ❌ | | OpenAI | ✅ | ✅ | ### 오픈AI `openai` 모듈을 통해 다음을 지원합니다. -| 오디오 | 채팅 | 완료 | 임베딩 | 파일 | 이미지 | | --- | --- | --- | --- | --- | --- | | ❌ | ✅ | ✅ | ✅ | ❌ | ❌ | +| 오디오 | 채팅 | 완성 | 임베딩 | 파일 | 이미지 | | ----- | ---- | ----------- | ---------- | ----- | ------ | | ❌ | ✅ | ✅ | ✅ | ❌ | ❌ | /\* 끝: 호환 테이블 \*/ @@ -335,7 +323,7 @@ Node.js 에이전트는 다른 기능과 통합되어 전체 스택에서 관찰 - Node.js 에이전트는 [자동 측정, 자동 로그를 활성화](/docs/browser/new-relic-browser/installation/install-new-relic-browser-agent#select-apm-app) 할 때 의 이점을 추가할 수 있습니다. 브라우저 모니터링 주입을 활성화한 후 [Node.js 에이전트를 사용하여 브라우저 모니터링을 설치하는 방법에 대한 가이드를](/docs/agents/nodejs-agent/extend-your-instrumentation/browser-monitoring-nodejs-agent/) 따르세요. 이 단계를 완료하면 [APM **Summary** 페이지](/docs/apm/applications-menu/monitoring/apm-overview-page) 에서 브라우저 데이터를 보고 특정 앱에 대한 APM과 브라우저 데이터 간에 빠르게 전환할 수 있습니다. 설정 옵션 및 수동 측정에 대해서는 [브라우저 모니터링 및 Node.js 에이전트를](/docs/agents/nodejs-agent/supported-features/new-relic-browser-nodejs-agent) 참조하세요. + Node.js 에이전트는 [자동 측정, 자동 로그를 활성화](/docs/browser/new-relic-browser/installation/install-new-relic-browser-agent#select-apm-app) 할 때 의 이점을 추가할 수 있습니다. 브라우저 모니터링 주입을 활성화한 후 [Node.js 에이전트를 사용하여 브라우저 모니터링을 설치하는 방법에 대한 가이드를](/docs/agents/nodejs-agent/extend-your-instrumentation/browser-monitoring-nodejs-agent/) 따르세요. 이 단계를 완료하면 [APM **Summary** 페이지](/docs/apm/applications-menu/monitoring/apm-overview-page) 에서 브라우저 데이터를 보고 특정 앱에 대한 APM과 브라우저 데이터 간에 빠르게 전환할 수 있습니다. 설정 옵션 및 수동 측정에 대해서는 [브라우저 모니터링 및 Node.js 에이전트를](/docs/agents/nodejs-agent/supported-features/new-relic-browser-nodejs-agent) 참조하세요. @@ -369,4 +357,4 @@ Node.js 에이전트는 다른 기능과 통합되어 전체 스택에서 관찰 - + \ No newline at end of file diff --git a/src/i18n/content/kr/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx b/src/i18n/content/kr/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx index 78369dd0957..fc4860926cb 100644 --- a/src/i18n/content/kr/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx +++ b/src/i18n/content/kr/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx @@ -29,7 +29,7 @@ Trace API 사용을 시작하려면 다음 경로 중 하나를 따르세요. 다음은 `newrelic` 형식을 사용하여 Trace API에 표준(비 [Infinite Tracing](/docs/understand-dependencies/distributed-tracing/trace-api/introduction-trace-api#sampling) ) 페이로드를 보내는 방법을 설명합니다. -1. 도착 데이터를 보고하려는 계정에 대해. +1. 데이터를 보고하려는 계정에 대해 를 가져옵니다. 2. 해당 키를 다음 JSON에 삽입한 다음 JSON을 엔드포인트로 보냅니다. 참고: EU New Relic 계정이 있는 경우 [EU 엔드포인트](/docs/understand-dependencies/distributed-tracing/trace-api/trace-api-general-requirements-limits#requirements) 를 대신 사용하십시오. @@ -121,7 +121,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 - _끈_ + *끈* @@ -143,7 +143,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 - _끈_ + *끈* @@ -165,7 +165,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 - _긴_ + *긴* @@ -187,15 +187,15 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 - _물체_ + *물체* - 범위에 대한 세부 정보를 추가하는 모든 키: 값 쌍의 집합입니다. `duration.ms` , `name` 및 `parent.id` 를 추가하는 것이 좋습니다. + 범위에 대한 자세한 내용을 추가하는 키/값 쌍의 집합입니다. `duration.ms` 은 필수이며, `name` 및 `parent.id` 속성을 추가하는 것이 좋습니다. - 아니요 + 예 @@ -241,7 +241,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 - _물체_ + *물체* @@ -285,7 +285,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 `duration.ms` - _뜨다_ + *뜨다* @@ -301,7 +301,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 `name` - _끈_ + *끈* @@ -317,7 +317,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 `parent.id` - _끈_ + *끈* @@ -333,7 +333,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 `service.name` - _끈_ + *끈* @@ -341,7 +341,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 - 이 스팬을 만든 항목의 이름입니다. 값이 없거나 빈 문자열이 제공되면 범위가 "UNKNOWN" 엔터티에 할당되고 UI에 이와 같이 표시됩니다. UI에서 완전한 경험을 얻으려면 이 값을 제공해야 합니다. + 이 스팬을 만든 항목의 이름입니다. 값이 없거나 빈 문자열이 제공되면 범위가 "UNKNOWN" 엔터티에 할당되고 UI에 이와 같이 표시됩니다. UI에서 완전한 경험을 얻으려면 이 값을 제공해야 합니다. @@ -373,7 +373,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 `entity.name` - _끈_ + *끈* @@ -389,7 +389,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 `entity.type` - _끈_ + *끈* @@ -405,7 +405,7 @@ Trace API JSON 페이로드는 각 개체가 단일 추적을 나타내는 개 `entity.guid` - _끈_ + *끈* @@ -478,4 +478,4 @@ New Relic에서 스팬이 표시되는 방식을 제어하는 방법(예: 오류 * [UI에서 Trace API 데이터가 표시되는 위치에 대해 알아보세요](/docs/understand-dependencies/distributed-tracing/ui-data/additional-distributed-tracing-features-new-relic-one#find-data) . * 더 풍부하고 상세한 UI 경험을 위해 [스팬을 장식하는 방법을 알아보세요](/docs/apm/distributed-tracing/trace-api/trace-api-decorate-spans-attributes) . 예를 들어 스팬을 데이터스토어 스팬으로 표시하거나 오류를 표시하도록 할 수 있습니다. * 일반 [데이터 제한, 필수 메타데이터 및 응답 검증](/docs/apm/distributed-tracing/trace-api/trace-api-endpoint-requirements-limits) 에 대해 알아보세요. -* 추적 데이터가 표시되지 않으면 [문제 해결](/docs/apm/distributed-tracing/trace-api/troubleshooting-missing-trace-api-data) 을 참조하십시오. +* 추적 데이터가 표시되지 않으면 [문제 해결](/docs/apm/distributed-tracing/trace-api/troubleshooting-missing-trace-api-data) 을 참조하십시오. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx index 7736271ca8f..7ebcd1bdfb8 100644 --- a/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx +++ b/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx @@ -9,7 +9,9 @@ freshnessValidatedDate: never translationType: machine --- -**This list is current. Networks, IPs, domains, ports, and endpoints last updated April 23, 2024.** + + **This list is current. Networks, IPs, domains, ports, and endpoints last updated April 23, 2024.** + API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용하는 네트워크, IP 주소, 도메인, 포트 및 엔드포인트의 목록입니다. [TLS는 모든 도메인에 필요합니다.](#tls) @@ -49,7 +51,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **APM** + + **APM** + @@ -57,7 +61,7 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - APM 에이전트 인제스트 + APM 에이전트 수집 @@ -73,7 +77,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **AWS** + + **AWS** + @@ -111,7 +117,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **Browser** + + **Browser** + @@ -135,7 +143,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **IAST** + + **IAST** + @@ -163,7 +173,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **Ingest APIs** + + **Ingest APIs** + @@ -229,7 +241,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **Infrastructure** + + **Infrastructure** + @@ -281,7 +295,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **Lookup tables** + + **Lookup tables** + @@ -305,7 +321,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **Mobile** + + **Mobile** + @@ -357,7 +375,9 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 - **OpenTelemetry** + + **OpenTelemetry** + @@ -761,4 +781,4 @@ New Relic [CodeStream](/docs/codestream/start-here/what-is-codestream) 은 개 * `*.pubnub.com` * `*.pubnub.net` * `*.pndsn.com` -* `*.pubnubapi.com` +* `*.pubnubapi.com` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx b/src/i18n/content/kr/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx index 01ad88de206..d88d0863825 100644 --- a/src/i18n/content/kr/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx +++ b/src/i18n/content/kr/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx @@ -41,10 +41,7 @@ CloudWatch 대체를 구현할 수 있는 세 가지 방법이 있습니다. 3. **확장 비활성화됨**: 이 시나리오에서는 로그와 페이로드를 전송하는 데 항상 CloudWatch가 사용됩니다. - + CloudWatch로 로그를 보내지 않는 경우 이 옵션은 리소스화된 페이로드가 항상 뉴렐릭으로 보내지도록 보장하는 가장 저렴하고 가장 강력한 방법입니다. 로그를 보내는 경우 이 옵션을 사용하면 로그 전송에 대한 일부 CloudWatch 비용이 발생합니다. 가격 책정에 대한 자세한 내용은 [데이터 수집: 청구 및 규칙을](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) 참조하세요. 뉴렐릭 Lambda 레이어를 추가하면 확장 기능이 활성화되고 기본적으로 로그 배송이 비활성화됩니다. @@ -59,34 +56,31 @@ CloudWatch 대체를 구현할 수 있는 세 가지 방법이 있습니다. * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` (로그를 보내는 경우) - 또는 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers) 사용하는 경우 다음을 설정합니다. + 또는 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers) 사용하는 경우 다음을 설정합니다. - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - - `enableIntegration` 함수가 아직 통합이 없는 AWS 계정에 구현하고 배포하는 경우에만 포함되어야 합니다. 통합이 설정되면 이 옵션은 구현하다, 배포하다 함수의 yaml에서 제거되어야 합니다. - + + `enableIntegration` 템플릿은 아직 통합이 없는 AWS 계정에 함수를 구현, 배포하는 경우에만 포함되어야 합니다. 통합이 설정되면 이 옵션은 함수를 구현하다, 배포하다하는 데 사용된 `serverless.yml` 에서 제거되어야 합니다. + - 또는 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli) 을 사용하는 경우 다음을 설정합니다. + 또는 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli) 을 사용하는 경우 다음을 설정합니다. - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - + 이 옵션은 리소스화된 페이로드가 항상 뉴렐릭에 도달하도록 보장하는 최저 비용 경로를 제공합니다. 이 옵션은 뉴렐릭 Lambda 확장 프로그램을 통해 함수 로그를 제공하므로 확장 프로그램이 시작되지 않거나 충돌이 발생하면 함수 로그가 뉴렐릭에서 누락됩니다. 기능 로그를 보내는 경우 확장 프로그램이 그렇게 하도록 구성되어 있는지 확인하세요. 이러한 로그는 확장 프로그램에 의해서만 전송되며 중복을 피하기 위해 로그에 대한 CloudWatch 대체는 없습니다. @@ -102,34 +96,31 @@ CloudWatch 대체를 구현할 수 있는 세 가지 방법이 있습니다. * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `false` (중복을 방지하려면 로그 포워딩을 비활성화하거나 CloudWatch 구독 필터 패턴을 `NR_LAMBDA_MONITORING` 줄만 일치하도록 설정하세요) - 또는 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers) 사용하는 경우 다음을 설정합니다. + 또는 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers) 사용하는 경우 다음을 설정합니다. - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: true - enableIntegration: true - cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: true + enableIntegration: true + cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) + ``` - - `enableIntegration` 함수가 아직 통합이 없는 AWS 계정에 구현하고 배포하는 경우에만 포함되어야 합니다. 통합이 설정되면 이 옵션은 구현하다, 배포하다 함수의 yaml에서 제거되어야 합니다. - + + `enableIntegration` 템플릿은 아직 통합이 없는 AWS 계정에 함수를 구현, 배포하는 경우에만 포함되어야 합니다. 통합이 설정되면 이 옵션은 함수를 구현하다, 배포하다하는 데 사용된 `serverless.yml` 에서 제거되어야 합니다. + - 또는 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli) 을 사용하는 경우 다음을 설정합니다. + 또는 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli) 을 사용하는 경우 다음을 설정합니다. - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" + ``` - + 이 옵션은 CloudWatch와 `newrelic-log-ingestion` 함수에 전적으로 의존하여 로그인 및 페이로드를 뉴렐릭에 전달합니다. 이 옵션은 확장 실패로 인한 잠재적인 다운타임을 방지하기 위해 확장 기능을 비활성화합니다. 이 방법의 경우 `NR_LAMBDA_MONITORING` 줄이 CloudWatch에 기록되는 것을 방지하지 않도록 뉴렐릭 Lambda 확장을 완전히 비활성화해야 합니다. 뉴렐릭 Lambda 확장이 비활성화되면 모든 텔렙리는 CloudWatch, 구독 필터 및 `newrelic-log-ingestion` 함수를 통해 전송됩니다. @@ -137,7 +128,6 @@ CloudWatch 대체를 구현할 수 있는 세 가지 방법이 있습니다. 뉴렐릭 Lambda 레이어를 추가하면 확장 기능이 활성화되고 기본적으로 로그 전달이 비활성화됩니다. 환경 변수를 사용하여 확장 기능을 비활성화해야 합니다. 1. 다음과 같이 함수에 [확장 환경 변수를](https://github.com/newrelic/newrelic-lambda-extension/blob/main/config/config.go) 설정합니다. - * `NEW_RELIC_LAMBDA_EXTENSION_ENABLED`: `false` 2. 다음과 같이 `newrelic-log-ingestion` 함수 환경 변수를 설정합니다. @@ -145,73 +135,46 @@ CloudWatch 대체를 구현할 수 있는 세 가지 방법이 있습니다. * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` - 또는 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers) 사용하는 경우 다음을 설정합니다. - - ```yaml - custom: - newRelic: - enableExtension: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + 또는 [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers) 사용하는 경우 다음을 설정합니다. - - `enableIntegration` 함수가 아직 통합이 없는 AWS 계정에 구현하고 배포하는 경우에만 포함되어야 합니다. 통합이 설정되면 이 옵션은 구현하다, 배포하다 함수의 yaml에서 제거되어야 합니다. - + ```yaml + custom: + newRelic: + enableExtension: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - 또는 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli) 을 사용하는 경우 다음을 설정합니다. + + `enableIntegration` 템플릿은 아직 통합이 없는 AWS 계정에 함수를 구현, 배포하는 경우에만 포함되어야 합니다. 통합이 설정되면 이 옵션은 함수를 구현하다, 배포하다하는 데 사용된 `serverless.yml` 에서 제거되어야 합니다. + - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id --disable-extension - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + 또는 [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli) 을 사용하는 경우 다음을 설정합니다. - CloudWatch로만 데이터를 전송하도록 수동으로 선택할 수도 있습니다. 이것을하기 위해: + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id --disable-extension + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - 3. `false` 값을 사용하여 함수에 `NEW_RELIC_LAMBDA_EXTENSION_ENABLED` 환경 변수를 추가하여 확장을 비활성화합니다. + CloudWatch로만 데이터를 전송하도록 수동으로 선택할 수도 있습니다. 이것을하기 위해: - 4. CloudWatch Logs 구독 필터를 만들어 함수의 로그로 `newrelic-log-ingestion` 함수를 호출합니다. + 1. `false` 값을 사용하여 함수에 `NEW_RELIC_LAMBDA_EXTENSION_ENABLED` 환경 변수를 추가하여 확장을 비활성화합니다. + 2. CloudWatch Logs 구독 필터를 만들어 함수의 로그로 `newrelic-log-ingestion` 함수를 호출합니다. * CLI는 다음을 수행할 수 있습니다. `newrelic-lambda subscriptions install --function FUNCTION_NAME` * 또는 AWS 콘솔을 사용하여 함수의 CloudWatch 로그 그룹에서 구독 필터를 생성하여 `newrelic-log-ingestion` Lambda 함수를 호출합니다. - 또는 다음 단계에 따라 CloudWatch 로그를 뉴렐릭 Lambda로 스트리밍할 수 있습니다. - - 1. CloudWatch를 열고 왼쪽 메뉴에서 - - - **Logs** - - - 선택한 다음 모니터링 중인 함수에 대한 로그 그룹을 선택합니다. - - 2. - **Actions > Subscription filters > Create Lambda subscription filter** - - - 선택합니다. - - 3. - **Lambda function** - - - 아래에서 `newrelic-log-ingestion` 함수를 선택합니다. - - 4. - **Log format** - - - 를 `JSON` 로 설정합니다. - - 5. - **Subscription filter pattern to** - + 또는 다음 단계에 따라 CloudWatch 로그를 뉴렐릭 Lambda로 스트리밍할 수 있습니다. - `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId` 을 설정합니다. 또는 `LOGGING_ENABLED` 환경 변수를 사용하여 [모든 로그를 Google 로그로 스트리밍](#stream-all-logs) 하는 경우 이 필드를 비워 두세요. + 1. CloudWatch를 열고 왼쪽 메뉴에서 **Logs** 선택한 다음 모니터링 중인 함수에 대한 로그 그룹을 선택합니다. + 2. **Actions > Subscription filters > Create Lambda subscription filter** 선택합니다. + 3. **Lambda function** 아래에서 `newrelic-log-ingestion` 함수를 선택합니다. + 4. **Log format** 를 `JSON` 로 설정합니다. + 5. **Subscription filter pattern to** `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId` 을 설정합니다. 또는 `LOGGING_ENABLED` 환경 변수를 사용하여 [모든 로그를 Google 로그로 스트리밍](#stream-all-logs) 하는 경우 이 필드를 비워 두세요. - - 위의 방법에서 선택한 `newrelic-log-ingestion` Lambda 함수가 Lambda 함수와 동일한 AWS 리전에 있는지 확인합니다. - + + 위의 방법에서 선택한 `newrelic-log-ingestion` Lambda 함수가 Lambda 함수와 동일한 AWS 리전에 있는지 확인합니다. + - + \ No newline at end of file diff --git a/src/i18n/content/pt/docs/ai-monitoring/drop-sensitive-data.mdx b/src/i18n/content/pt/docs/ai-monitoring/drop-sensitive-data.mdx index 9e66cb96a9c..d7e335d96bd 100644 --- a/src/i18n/content/pt/docs/ai-monitoring/drop-sensitive-data.mdx +++ b/src/i18n/content/pt/docs/ai-monitoring/drop-sensitive-data.mdx @@ -7,7 +7,7 @@ translationType: machine Você tem duas opções para descartar dados confidenciais de IA antes de enviá-los para a New Relic. Este documento orienta você por esses dois métodos para que você tenha melhor controle sobre os tipos de dados que o agente coleta. -## Desativar ai.monitoring.record_content.enabled [#disable-event] +## Desativar ai.monitoring.record\_content.enabled [#disable-event] Quando você desabilita `ai_monitoring.record_content.enabled`, os dados do evento contendo o prompt final do usuário e as respostas de IA não serão enviados ao NRDB. Você pode ler mais sobre configuração de agente em nosso [documento de configuraçãoAI Monitoring ](/docs/ai-monitoring/customize-agent-ai-monitoring). @@ -19,36 +19,16 @@ Quando você desabilita `ai_monitoring.record_content.enabled`, os dados do even Um filtro de gota única destina-se a um atributo especificado dentro de um tipo de evento, mas informações confidenciais de uma única interação de IA são armazenadas em vários eventos. Para descartar informações antes que elas entrem no NRDB, você precisa de seis filtros de descarte separados. -A gif displaying the workflow for creating a set of drop filters +A gif displaying the workflow for creating a set of drop filters
- De **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters**: para criar um filtro de descarte, selecione o evento que pode conter dados confidenciais e escolha o Regex que corresponde ao tipo de dados que você deseja descartar. + De **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters**: para criar um filtro de descarte, selecione o evento que pode conter dados confidenciais e escolha o Regex que corresponde ao tipo de dados que você deseja descartar.
-1. Vá para - - - **[one.newrelic.com](https://one.newrelic.com) > All capabilities > AI monitoring > Drop filters** - - - e clique em - - - **Create drop filter** - - - . - +1. Vá para **[one.newrelic.com](https://one.newrelic.com) &gt; All capabilities &gt; AI monitoring &gt; Drop filters** e clique em **Create drop filter**. 2. Crie um nome de filtro. Recomendamos a criação de nomes com base nas informações fornecidas, como “cartão de crédito”, “e-mails”, “endereços” e assim por diante. - 3. Escolha o evento do qual deseja eliminar informações ou opte por eliminar todos os eventos. - 4. Atribua regex ao filtro drop. Tenha em mente que embora você possa selecionar vários eventos ao criar um conjunto de filtros de descarte, você só pode selecionar um tipo de regex por criação de filtro. - 5. Repita as etapas acima para outros tipos de informações que você deseja descartar. Por exemplo, se você atribuiu regex ao seu primeiro conjunto para eliminar informações de cartão de crédito, seu próximo conjunto deverá eliminar um atributo para outro tipo de informação. ## Como funcionam os filtros de queda [#drop-rules-work] @@ -59,7 +39,7 @@ Um filtro de gotas pode conter três partes: * **Evento**: Um registro armazenado de uma interação dentro do seu sistema. * **Regex**: Uma sequência de caracteres e operadores que corresponde a tipos de informações. -* **Critérios de correspondência** (opcional): uma cláusula NRQL que adiciona especificidade ao filtro de descarte. Por exemplo, se você quiser apenas eliminar dados de `openai`, poderá adicionar `AND vendor IN 'openai'` +* **Critérios de correspondência** (opcional): uma cláusula NRQL que adiciona especificidade ao filtro de descarte. Por exemplo, se você quiser apenas eliminar dados de `openai`, poderá adicionar `vendor IN ('openai')` Um filtro de descarte avalia os dados encaminhados pelo agente dentro do pipeline de ingestão de dados para que informações confidenciais possam ser descartadas. @@ -70,10 +50,7 @@ Como o comportamento padrão do agente é capturar todas as partes dos dados do Consulte o regex abaixo para começar a construir sua primeira consulta: - + **Expressão:** ```regex @@ -81,10 +58,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -92,10 +66,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -103,10 +74,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -114,10 +82,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -125,10 +90,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -136,10 +98,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -147,10 +106,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -158,10 +114,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -169,10 +122,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -180,10 +130,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -191,10 +138,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -202,10 +146,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -213,10 +154,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -224,10 +162,7 @@ Consulte o regex abaixo para começar a construir sua primeira consulta: ``` - + **Expressão:** ```regex @@ -251,4 +186,4 @@ Agora que você protegeu os dados dos seus clientes, você pode explorar AI Moni * [Aprenda a explorar seus dados de IA](/docs/ai-monitoring/view-ai-data). * Quer ajustar sua ingestão de dados? [Saiba mais sobre como configurar AI Monitoring](/docs/ai-monitoring/customize-agent-ai-monitoring). -* Você ativou o log? Aprenda como [ofuscar informações confidenciais](/docs/logs/ui-data/obfuscation-ui) do seu log ou [remover mensagens inteiras do log se elas contiverem informações confidenciais](/docs/logs/ui-data/drop-data-drop-filter-rules). +* Você ativou o log? Aprenda como [ofuscar informações confidenciais](/docs/logs/ui-data/obfuscation-ui) do seu log ou [remover mensagens inteiras do log se elas contiverem informações confidenciais](/docs/logs/ui-data/drop-data-drop-filter-rules). \ No newline at end of file diff --git a/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx b/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx index 28a0019a66a..4951e100748 100644 --- a/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx +++ b/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx @@ -18,10 +18,7 @@ Nosso agente Node.js está disponível publicamente no [repositório Node gerenc Antes de [instalar o agente](/docs/apm/agents/nodejs-agent/installation-configuration/install-nodejs-agent), verifique se o seu sistema atende aos requisitos mínimos. Para obter melhor desempenho, use a versão mais recente do suporte ativo de longo prazo (LTS) do Node.js. - + O agente Node.js é compatível com o seguinte sistema operacional: * Linux @@ -30,10 +27,7 @@ Antes de [instalar o agente](/docs/apm/agents/nodejs-agent/installation-configur * Windows Server 2008 e superior - + Também é compatível com estes serviços de hospedagem: * [Ambiente flexível do Google App Engine (GAE)](/docs/agents/nodejs-agent/hosting-services/install-new-relic-nodejs-agent-gae-flexible-environment) @@ -42,17 +36,11 @@ Antes de [instalar o agente](/docs/apm/agents/nodejs-agent/installation-configur * [Heroku](/docs/nodejs/nodejs-agent-on-heroku) - + Como [medida de segurança padrão para coleta de dados](/docs/accounts-partnerships/accounts/security/data-security), o servidor do seu aplicativo deve oferecer suporte a SHA-2 (256 bits). SHA-1 não é compatível. - + Daremos suporte às [versões mais recentes dos lançamentos do Node.js](https://nodejs.org/en/about/previous-releases) no início do seguinte cronograma de suporte ativo de longo prazo. A política de suporte de versão não substitui nossa política geral de fim de vida útil (EOL). A seguir estão os intervalos de tempo propostos. A data de lançamento real pode variar. @@ -263,7 +251,7 @@ Após a instalação, o agente automaticamente instrumento com nosso catálogo d **Nota**: A versão suportada mais recente pode não refletir a versão suportada mais recente. -| Nome do pacote | Versão mínima suportada | Última versão suportada | Introduzido em\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.8.4 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.10.5 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.624.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.14.0 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.11.1 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.10 | 9.0.0 | | `@koa/router` | 11.0.2 | 12.0.1 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.2.21 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.2 | 10.1.0 | | `@prisma/client` | 5.0.0 | 5.18.0 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.1.12 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.4 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1669.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.19.2 | 2.6.0 | | `fastify` | 2.0.0 | 4.28.1 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 12.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.8.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.0 | 1.32.0 | | `next` | 13.4.19 | 14.2.5 | 12.0.0 | | `openai` | 4.0.0 | 4.55.1 | 11.13.0 | | `pg` | 8.2.0 | 8.12.0 | 9.0.0 | | `pg-native` | 2.0.0 | 3.1.0 | 9.0.0 | | `pino` | 7.0.0 | 9.3.2 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.0.0 | 4.9.0 | | `undici` | 5.0.0 | 6.19.5 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.13.1 | 8.11.0 | +| Nome do pacote | Versão mínima suportada | Última versão suportada | Introduzido em\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.8.4 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.11.0 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.629.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.629.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.624.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.15.0 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.11.1 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.10 | 9.0.0 | | `@koa/router` | 11.0.2 | 12.0.1 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.2.23 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.4 | 10.1.0 | | `@prisma/client` | 5.0.0 | 5.18.0 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.1.12 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.4 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1673.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.19.2 | 2.6.0 | | `fastify` | 2.0.0 | 4.28.1 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 12.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.8.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.0 | 1.32.0 | | `next` | 13.4.19 | 14.2.5 | 12.0.0 | | `openai` | 4.0.0 | 4.55.4 | 11.13.0 | | `pg` | 8.2.0 | 8.12.0 | 9.0.0 | | `pg-native` | 2.0.0 | 3.1.0 | 9.0.0 | | `pino` | 7.0.0 | 9.3.2 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.0.0 | 4.9.0 | | `undici` | 5.0.0 | 6.19.7 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.14.1 | 8.11.0 | \*Quando o pacote não é especificado, o suporte está dentro do pacote `newrelic` . @@ -275,7 +263,7 @@ O agente Node.js oferece suporte à seguinte plataforma e integração de IA. Através do módulo `@aws-sdk/client-bedrock-runtime` , oferecemos suporte a: -| Modelo | Imagem | Texto | Visão | | --- | --- | --- | --- | | Laboratórios AI21 Jurássico-2 | ❌ | ✅ | - | | Amazona Titã | ❌ | ✅ | - | | Claude Antrópico | ❌ | ✅ | ❌ | | Coerente | ❌ | ✅ | - | | Meta Lhama2 | ❌ | ✅ | - | | Meta Lhama3 | ❌ | ✅ | - | +| Modelo | Imagem | Texto | Visão | | -------------------- | ----- | ---- | ------ | | AI21 Labs Jurassic-2 | ❌ | ✅ | - | | Amazon Titan | ❌ | ✅ | - | | Anthropic Claude | ❌ | ✅ | ❌ | | Cohere | ❌ | ✅ | - | | Meta Llama2 | ❌ | ✅ | - | | Meta Llama3 | ❌ | ✅ | - | Nota: se um modelo suportar streaming, também instrumentamos a variante de streaming. @@ -283,17 +271,17 @@ Nota: se um modelo suportar streaming, também instrumentamos a variante de stre Os seguintes recursos gerais do Langchain são suportados: -| Agente | Cadeia | Ferramentas | Lojas de vetores | | --- | --- | --- | --- | | ✅ | ✅ | ✅ | ✅ | +| Agentes | Cadeiaa | Ferramentas | Lojas de vetores | | ------ | ------ | ----- | ------------ | | ✅ | ✅ | ✅ | ✅ | Modelos/provedores são geralmente suportados transitivamente pela nossa instrumentação do módulo do provedor. -| Provedor | Suportado | Transitivamente | | --- | --- | --- | | Azure OpenAI | ❌ | ❌ | | Base Amazônica | ❌ | ❌ | | OpenAI | ✅ | ✅ | +| Provedor | Suportado | Transitivamente | | -------------- | --------- | ------------ | | Azure OpenAI | ❌ | ❌ | | Amazon Bedrock | ❌ | ❌ | | OpenAI | ✅ | ✅ | ### OpenAI Através do módulo `openai` , oferecemos suporte a: -| Áudio | Bate-papo | Conclusões | Incorporações | Arquivos | Imagens | | --- | --- | --- | --- | --- | --- | | ❌ | ✅ | ✅ | ✅ | ❌ | ❌ | +| Áudio | Bate-papo | Complementações | Incorporações | Arquivos | Imagens | | ----- | ---- | ----------- | ---------- | ----- | ------ | | ❌ | ✅ | ✅ | ✅ | ❌ | ❌ | /\* end: compat-table \*/ @@ -335,7 +323,7 @@ O agente Node.js se integra a outro recurso para fornecer observabilidade em tod - O agente Node.js pode adicionar os benefícios do ao [ativar a instrumentação automática](/docs/browser/new-relic-browser/installation/install-new-relic-browser-agent#select-apm-app). Após habilitar a injeção de monitoramento de Browser, basta seguir nosso [guia de instalação de monitoramento de Browser com o agente Node.js.](/docs/agents/nodejs-agent/extend-your-instrumentation/browser-monitoring-nodejs-agent/) Depois de concluir essas etapas, você poderá visualizar seus dados do browser na [página APM **Summary** ](/docs/apm/applications-menu/monitoring/apm-overview-page)e alternar rapidamente entre o APM e os dados do browser para um aplicativo específico. Para opções de configuração e instrumentação manual, consulte [monitoramento de Browser e agente Node.js.](/docs/agents/nodejs-agent/supported-features/new-relic-browser-nodejs-agent) + O agente Node.js pode adicionar os benefícios do ao [ativar a instrumentação automática](/docs/browser/new-relic-browser/installation/install-new-relic-browser-agent#select-apm-app). Após habilitar a injeção de monitoramento de Browser, basta seguir nosso [guia de instalação de monitoramento de Browser com o agente Node.js.](/docs/agents/nodejs-agent/extend-your-instrumentation/browser-monitoring-nodejs-agent/) Depois de concluir essas etapas, você poderá visualizar seus dados do browser na [página APM **Summary** ](/docs/apm/applications-menu/monitoring/apm-overview-page)e alternar rapidamente entre o APM e os dados do browser para um aplicativo específico. Para opções de configuração e instrumentação manual, consulte [monitoramento de Browser e agente Node.js.](/docs/agents/nodejs-agent/supported-features/new-relic-browser-nodejs-agent) @@ -369,4 +357,4 @@ O agente Node.js se integra a outro recurso para fornecer observabilidade em tod - + \ No newline at end of file diff --git a/src/i18n/content/pt/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx b/src/i18n/content/pt/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx index 31df5bf3ccc..ce5e6f7e6b7 100644 --- a/src/i18n/content/pt/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx +++ b/src/i18n/content/pt/docs/distributed-tracing/trace-api/report-new-relic-format-traces-trace-api.mdx @@ -29,7 +29,7 @@ Para começar a usar a API trace , siga um destes caminhos: Veja a seguir como enviar uma carga padrão (não[Infinite Tracing](/docs/understand-dependencies/distributed-tracing/trace-api/introduction-trace-api#sampling)) para a API Trace usando nosso formato `newrelic` . -1. Obtenha um para a conta para a qual você deseja relatar dados. +1. Obtenha um para a conta para a qual você deseja relatar dados. 2. Insira essa chave no JSON a seguir e envie o JSON para nosso endpoint. Observação: se você tiver uma conta EU New Relic, use o [endpoint EU](/docs/understand-dependencies/distributed-tracing/trace-api/trace-api-general-requirements-limits#requirements) . @@ -121,7 +121,7 @@ A carga útil JSON da API trace é uma matriz de objetos, com cada objeto repres - _corda_ + *corda* @@ -143,7 +143,7 @@ A carga útil JSON da API trace é uma matriz de objetos, com cada objeto repres - _corda_ + *corda* @@ -165,7 +165,7 @@ A carga útil JSON da API trace é uma matriz de objetos, com cada objeto repres - _longo_ + *longo* @@ -187,15 +187,15 @@ A carga útil JSON da API trace é uma matriz de objetos, com cada objeto repres - _objeto_ + *objeto* - Qualquer conjunto de pares de valores principais que adicionam mais detalhes sobre um intervalo. É altamente recomendável adicionar `duration.ms`, `name` e `parent.id` . + Qualquer conjunto de pares de valores principais que adicionam mais detalhes sobre um intervalo. `duration.ms` é obrigatório, e os atributos `name` e `parent.id` são altamente recomendados para serem adicionados. - não + sim @@ -241,7 +241,7 @@ Solicitações sem as chaves exigidas acima serão rejeitadas e um [`NrIntegrati - _objeto_ + *objeto* @@ -285,7 +285,7 @@ Embora não sejam obrigatórios, esses atributos devem ser incluídos para obter `duration.ms` - _float_ + *float* @@ -301,7 +301,7 @@ Embora não sejam obrigatórios, esses atributos devem ser incluídos para obter `name` - _corda_ + *corda* @@ -317,7 +317,7 @@ Embora não sejam obrigatórios, esses atributos devem ser incluídos para obter `parent.id` - _corda_ + *corda* @@ -333,7 +333,7 @@ Embora não sejam obrigatórios, esses atributos devem ser incluídos para obter `service.name` - _corda_ + *corda* @@ -341,7 +341,7 @@ Embora não sejam obrigatórios, esses atributos devem ser incluídos para obter - O nome da entidade que criou este intervalo. Se nenhum valor ou uma string vazia for fornecida, o intervalo será atribuído a uma entidade "UNKNOWN" e será exibido como tal na interface. Este valor deve ser fornecido para obter uma experiência completa na interface. + O nome da entidade que criou este intervalo. Se nenhum valor ou uma string vazia for fornecida, o intervalo será atribuído a uma entidade "UNKNOWN" e será exibido como tal na interface. Este valor deve ser fornecido para obter uma experiência completa na interface. @@ -373,7 +373,7 @@ Esses atributos estão atualmente reservados para uso interno da New Relic. Embo `entity.name` - _corda_ + *corda* @@ -389,7 +389,7 @@ Esses atributos estão atualmente reservados para uso interno da New Relic. Embo `entity.type` - _corda_ + *corda* @@ -405,7 +405,7 @@ Esses atributos estão atualmente reservados para uso interno da New Relic. Embo `entity.guid` - _corda_ + *corda* @@ -478,4 +478,4 @@ Para saber como controlar como os spans aparecem no New Relic (por exemplo, adic * [Saiba onde os dados da API trace aparecem na interface](/docs/understand-dependencies/distributed-tracing/ui-data/additional-distributed-tracing-features-new-relic-one#find-data). * [Aprenda como decorar vãos](/docs/apm/distributed-tracing/trace-api/trace-api-decorate-spans-attributes) para obter uma experiência de interface mais rica e detalhada. Por exemplo, você pode fazer com que os intervalos apareçam como intervalos de armazenamento de dados ou exibam erros. * Saiba mais sobre [limites gerais de dados, metadados necessários e validação de resposta](/docs/apm/distributed-tracing/trace-api/trace-api-endpoint-requirements-limits). -* Se você não vir seus dados de rastreamento, consulte [resolução de problemas](/docs/apm/distributed-tracing/trace-api/troubleshooting-missing-trace-api-data). +* Se você não vir seus dados de rastreamento, consulte [resolução de problemas](/docs/apm/distributed-tracing/trace-api/troubleshooting-missing-trace-api-data). \ No newline at end of file diff --git a/src/i18n/content/pt/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx b/src/i18n/content/pt/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx index 9363dc55636..49281161095 100644 --- a/src/i18n/content/pt/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx +++ b/src/i18n/content/pt/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx @@ -12,19 +12,11 @@ translationType: machine A maneira mais rápida de começar a usar nosso [agente de infraestrutura](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/) é por meio da [instalação guiada](/docs/new-relic-one/use-new-relic-one/cross-product-functions/install-configure/new-relic-guided-install-overview/). Se você estiver na UE, experimente nossa instalação guiada pela UE. - + Instalação guiada - + UE instalação guiada @@ -38,16 +30,11 @@ A maneira mais rápida de começar a usar nosso [agente de infraestrutura](/docs Você pode instalar o agente manualmente. Antes de instalar a infraestrutura, certifique-se de: * Revise os [requisitos](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructure). - -* Tenha um - - - - válido. +* Tenha um válido. Para instalar a infraestrutura no Linux, siga estas instruções: -1. Crie o arquivo de configuração e adicione seu : +1. Crie o arquivo de configuração e adicione seu : ```bash echo "license_key: YOUR_LICENSE_KEY" | sudo tee -a /etc/newrelic-infra.yml @@ -58,7 +45,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: Debian.pngDebian} + title={<>Debian.pngDebian + } > ```bash cat /etc/os-release @@ -67,7 +55,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: ubuntu iconUbuntu} + title={<>ubuntu iconUbuntu + } > ```bash cat /etc/lsb-release @@ -76,7 +65,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: amazon linux.pngAmazon Linux,centos iconCentOS,redhat iconRHEL e Oracle Linux} + title={<>amazon linux.pngAmazon Linux,centos iconCentOS,redhat icon + } > ```bash cat /etc/os-release @@ -85,7 +75,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: suse iconSLES} + title={<>suse icon + } > ```bash cat /etc/os-release | grep VERSION_ID @@ -98,16 +89,22 @@ Para instalar a infraestrutura no Linux, siga estas instruções: Debian.pngDebian} + title={<>Debian.pngDebian + } > ```bash curl -fsSL https://download.newrelic.com/infrastructure_agent/gpg/newrelic-infra.gpg | sudo gpg --dearmor -o /etc/apt/trusted.gpg.d/newrelic-infra.gpg ``` + + ```bash + sudo chmod a+r /etc/apt/trusted.gpg.d/newrelic-infra.gpg + ``` ubuntu iconUbuntu} + title={<>ubuntu iconUbuntu + } > ```bash curl -fsSL https://download.newrelic.com/infrastructure_agent/gpg/newrelic-infra.gpg | sudo gpg --dearmor -o /etc/apt/trusted.gpg.d/newrelic-infra.gpg @@ -116,14 +113,16 @@ Para instalar a infraestrutura no Linux, siga estas instruções: amazon linux.pngAmazon Linux,centos iconCentOS,redhat iconRHEL e Oracle Linux} + title={<>amazon linux.pngAmazon Linux,centos iconCentOS,redhat icon + } > yum instala automaticamente a chave GPG usando o valor em `gpgkey`. suse iconSLES} + title={<>suse icon + } > ```bash curl https://download.newrelic.com/infrastructure_agent/gpg/newrelic-infra.gpg -s | sudo gpg --import @@ -140,10 +139,11 @@ Para instalar a infraestrutura no Linux, siga estas instruções: Debian.pngDebian} + title={<>Debian.pngDebian + } > - **Debian 11 ("Bullseye")** + **Debian 11 ("Bullseye")** ```bash @@ -151,7 +151,7 @@ Para instalar a infraestrutura no Linux, siga estas instruções: ``` - **Debian 12 ("Bookworm")** + **Debian 12 ("Bookworm")** ```bash @@ -161,7 +161,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: ubuntu iconUbuntu} + title={<>ubuntu iconUbuntu + } > **Ubuntu 18.04 LTS (Bionic Beaver)** @@ -214,7 +215,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: amazon linux.pngAmazon Linux} + title={<>amazon linux.png + } > **Amazon Linux 2 (x86)** @@ -251,7 +253,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: centos iconCentOS /redhat iconRHEL e Oracle Linux} + title={<>centos iconCentOS /redhat icon + } > **CentOS, RHEL, Oracle Linux 7.x (x86)** @@ -304,7 +307,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: suse iconSLES} + title={<>suse icon + } > **SLES 12.5 (x86)** @@ -393,7 +397,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: Debian.pngDebian} + title={<>Debian.pngDebian + } > ```bash sudo apt-get update @@ -402,7 +407,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: ubuntu iconUbuntu} + title={<>ubuntu iconUbuntu + } > ```bash sudo apt-get update @@ -411,7 +417,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: amazon linux.pngAmazon Linux,centos iconCentOS,redhat iconRHEL e Oracle Linux} + title={<>amazon linux.pngAmazon Linux,centos iconCentOS,redhat icon + } > ```bash sudo yum -q makecache -y --disablerepo='*' --enablerepo='newrelic-infra' @@ -420,7 +427,8 @@ Para instalar a infraestrutura no Linux, siga estas instruções: suse iconSLES} + title={<>suse icon + } > ```bash sudo zypper -n ref -r newrelic-infra @@ -431,33 +439,24 @@ Para instalar a infraestrutura no Linux, siga estas instruções: 6. Instale o pacote `newrelic-infra` no modo root (padrão), usuário privilegiado ou usuário não privilegiado. Para obter mais informações sobre cada modo de execução, consulte [Modos de execução do agente Linux](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes). - - * - **Debian.png** - + + * **Debian.png** - **Debian andubuntu iconUbuntu**: + **Debian andubuntu iconUbuntu**: ```bash sudo apt-get install newrelic-infra -y ``` - * - **amazon linux.png** - + * **amazon linux.png** - **Amazon Linux,centos iconCentOS,redhat iconRHEL & Oracle Linux**: + **Amazon Linux,centos iconCentOS,redhat iconRHEL &amp; Oracle Linux**: ```bash sudo yum install newrelic-infra -y ``` - * - **suse icon** - + * **suse icon** **SLES**: @@ -466,17 +465,12 @@ Para instalar a infraestrutura no Linux, siga estas instruções: ``` - + Instale a biblioteca libcap e defina a variável de ambiente [`NRIA_MODE`](/docs/infrastructure/install-infrastructure-agent/linux-installation/linux-agent-running-modes/#set-mode) como `PRIVILEGED`. - * - **Debian.png** - + * **Debian.png** - **Debian andubuntu iconUbuntu**: + **Debian andubuntu iconUbuntu**: ```bash sudo apt-get install libcap2-bin @@ -486,11 +480,9 @@ Para instalar a infraestrutura no Linux, siga estas instruções: sudo NRIA_MODE="PRIVILEGED" apt-get install newrelic-infra ``` - * - **amazon linux.png** - + * **amazon linux.png** - **Amazon Linux,centos iconCentOS,redhat iconRHEL & Oracle Linux**: + **Amazon Linux,centos iconCentOS,redhat iconRHEL &amp; Oracle Linux**: ```bash sudo yum install libcap @@ -500,9 +492,7 @@ Para instalar a infraestrutura no Linux, siga estas instruções: sudo NRIA_MODE="PRIVILEGED" yum install newrelic-infra ``` - * - **suse icon** - + * **suse icon** **SLES**: @@ -515,17 +505,12 @@ Para instalar a infraestrutura no Linux, siga estas instruções: ``` - + Instale a biblioteca libcap e defina a variável de ambiente [`NRIA_MODE`](/docs/infrastructure/install-infrastructure-agent/linux-installation/linux-agent-running-modes/#set-mode) como `UNPRIVILEGED`. - * - **Debian.png** - + * **Debian.png** - **Debian andubuntu iconUbuntu**: + **Debian andubuntu iconUbuntu**: ```bash sudo apt-get install libcap2-bin @@ -535,11 +520,9 @@ Para instalar a infraestrutura no Linux, siga estas instruções: sudo NRIA_MODE="UNPRIVILEGED" apt-get install newrelic-infra ``` - * - **amazon linux.png** - + * **amazon linux.png** - **Amazon Linux,centos iconCentOS,redhat iconRHEL & Oracle Linux**: + **Amazon Linux,centos iconCentOS,redhat iconRHEL &amp; Oracle Linux**: ```bash sudo yum install libcap @@ -549,9 +532,7 @@ Para instalar a infraestrutura no Linux, siga estas instruções: sudo NRIA_MODE="UNPRIVILEGED" yum install newrelic-infra ``` - * - **suse icon** - + * **suse icon** **SLES**: @@ -599,4 +580,4 @@ A única [opção de configuração](/docs/infrastructure/install-configure-infr * Habilite [o encaminhamento de logs](/docs/logs/enable-new-relic-logs/1-enable-logs/forward-your-logs-using-new-relic-infrastructure-agent). * Adicione outras [integrações New Relic Infrastructure ](/docs/infrastructure/integrations-getting-started/getting-started/introduction-infrastructure-integrations)para coletar dados de serviços externos. - + \ No newline at end of file diff --git a/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx index ad98d05aa15..c667c56217d 100644 --- a/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx +++ b/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx @@ -9,7 +9,9 @@ freshnessValidatedDate: never translationType: machine --- -**This list is current. Networks, IPs, domains, ports, and endpoints last updated April 23, 2024.** + + **This list is current. Networks, IPs, domains, ports, and endpoints last updated April 23, 2024.** + Esta é uma lista de redes, endereços IP, domínios, portas e endpoints usados por clientes ou agentes API para se comunicar com a New Relic. [TLS é necessário para todos os domínios](#tls). @@ -49,7 +51,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **APM** + + **APM** + @@ -57,7 +61,7 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - Ingestão de agente APM + agente APM ingerir @@ -73,7 +77,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **AWS** + + **AWS** + @@ -111,7 +117,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **Browser** + + **Browser** + @@ -135,7 +143,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **IAST** + + **IAST** + @@ -163,7 +173,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **Ingest APIs** + + **Ingest APIs** + @@ -229,7 +241,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **Infrastructure** + + **Infrastructure** + @@ -281,7 +295,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **Lookup tables** + + **Lookup tables** + @@ -305,7 +321,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **Mobile** + + **Mobile** + @@ -357,7 +375,9 @@ Para mais detalhes sobre agentes e integração específicos, e sobre portos, co - **OpenTelemetry** + + **OpenTelemetry** + @@ -761,4 +781,4 @@ Utiliza o seguinte domínio: * `*.pubnub.com` * `*.pubnub.net` * `*.pndsn.com` -* `*.pubnubapi.com` +* `*.pubnubapi.com` \ No newline at end of file diff --git a/src/i18n/content/pt/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx b/src/i18n/content/pt/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx index ac6b5ac8499..537caedd40e 100644 --- a/src/i18n/content/pt/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx +++ b/src/i18n/content/pt/docs/serverless-function-monitoring/aws-lambda-monitoring/instrument-lambda-function/cloud-watch-fallback.mdx @@ -41,10 +41,7 @@ Existem três maneiras de implementar um substituto do CloudWatch: 3. **Extensão desabilitada**: Neste cenário, o CloudWatch é sempre utilizado para enviar log e carga. - + Se você não estiver enviando log para o CloudWatch, esta opção é a maneira menos dispendiosa e mais robusta de garantir que a carga instrumentada sempre chegue ao New Relic. Se você estiver enviando log, esta opção apresentará alguns custos do CloudWatch para envio log . Consulte [Ingestão de dados: cobrança e regras](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) para obter mais informações sobre preços. Depois de adicionar uma camada New Relic Lambda, a extensão é habilitada e tem o envio de log desabilitado por padrão. @@ -59,34 +56,31 @@ Existem três maneiras de implementar um substituto do CloudWatch: * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` (se estiver enviando log) - Ou, se você estiver usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), defina: + Ou, se você estiver usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), defina: - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - - `enableIntegration` só deve ser incluída se sua função estiver sendo implantada em uma conta AWS que ainda não possui integração. Uma vez configurada a integração, esta opção deverá ser removida do yaml da função implantar. - + + O parâmetro `enableIntegration` só deve ser incluído se sua função estiver sendo implantada em uma conta AWS que ainda não tenha uma integração. Depois que a integração estiver configurada, esta opção deverá ser removida do `serverless.yml` usado para implantar sua função. + - Ou, se você estiver usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), defina: + Ou, se você estiver usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), defina: - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key --enable-logs + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - + Esta opção fornece o caminho de menor custo que garante que a carga instrumentada sempre chegue à New Relic. Esta opção envia o log de funções por meio da extensão New Relic Lambda, portanto, se a extensão falhar ao inicializar ou travar, o log de funções estará ausente do New Relic. Se você estiver enviando log de função, certifique-se de que a extensão esteja configurada para isso. Esses logs serão enviados apenas pela extensão e não haverá fallback do CloudWatch para log para evitar duplicatas. @@ -102,34 +96,31 @@ Existem três maneiras de implementar um substituto do CloudWatch: * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `false` (desative o encaminhamento de logs para evitar duplicatas ou defina o padrão de filtro de assinatura do CloudWatch para corresponder apenas a `NR_LAMBDA_MONITORING` linhas) - Ou, se você estiver usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), defina: + Ou, se você estiver usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), defina: - ```yaml - custom: - newRelic: - enableExtension: true - enableFunctionLogs: true - enableIntegration: true - cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) - ``` + ```yaml + custom: + newRelic: + enableExtension: true + enableFunctionLogs: true + enableIntegration: true + cloudWatchFilter: "NR_LAMBDA_MONITORING" # (only send payloads) + ``` - - `enableIntegration` só deve ser incluída se sua função estiver sendo implantada em uma conta AWS que ainda não possui integração. Uma vez configurada a integração, esta opção deverá ser removida do yaml da função implantar. - + + O parâmetro `enableIntegration` só deve ser incluído se sua função estiver sendo implantada em uma conta AWS que ainda não tenha uma integração. Depois que a integração estiver configurada, esta opção deverá ser removida do `serverless.yml` usado para implantar sua função. + - Ou, se você estiver usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), defina: + Ou, se você estiver usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), defina: - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id - newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" - ``` + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id + newrelic-lambda subscriptions install --function --filter-pattern "NR_LAMBDA_MONITORING" + ``` - + Esta opção depende totalmente do CloudWatch e de nossa função `newrelic-log-ingestion` para enviar log e carga para o New Relic. Esta opção desativa a extensão para evitar possíveis períodos de inatividade causados por falhas na extensão. Para este método, a extensão New Relic Lambda precisa ser completamente desativada para não impedir que a linha `NR_LAMBDA_MONITORING` seja gravada no CloudWatch. Com a extensão New Relic Lambda desativada, toda a telemetria sairá por meio do CloudWatch, do filtro de assinatura e da função `newrelic-log-ingestion` . @@ -137,7 +128,6 @@ Existem três maneiras de implementar um substituto do CloudWatch: Depois de adicionar uma camada New Relic Lambda, a extensão é habilitada e tem o envio de log desabilitado por padrão. Você precisará desabilitar a extensão com uma variável de ambiente. 1. Defina [variáveis de ambiente de extensão](https://github.com/newrelic/newrelic-lambda-extension/blob/main/config/config.go) em sua função da seguinte maneira: - * `NEW_RELIC_LAMBDA_EXTENSION_ENABLED`: `false` 2. Defina as variáveis de ambiente da função `newrelic-log-ingestion` da seguinte maneira: @@ -145,81 +135,46 @@ Existem três maneiras de implementar um substituto do CloudWatch: * `INFRA_ENABLED`: `true` * `LOGGING_ENABLED`: `true` - Ou, se você estiver usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), defina: - - ```yaml - custom: - newRelic: - enableExtension: false - enableIntegration: true - cloudWatchFilter: "*" - ``` + Ou, se você estiver usando [`serverless-newrelic-lambda-layers`](https://github.com/newrelic/serverless-newrelic-lambda-layers), defina: - - `enableIntegration` só deve ser incluída se sua função estiver sendo implantada em uma conta AWS que ainda não possui integração. Uma vez configurada a integração, esta opção deverá ser removida do yaml da função implantar. - + ```yaml + custom: + newRelic: + enableExtension: false + enableIntegration: true + cloudWatchFilter: "*" + ``` - Ou, se você estiver usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), defina: + + O parâmetro `enableIntegration` só deve ser incluído se sua função estiver sendo implantada em uma conta AWS que ainda não tenha uma integração. Depois que a integração estiver configurada, esta opção deverá ser removida do `serverless.yml` usado para implantar sua função. + - ```bash - newrelic-lambda integrations install --nr-account-id --nr-api-key - newrelic-lambda layers install --function --nr-account-id --disable-extension - newrelic-lambda subscriptions install --function --filter-pattern "" - ``` + Ou, se você estiver usando [`newrelic-lambda-cli`](https://github.com/newrelic/newrelic-lambda-cli), defina: - Você também pode optar manualmente por enviar dados apenas para o CloudWatch. Para fazer isso: + ```bash + newrelic-lambda integrations install --nr-account-id --nr-api-key + newrelic-lambda layers install --function --nr-account-id --disable-extension + newrelic-lambda subscriptions install --function --filter-pattern "" + ``` - 3. Desative a extensão adicionando a variável de ambiente `NEW_RELIC_LAMBDA_EXTENSION_ENABLED` à sua função, com o valor `false`. + Você também pode optar manualmente por enviar dados apenas para o CloudWatch. Para fazer isso: - 4. Crie um filtro de assinatura de log do CloudWatch para invocar a função `newrelic-log-ingestion` com o log da sua função. + 1. Desative a extensão adicionando a variável de ambiente `NEW_RELIC_LAMBDA_EXTENSION_ENABLED` à sua função, com o valor `false`. + 2. Crie um filtro de assinatura de log do CloudWatch para invocar a função `newrelic-log-ingestion` com o log da sua função. * A CLI pode fazer isso por você: `newrelic-lambda subscriptions install --function FUNCTION_NAME` * Como alternativa, use o console AWS para criar um filtro de assinatura do grupo log do CloudWatch da sua função para invocar a `newrelic-log-ingestion` função do Lambda. - Ou você pode seguir estas etapas para transmitir o log do CloudWatch para New Relic Lambda: - - 1. Abra o CloudWatch e selecione - - - **Logs** - - - no menu à esquerda e, em seguida, selecione o grupo log da função que você está monitorando. - - 2. Selecione - - - **Actions > Subscription filters > Create Lambda subscription filter** - - - . - - 3. Em - - - **Lambda function** - - - , selecione a função `newrelic-log-ingestion` . - - 4. Defina - - - **Log format** - - - como `JSON`. - - 5. Defina o - - - **Subscription filter pattern to** - + Ou você pode seguir estas etapas para transmitir o log do CloudWatch para New Relic Lambda: - `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId`. Alternativamente, se você estiver usando a variável de ambiente `LOGGING_ENABLED` [para transmitir todo o seu log](#stream-all-logs) para o nosso log, deixe este campo em branco. + 1. Abra o CloudWatch e selecione **Logs** no menu à esquerda e, em seguida, selecione o grupo log da função que você está monitorando. + 2. Selecione **Actions > Subscription filters > Create Lambda subscription filter**. + 3. Em **Lambda function**, selecione a função `newrelic-log-ingestion` . + 4. Defina **Log format** como `JSON`. + 5. Defina o **Subscription filter pattern to** `?REPORT ?NR_LAMBDA_MONITORING ?"Task timed out" ?RequestId`. Alternativamente, se você estiver usando a variável de ambiente `LOGGING_ENABLED` [para transmitir todo o seu log](#stream-all-logs) para o nosso log, deixe este campo em branco. - - Certifique-se de que a `newrelic-log-ingestion` função do Lambda selecionada no método acima esteja na mesma região da AWS que sua função do Lambda. - + + Certifique-se de que a `newrelic-log-ingestion` função do Lambda selecionada no método acima esteja na mesma região da AWS que sua função do Lambda. + - + \ No newline at end of file From 708fd11f5f72895de1c04ad7240feef2398720a6 Mon Sep 17 00:00:00 2001 From: nbaenam Date: Fri, 16 Aug 2024 12:10:12 +0200 Subject: [PATCH 06/15] style(AWS): Modified the first sentence under connect AWS and NR --- .../get-started/introduction-aws-integrations.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx b/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx index 75feb74a147..65fce362455 100644 --- a/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx +++ b/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx @@ -27,7 +27,7 @@ Amazon integrations let you monitor your AWS data in several New Relic features. ## Connect AWS and New Relic [#connect] -In order to obtain AWS data, follow the procedure to [connect AWS to New Relic](/docs/infrastructure/amazon-integrations/getting-started/connect-aws-services-infrastructure). +See [Connect AWS polling integrations](/docs/infrastructure/amazon-integrations/connect/connect-aws-new-relic-infrastructure-monitoring/) to start receiving Amazon data with New Relic's AWS integrations. Additional **API Polling** integrations can be enabled on top of the AWS CloudWatch metric streams in order to pull data that's not available as CloudWatch metrics. The following integrations are not replaced by the metric streams: From 5948ac9fedb82dd08c57ea387d337693953e919c Mon Sep 17 00:00:00 2001 From: nbaenam Date: Fri, 16 Aug 2024 13:33:10 +0200 Subject: [PATCH 07/15] fix(AWS): Fixed a typo in a URL --- .../get-started/introduction-aws-integrations.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx b/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx index 65fce362455..c011c18ffae 100644 --- a/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx +++ b/src/content/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx @@ -58,7 +58,7 @@ Once you finish configuration, data from your AWS services reports directly to N To view your AWS data: -1. Go to \*\*[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities). +1. Go to **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities)**. 2. Search for **Amazon Web Services** and click the tile. You can view and reuse NRQL queries both in the pre-configured and in the **Events explorer** dashboards. This allows you to tailor queries to your specific needs. From c15e830bf14c28828f75c154cd8f0bd78f5bef61 Mon Sep 17 00:00:00 2001 From: svc-docs-eng-opensource-bot Date: Fri, 16 Aug 2024 12:06:14 +0000 Subject: [PATCH 08/15] chore: add translations --- .../account-setup/downgradecancel-account.mdx | 127 +- .../data-ingest-billing.mdx | 95 +- .../usage-queries-alerts.mdx | 216 +- .../alert-conditions.mdx | 483 ++- .../create-nrql-alert-conditions.mdx | 269 +- .../set-thresholds-alert-condition.mdx | 62 +- .../rest-api/rest-api-calls-alerts.mdx | 357 +- .../introduction-new-relic-nerdgraph.mdx | 36 +- .../go-agent-compatibility-requirements.mdx | 6 +- .../include-java-agent-jvm-argument.mdx | 177 +- .../compatibility-requirements-java-agent.mdx | 74 +- ...nt-compatibility-requirements-net-core.mdx | 270 +- ...mpatibility-requirements-net-framework.mdx | 734 ++-- .../installation/update-net-agent.mdx | 69 +- ...ompatibility-requirements-nodejs-agent.mdx | 161 +- .../install-nodejs-agent.mdx | 94 +- .../configuration/php-agent-configuration.mdx | 598 +--- .../php-agent-compatibility-requirements.mdx | 47 +- ...t-installation-aws-linux-redhat-centos.mdx | 74 +- .../php-agent-installation-overview.mdx | 41 +- ...ompatibility-requirements-python-agent.mdx | 6 +- .../apdex/apdex-measure-user-satisfaction.mdx | 146 +- .../introduction-browser-monitoring.mdx | 34 +- .../install-browser-monitoring-agent.mdx | 149 +- .../instrumentation-browser-monitoring.mdx | 55 +- .../page-load-timing-process.mdx | 135 +- ...-requirements-limits-custom-event-data.mdx | 43 +- .../event-api/introduction-event-api.mdx | 96 +- .../manage-data/manage-data-retention.mdx | 189 +- .../understand-data/new-relic-data-types.mdx | 1188 +++---- ...ow-new-relic-distributed-tracing-works.mdx | 159 +- .../aws-ec2-monitoring-integration.mdx | 11 +- ...ws-new-relic-infrastructure-monitoring.mdx | 52 +- .../introduction-aws-integrations.mdx | 26 +- ...d-use-data-infrastructure-integrations.mdx | 82 +- .../requirements-infrastructure-agent.mdx | 212 +- ...-infrastructure-monitoring-agent-linux.mdx | 163 +- ...ur-prometheus-remote-write-integration.mdx | 75 +- .../enable-log-management-new-relic.mdx | 61 +- .../install-android-agent-gradle.mdx | 127 +- .../introduction-mobile-monitoring.mdx | 112 +- .../alerts-best-practices.mdx | 21 +- .../get-started/intro-new-relic.mdx | 211 +- .../core-concepts/what-entity-new-relic.mdx | 64 +- .../introduction-new-relic-platform.mdx | 193 +- .../charts-and-dashboards-with-nrql.mdx | 25 +- .../nrql/nrql-syntax-clauses-functions.mdx | 3077 +++++++++-------- ...introduction-scripted-browser-monitors.mdx | 109 +- ...-reference-monitor-versions-chrome-100.mdx | 44 +- .../write-synthetic-api-tests.mdx | 41 +- .../install-nodejs-agent.mdx | 94 +- .../install-browser-monitoring-agent.mdx | 149 +- 52 files changed, 4524 insertions(+), 6615 deletions(-) diff --git a/src/i18n/content/jp/docs/accounts/accounts-billing/account-setup/downgradecancel-account.mdx b/src/i18n/content/jp/docs/accounts/accounts-billing/account-setup/downgradecancel-account.mdx index ffcc6a42db2..73b44fbf797 100644 --- a/src/i18n/content/jp/docs/accounts/accounts-billing/account-setup/downgradecancel-account.mdx +++ b/src/i18n/content/jp/docs/accounts/accounts-billing/account-setup/downgradecancel-account.mdx @@ -19,26 +19,8 @@ translationType: human エージェントまたはインテグレーションをアンインストールするには、以下のいくつかの推奨手順に従います。 -* - [](/docs/apm/new-relic-apm/maintenance/remove-applications-new-relic/) - - - [、](/docs/apm/new-relic-apm/maintenance/remove-applications-new-relic/) - - - [](/docs/apm/new-relic-apm/maintenance/remove-applications-new-relic/) - - - [、](/docs/apm/new-relic-apm/maintenance/remove-applications-new-relic/) - - - [](/docs/apm/new-relic-apm/maintenance/remove-applications-new-relic/) - - - [の順にクリックしてアプリを削除します。](/docs/apm/new-relic-apm/maintenance/remove-applications-new-relic/) - +* [の順にクリックしてアプリを削除します。](/docs/apm/new-relic-apm/maintenance/remove-applications-new-relic/) * [インフラストラクチャエージェントの削除](/docs/infrastructure/install-infrastructure-agent/update-or-uninstall/uninstall-infrastructure-agent/) - * 他のNew Relicツールを無効にする方法については、特定の各ドキュメントを参照してください。[New Relicのソリューションはここから検索](https://newrelic.com/instant-observability/)できます。 ## エディションをダウングレードする [#downgrading] @@ -46,94 +28,71 @@ translationType: human [エディション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/new-relic-one-pricing-billing/#editions)をダウングレードするには、2つのオプションがあります。これは従量課金であるか否かによって決まります。 - + StandardまたはProの[従量課金制の](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/new-relic-one-pricing-billing/#usage-plans)組織をダウングレードするには: - 1. [user menu](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings)から、 - - - **Manage your plan** - - - をクリックします。 - - 2. - **Plans and pricing** - - - をクリックします。 - - 3. - **Free** - - - 価格設定オプションで、 - - - **Downgrade to free** - - - にマウスを合わせ、表示されるボタンをクリックします。 - + 1. [user menu](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings)から、**Manage your plan**をクリックします。 + 2. **Plans and pricing**をクリックします。 + 3. **Free**価格設定オプションで、**Downgrade to free**にマウスを合わせ、表示されるボタンをクリックします。 4. 表示されるウィンドウで下部までスクロールし、キャンセル理由を入力します。 - 5. サービス利用規約に同意することを示すボックスをクリックします。 - - 6. をクリックします。 - - - **Submit.** - + 6. をクリックします。 **Submit.** - + [長期契約](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/new-relic-one-pricing-billing/#usage-plans)のProまたはEnterpriseエディションをお持ちで、ダウングレードをご希望の場合、New Relicアカウント担当者にお問い合わせください。 -## 組織またはアカウントの削除 [#cancel] +## アカウントをキャンセルする [#cancel-account] + +Proまたはエンタープライズエディションを使用している場合、あるいは無料エディションにダウングレードした場合は、組織を維持したまま1つ以上のアカウントをキャンセルできます。 + +アカウントをキャンセルする場合: + +* 無効になりますが、組織の**Accounts > Cancelled accounts**にはまだ表示されています。 +* ユーザー、グループ、カスタムロールは残りますが、キャンセルされたアカウントに割り当てられているアクセス許可はすべての接続を失います。また、このアカウントに紐づいたアクセス許可も削除する必要があります。削除しないと、ユーザーがアカウントを表示しようとしたときにエラーが表示される可能性があります。 +* キャンセルされたアカウントに紐づいたAPIキーは非アクティブになり、別のアカウントへの再割り当てはできません。 + +### アカウントをキャンセルできるユーザー [#who-cancel] + +アカウントをキャンセルできるユーザーは、次の条件を満たす必要があります。 + +* フルプラットフォームユーザー。 +* 組織の[管理設定権](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#admin-settings)を持つグループに属する。 -組織内の1つ以上のアカウントを削除し、組織を維持する場合は、[サポート](/docs/using-new-relic/welcome-new-relic/get-started/find-help-use-support-portal)にお問い合わせください。 +### アカウントのキャンセル方法 [#how-to-cancel] -New Relic組織を、組織内のすべてのアカウントを含めて完全に削除する場合は、組織は以下の要件を満たす必要があります。 +アカウントのキャンセルは、NerdGraph APIを使用してのみ可能です。UIではアカウントをキャンセルできません。 -* アカウントは1つのみで、ユーザーも1人のみです。 +自身がアカウントをキャンセルできるユーザーであることを確認してから、NerdGraph チュートリアル[「アカウントのキャンセル」](/docs/apis/nerdgraph/examples/manage-accounts-nerdgraph)を参照してください。 - * 組織に複数のアカウントがある場合は、[サポート](/docs/using-new-relic/welcome-new-relic/get-started/find-help-use-support-portal)にお問い合わせください。 - * 複数のユーザーがいる場合は、\[[User management UI](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks/#delete-users)] または \[[Nerdgraph](/docs/apis/nerdgraph/examples/nerdgraph-manage-users/#delete-users)] でユーザーを削除できます。 +## 組織を削除する [#delete-org] -* それは新しい価格設定モデルにあります。 +個々のアカウントをキャンセルするだけでなく、New Relic組織全体を削除することもできます。これにはある程度の準備が必要なため、以下の手順を確認してください。 - * ほとんどの組織は最新になっていますが、不明な場合は、判断方法を「[価格設定モデル](/docs/accounts/original-accounts-billing/original-product-based-pricing/overview-pricing-models/#determine-pricing)」で参照してください。古い価格設定モデルを使用している場合は、[サポート](/docs/using-new-relic/welcome-new-relic/get-started/find-help-use-support-portal)にお問い合わせください。 +### 組織を削除するための準備 [#preparation-org-delete] -* アクティブな有料サブスクリプションが存在してはなりません。 +組織を削除する前に、次の点を確認してください。 - * アクティブな有料サブスクリプションをお持ちの場合は、本書の上記の「[エディションのダウングレード](#downgrading)」セクションを参照してください。 +* 組織のアカウントが1つのみであること。組織に複数のアカウントがある場合は、以下を行ってください。 -### 組織を削除するには、以下の手順に従います。 + 1. [Nerdgraph API](/docs/apis/nerdgraph/examples/manage-accounts-nerdgraph)を使用して追加のアカウントをキャンセルします(「[アカウントのキャンセル](#cancel-account)」を参照)。 + 2. 1つのアカウントを除くすべてのアカウントをキャンセルしたら、 [New Relic Support](/docs/using-new-relic/welcome-new-relic/get-started/find-help-use-support-portal)に連絡して、キャンセルしたアカウントを削除してください。 -1. [user menu](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings)から、 +* 組織のユーザーが1人のみであること。複数のユーザーがいる場合は、 [ユーザー管理UI](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks/#delete-users)または[Nerdgraph](/docs/apis/nerdgraph/examples/nerdgraph-manage-users/#delete-users)でユーザーを削除できます。 - - **Administration** - +* 組織が当社の新しい価格モデルを採用していること。 - をクリックします。 + * どのモデルを使用しているか不明な場合は、 [価格モデル](/docs/accounts/original-accounts-billing/original-product-based-pricing/overview-pricing-models/#determine-pricing)の確認方法を参照してください。 + * 古い価格設定モデルを使用している場合は、[サポート](/docs/using-new-relic/welcome-new-relic/get-started/find-help-use-support-portal)にお問い合わせください。 -2. - **Access management** - +* 組織が無料版を使用していること。すなわち、有料のサブスクリプションでは、Standard、Pro、またはエンタープライズエディションは利用できません。アクティブな有料サブスクリプションをお持ちの場合は、本書の上記の「[エディションのダウングレード](#downgrading)」を参照してください。 - をクリックします。 +### 組織の削除方法 [#how-to-delete-org] -3. - **Delete organization** - +組織を削除するための[要件](#delete-org)を満たしている場合は、次の手順を完了してください。 - をクリックします。 オプションが表示されない場合は、上記の要件を満たしていることを確認してください。その他のヘルプについては、[サポート](/docs/using-new-relic/welcome-new-relic/get-started/find-help-use-support-portal)にお問い合わせください。 +1. [user menu](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings)から、**Administration**をクリックします。 +2. **Access management**をクリックします。 +3. **Delete organization**をクリックします。 オプションが表示されない場合は、上記の要件を満たしていることを確認してください。その他のヘルプについては、[サポート](/docs/using-new-relic/welcome-new-relic/get-started/find-help-use-support-portal)にお問い合わせください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing.mdx b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing.mdx index 4195efb7145..be014a50451 100644 --- a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing.mdx +++ b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing.mdx @@ -64,7 +64,7 @@ UIで使用量および請求の情報を検索する方法については、[ (機能がエディションに固有のものである場合は、以下に注記します) - + @@ -80,28 +80,28 @@ UIで使用量および請求の情報を検索する方法については、[ 100 GB - + - データ取り込み料金
(無料制限を超えた場合) + データ取り込み料金
(無料制限を超えた場合) - 0.30ドル/GB + 0.35ドル/GB - 0.50ドル/GB + 0.55ドル/GB - + - 無料のデータ保持期間の上限
([データタイプによって異なる](/docs/data-apis/manage-data/manage-data-retention)) + 無料のデータ保持期間の上限
([データタイプによって異なる](/docs/data-apis/manage-data/manage-data-retention)) @@ -112,36 +112,36 @@ UIで使用量および請求の情報を検索する方法については、[ デフォルトより90日延長可 - + - 30日の保持期間ごとの追加料金
(無料制限を超えた場合) + 30日の保持期間ごとの追加料金
(無料制限を超えた場合) - \+0.05ドル/GB + +0.05ドル/GB - \+0.05ドル/GB + +0.05ドル/GB - + - [EUデータセンター](/docs/accounts/accounts-billing/account-setup/choose-your-data-center)
にデータを保存するための追加料金 + [EUデータセンター](/docs/accounts/accounts-billing/account-setup/choose-your-data-center)
にデータを保存するための追加料金 - \+0.05ドル/GB + +0.05ドル/GB - \+0.05ドル/GB + +0.05ドル/GB @@ -162,7 +162,7 @@ UIで使用量および請求の情報を検索する方法については、[ 1分あたり最大60Bのデータポイント - + @@ -178,7 +178,7 @@ UIで使用量および請求の情報を検索する方法については、[ [クエリビルダー](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder)とAPIを使用すると10分、残りのUIは2分 - + @@ -209,19 +209,19 @@ UIで使用量および請求の情報を検索する方法については、[ - UIでルールを直接作成および追跡し、機密ログデータを[マスクまたはハッシュ](/docs/logs/ui-data/obfuscation-ui/)します。 + UIでルールを直接作成および追跡し、機密ログデータを[マスクまたはハッシュ](/docs/logs/ui-data/obfuscation-ui/)します。 - + - [New Relic脆弱性管理](/docs/vulnerability-management/overview)
(フルプラットフォームユーザーのみ) + [New Relic脆弱性管理](/docs/vulnerability-management/overview)
(フルプラットフォームユーザーのみ) - \+0.10ドル/GB
(無料制限を超えた場合) + +0.10ドル/GB
(無料制限を超えた場合) @@ -239,10 +239,7 @@ UIで使用量および請求の情報を検索する方法については、[ - + @@ -260,10 +257,7 @@ UIで使用量および請求の情報を検索する方法については、[ - + @@ -281,10 +275,7 @@ UIで使用量および請求の情報を検索する方法については、[ - + @@ -302,17 +293,14 @@ UIで使用量および請求の情報を検索する方法については、[ - + - Standard、Pro、Enterprise
([一部制限あり](#azure-native-data-plus)) + Standard、Pro、Enterprise
([一部制限あり](#azure-native-data-plus)) - + @@ -333,31 +321,8 @@ Data Plusにご興味がありますか? [Data Plusへのアップグレード Data Plusにアップグレードするには、データ管理ハブの[**Data retention** UI](/docs/data-apis/manage-data/manage-data-retention/#adjust-retention)に移動し、**Upgrade retention**をクリックします。 -* 注: - - - **Edit data retention** - - - ボタンが表示される場合がありますが、これは - - - **Upgrade retention** - - - ボタンとは異なります。 - -* - **Upgrade retention** - - - ボタンを表示するには、 [請求権限](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#admin-settings)が必要です。 要件を満たしているのに - - - **Upgrade retention** - - - オプションが表示されない場合は、New Relicアカウント担当者にお問い合わせください。 +* 注:**Edit data retention**ボタンが表示される場合がありますが、これは**Upgrade retention**ボタンとは異なります。 +* **Upgrade retention**ボタンを表示するには、 [請求権限](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#admin-settings)が必要です。 要件を満たしているのに**Upgrade retention**オプションが表示されない場合は、New Relicアカウント担当者にお問い合わせください。 ## 請求対象の取り込みデータとみなされるものは何ですか? [#usage-calculation] @@ -387,4 +352,4 @@ Data Plusにアップグレードするには、データ管理ハブの[** * 取り込みを管理する方法について詳しくは、[データ取り込みの管理](/docs/data-apis/manage-data/manage-data-coming-new-relic)を参照してください。 * データ取り込みの見積もり方法については、[データ取り込みの見積もり](https://newrelic.com/blog/nerdlog/estimate-data-cost)を参照してください。 -* クエリの使用方法については、[使用データのクエリとアラート](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts)を参照してください。 +* クエリの使用方法については、[使用データのクエリとアラート](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts)を参照してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx index 47c3abe76d4..e20c5d317a9 100644 --- a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx +++ b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx @@ -16,14 +16,8 @@ translationType: human 使用量UIを使用する際、または消費クエリを実行する際は、次の点に注意してください。 * 結果は概算であり、請求金額の計算に使用される値と正確には一致しません。 - * これらのツールを使用して、使用率の高い領域を見つけて追跡します。 - -* クエリを使用して - - - - を作成すると、上限に近づいているかどうかがわかります。 +* クエリを使用してを作成すると、上限に近づいているかどうかがわかります。 ## データインジェスト使用量のクエリ [#data-queries] @@ -33,10 +27,7 @@ translationType: human * `NrMTDConsumption`: これを使用して、毎月の合計使用量の概算を確認します。 - + このクエリでは、請求対象となるインジェストしたデータを合計し、過去3か月の1日あたりの値を表示します: ```sql @@ -46,10 +37,7 @@ translationType: human ``` - + このクエリでは、請求対象となるインジェストしたデータを合計し、ソース別にファセットを適用した過去3か月の1日あたりの値を表示します: ```sql @@ -59,10 +47,7 @@ translationType: human ``` - + このクエリは、[メトリックデータ](/docs/telemetry-data-platform/understand-data/new-relic-data-types/#dimensional-metrics)を上位10位までのメトリック名で分類します。また、`appName`または`host`ごとにファセットして分析を調整することもできます。 ```sql @@ -74,10 +59,7 @@ translationType: human `bytecountestimate()`について詳しくは、[バイト数の推定](#byte-count-estimate)を参照してください。 - + このクエリは、現在のフルプラットフォームのインジェストデータを示します。つまり、今すぐ請求された場合に、その月のデータに対して請求される金額が表示されます。 ```sql @@ -86,10 +68,7 @@ translationType: human ``` - + コストの見積もりを決定する方法については、[推定コストのクエリ](#estimated-cost)を参照してください。 @@ -143,76 +122,73 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST これらのクエリは、2つのユーザータイプ(ベーシックユーザーとフルプラットフォームユーザー)しか利用できない一部の古いNew Relic組織に適用されます。 - + コアユーザーが有効になっていない組織の場合、ユーザーのクエリに関するルールは次のとおりです。 * `NrMTDConsumption`または`NrConsumption`イベントを使用できます。 * ユーザータイプ別のクエリに使用される属性は、`BasicUsersBillable`および`FullUsersBillable`です。 - ### その月の請求対象となるフルプラットフォームユーザー + ### その月の請求対象となるフルプラットフォームユーザー - このクエリでは、その月の請求対象となるフルプラットフォームユーザーの数が表示されます。つまり、その時点で請求された場合に、当月のユーザー数に対して請求される金額が表示されます。 + このクエリでは、その月の請求対象となるフルプラットフォームユーザーの数が表示されます。つまり、その時点で請求された場合に、当月のユーザー数に対して請求される金額が表示されます。 - ```sql - FROM NrMTDConsumption - SELECT latest(FullUsersBillable) - ``` + ```sql + FROM NrMTDConsumption + SELECT latest(FullUsersBillable) + ``` - このクエリは、1時間ごとにカウントされたフルプラットフォームユーザーの数を示します。これは、フルプラットフォームユーザー数が時間の経過に伴い、どのように変化したかを確認するのに役立ちます。 + このクエリは、1時間ごとにカウントされたフルプラットフォームユーザーの数を示します。これは、フルプラットフォームユーザー数が時間の経過に伴い、どのように変化したかを確認するのに役立ちます。 - ```sql - FROM NrConsumption - SELECT max(FullUsers) - SINCE 10 days ago TIMESERIES 1 hour - ``` + ```sql + FROM NrConsumption + SELECT max(FullUsers) + SINCE 10 days ago TIMESERIES 1 hour + ``` - ### 予測される月間フルプラットフォームユーザー数 + ### 予測される月間フルプラットフォームユーザー数 - このクエリは、月間フルプラットフォームユーザーの予測数を示します。このクエリは、ダッシュボードでの使用には適していません。a) その月の残り日数、b) その月の初日に基づく値が必要です。これは、その月の残り10日で予測される月末カウントをクエリする例です。 + このクエリは、月間フルプラットフォームユーザーの予測数を示します。このクエリは、ダッシュボードでの使用には適していません。a) その月の残り日数、b) その月の初日に基づく値が必要です。これは、その月の残り10日で予測される月末カウントをクエリする例です。 - ```sql - FROM NrMTDConsumption - SELECT predictLinear(FullUsers, 10 days) - SINCE '2020-09-01' - ``` + ```sql + FROM NrMTDConsumption + SELECT predictLinear(FullUsers, 10 days) + SINCE '2020-09-01' + ``` - ### フルプラットフォームユーザーと基本ユーザーのカウント + ### フルプラットフォームユーザーと基本ユーザーのカウント - [](/docs/accounts/accounts-billing/new-relic-one-pricing-users/pricing-billing#billing-usage-ui)は、フルプラットフォームユーザーと基本ユーザーの数を示します。使用されるクエリ: + [](/docs/accounts/accounts-billing/new-relic-one-pricing-users/pricing-billing#billing-usage-ui)は、フルプラットフォームユーザーと基本ユーザーの数を示します。使用されるクエリ: - ```sql - FROM NrUsage SELECT max(usage) SINCE 10 days ago - WHERE productLine='FullStackObservability' - WHERE metric in ('FullUsers', 'BasicUsers') - FACET metric - ``` + ```sql + FROM NrUsage SELECT max(usage) SINCE 10 days ago + WHERE productLine='FullStackObservability' + WHERE metric in ('FullUsers', 'BasicUsers') + FACET metric + ``` - 時間の経過に伴うフルプラットフォームユーザーと基本ユーザーの数を確認するには: + 時間の経過に伴うフルプラットフォームユーザーと基本ユーザーの数を確認するには: - ``` - FROM NrUsage SELECT max(usage) SINCE 10 days ago - WHERE productLine='FullStackObservability' - WHERE metric in ('FullUsers', 'BasicUsers') FACET metric TIMESERIES 1 hour - ``` + ``` + FROM NrUsage SELECT max(usage) SINCE 10 days ago + WHERE productLine='FullStackObservability' + WHERE metric in ('FullUsers', 'BasicUsers') FACET metric TIMESERIES 1 hour + ``` - ### 推定コスト + ### 推定コスト - フルプラットフォームユーザーの当月のコストを取得するためのクエリです。組織のフルプラットフォームのユーザーコストを把握する必要があります。 + フルプラットフォームユーザーの当月のコストを取得するためのクエリです。組織のフルプラットフォームのユーザーコストを把握する必要があります。 - ```sql - FROM NrMTDConsumption - SELECT latest(FullPlatformUsersBillable)* YOUR_PER_FULL_PLATFORM_USER_COST - ``` + ```sql + FROM NrMTDConsumption + SELECT latest(FullPlatformUsersBillable)* YOUR_PER_FULL_PLATFORM_USER_COST + ``` - コアユーザーと同等のものを以下に示します。 + コアユーザーと同等のものを以下に示します。 - ```sql - FROM NrMTDConsumption - SELECT latest(CoreUsersBillable)* YOUR_PER_CORE_USER_COST - ``` + ```sql + FROM NrMTDConsumption + SELECT latest(CoreUsersBillable)* YOUR_PER_CORE_USER_COST + ``` @@ -229,10 +205,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST 成功と失敗の確認はどちらも、全体的なSynthetics使用量に寄与します。以下は、両方のイベントタイプを適切に使用して、Syntheticsの使用量を表示してファセットするためのサンプルクエリです。 - + ```sql SELECT latest(freeConsumption) AS 'Included checks', latest(billableConsumption) AS 'Extra checks' FROM NrMTDConsumption @@ -241,10 +214,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST ``` - + ```sql SELECT latest(freeConsumption) AS 'Included checks', latest(billableConsumption) AS 'Extra checks' FROM NrMTDConsumption @@ -254,10 +224,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST ``` - + ```sql SELECT (sum(syntheticsFailedCheckCount) + sum(syntheticsSuccessCheckCount)) AS 'Total Checks' @@ -268,10 +235,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST ``` - + ```sql SELECT (sum(syntheticsFailedCheckCount) + sum(syntheticsSuccessCheckCount)) AS 'Total Checks' @@ -282,10 +246,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST ``` - + ```sql SELECT (sum(syntheticsFailedCheckCount) + sum(syntheticsSuccessCheckCount)) AS 'Total Checks' @@ -296,10 +257,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST ``` - + ```sql SELECT (sum(syntheticsFailedCheckCount) + sum(syntheticsSuccessCheckCount)) AS 'Total Checks' @@ -316,10 +274,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST 以下は、当月の推定コストの理解に役立つクエリの推奨事項です。 - + これは、当月のデータ取り込みコストの見積もりに到達するためのクエリです。このクエリを実行するには、組織の[1GBあたりの取り込みデータコストを把握する必要があります](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)。 ```sql @@ -327,18 +282,15 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST SELECT latest(GigabytesIngestedBillable)*YOUR_PER_GB_COST ``` - 以下は、[1GBあたりのコストが0.30ドル](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-prices)を使用する場合のこのクエリの例です。 + 以下は、[1GB あたりのコストが0.35ドル](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-prices)を使用する場合のこのクエリの例です。 ```sql FROM NrMTDConsumption - SELECT latest(GigabytesIngestedBillable)*.30 + SELECT latest(GigabytesIngestedBillable)*.35 ``` - + 請求対象ユーザークエリのセクションを参照してください。 * [コアユーザーありの組織対象](#user-queries) @@ -358,10 +310,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST NRQLアラート条件の例は次のとおりです。 - + このクエリでは、1時間の使用量が固定値を超えるとアラートを作成します。 ```sql @@ -380,10 +329,7 @@ NRQLアラート条件の例は次のとおりです。 ``` - + このクエリでは、使用量が1か月あたりの固定の閾値(GB)を超えるとアラートを作成します。 ```sql @@ -393,10 +339,7 @@ NRQLアラート条件の例は次のとおりです。 ``` - + これは、フルプラットフォームユーザーのユーザー数が特定の数を超えた場合にトリガーされるアラートクエリの例です。 ```sql @@ -407,10 +350,7 @@ NRQLアラート条件の例は次のとおりです。 このクエリは、プライマリバージョンの当社の使用量に基づく価格設定(コアユーザーあり)を使用している組織に適用されることに注意してください。これに関しておよび、ユーザー数のクエリ方法についての詳細は、[ユーザーのクエリ](#user-queries)を参照してください。 - + 2022年5月、この`estimatedCost`属性は廃止されました([詳細](/docs/release-notes/org-user-mgmt-release-notes/org-users-22-05-01)を参照)。その属性を使用している場合は、ここで推奨クエリに置き換える必要があります。 このクエリを実行するには、組織のGBあたりの取り込みデータコストを把握しておいてください。 @@ -481,7 +421,7 @@ NRQLアラート条件の例は次のとおりです。 - 使用するから決まる、保存されたイベントを直接担当するNew RelicアカウントのID。 + 使用するから決まる、保存されたイベントを直接担当するNew RelicアカウントのID。 @@ -500,26 +440,6 @@ NRQLアラート条件の例は次のとおりです。 以下に、`bytecountestimate()`の仕組みについて技術的な詳細を示します。 -* [取り込みにはカウントされません](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#usage-calculation)が、`bytecountestimate()`関数によって返されるデータにはいくつかの種類があります。つまり、この関数では、実際の使用量よりも - - - **more** - - - データが表示されることがあります。まれに使用量が少な目に表示される場合がありますが、その場合でも差異はごくわずかです。 - +* [取り込みにはカウントされません](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#usage-calculation)が、`bytecountestimate()`関数によって返されるデータにはいくつかの種類があります。つまり、この関数では、実際の使用量よりも**more**データが表示されることがあります。まれに使用量が少な目に表示される場合がありますが、その場合でも差異はごくわずかです。 * エンティティから報告される一部のテレメトリーデータは、共通の属性(New Relicアカウントに関する属性など)を共有します。取り込みの際に重複した属性はカウントされませんが、`bytecountestimate()`によってそれらの属性がカウントされます。このため、`bytecountestimate()`クエリと実際の使用量の間に大きな差異が生じる場合があります。 - -* 当社の - - - - 、 - - - - 、 - - - - [では、メトリックタイムスライスデータ](/docs/data-apis/understand-data/new-relic-data-types/#timeslice-data)と呼ばれるデータ型が報告されます。このデータは他のデータ型とは異なり、NRDBに保存されないため、このデータに対して`bytecountestimate()`を使用しようとすると、混乱を招く可能性があります。このデータをクエリする際は、メトリクス名ではなくアプリケーション名でファセットすることをお勧めします。 +* 当社の[では、メトリックタイムスライスデータ](/docs/data-apis/understand-data/new-relic-data-types/#timeslice-data)と呼ばれるデータ型が報告されます。このデータは他のデータ型とは異なり、NRDBに保存されないため、このデータに対して`bytecountestimate()`を使用しようとすると、混乱を招く可能性があります。このデータをクエリする際は、メトリクス名ではなくアプリケーション名でファセットすることをお勧めします。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx b/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx index 6c83f54f44d..f7d354bc0b5 100644 --- a/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx +++ b/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx @@ -8,17 +8,27 @@ freshnessValidatedDate: never translationType: human --- -アラート条件は、[インシデント](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/understand-technical-concepts/incident-event-attributes/#definition)がいつ作成されるかを定義する中心的な要素です。これは、意味のあるアラートを作成するための重要な開始点として機能します。アラート条件には、通知を受ける前に満たされたパラメーターまたは閾値が含まれます。過剰なアラートを軽減したり、新しい動作や異常な動作が発生したときにチームに通知したりできます。 +import alertsSetaQuery from 'images/alerts_screenshot-crop_set-a-query.webp' + +import alertsFineTuneAlertSignals from 'images/alerts_screenshot-crop_fine-tune-alert-signals.webp' + +import alertsSetaThresholdforanAlertCondition from 'images/alerts_screenshot-crop_set-a-threshold-for-an-alert-condition.webp' + +import alertsNameYourAlertCondition from 'images/alerts_screenshot-crop_name-your-alert-condition.webp' + +import alertsAlertConditionPage from 'images/alerts_screenshot-crop_alert-condition-page.webp' + +import accountsConditionOn from 'images/accounts_icon_condition-on.webp' -A screenshot showing the alert condition homepage. +import accountsConditionOff from 'images/accounts_icon_condition-off.webp' -
- **Alert conditions list**ページは、すべてのアラート条件のユニバーサルハブです。 -
+import accountsAlertingConcepts from 'images/accounts_diagram_alerting-concepts.webp' + +import alertsAddingAlertDetailstoanAlertCondition from 'images/alerts_screenshot-crop_adding-alert-details-to-an-alert-condition.webp' + +アラート条件は、[インシデント](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/understand-technical-concepts/incident-event-attributes/#definition)がいつ作成されるかを定義する中心的な要素です。これは、意味のあるアラートを作成するための重要な開始点として機能します。アラート条件には、通知を受ける前に満たされたパラメーターまたは閾値が含まれます。過剰なアラートを軽減したり、新しい動作や異常な動作が発生したときにチームに通知したりできます。 + +A diagram showing some basic concepts and terms for New Relic alerting ## 新しいアラート条件を作成する [#create-alert-condition] @@ -27,28 +37,15 @@ translationType: human この例では、**Alert condition details**ページを使用して新しいアラート条件を手動で作成する方法を示します。アラート条件を作成する方法は多数あります。アラート条件は以下から作成できます。 * [チャート](/docs/tutorial-create-alerts/create-an-alert/) - * [ポリシーページ](https://one.newrelic.com/nr1-core/condition-builder/policy-entity) - -* - [**Alert coverage gaps**](https://one.newrelic.com/alerts-ai/detection-gaps/) - - - [ページ](https://one.newrelic.com/alerts-ai/detection-gaps/) +* [**Alert coverage gaps**ページ](https://one.newrelic.com/alerts-ai/detection-gaps/) 次のアラートビルダーのいずれかを使用することもできます。 -* - **Write your own query** - - - を使用してアラートをゼロから作成する - -* - **Use guided mode** - +* **Write your own query**を使用してアラートをゼロから作成する +* **Use guided mode** -ガイド付きモードを除くすべての方法で、アラート条件を作成するプロセスは、以下の手順で説明するものと_まったく_同じになります。 +ガイド付きモードを除くすべての方法で、アラート条件を作成するプロセスは、以下の手順で説明するものと*まったく*同じになります。 @@ -58,54 +55,26 @@ translationType: human 新しいアラート条件を作成するには: - * [one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > - - - **Alerts** - - - に移動します。 - - * 左側のナビゲーションで - - - **Alert Conditions** - - - を選択します。 - - * 次に、 - - - **New alert condition** - - - を選択します。 - - * - **Write your own query** - + * [one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; **Alerts**に移動します。 + * 左側のナビゲーションで**Alert Conditions**を選択します。 + * 次に、**New alert condition**を選択します。 + * **Write your own query**を選択します。 - を選択します。 - - - - NRQLクエリを使用して、アラート条件でアラートの基礎として使用する信号を定義できます。この例では、次のクエリを使用します。 + + + NRQLクエリを使用して、アラート条件でアラートの基礎として使用する信号を定義できます。この例では、次のクエリを使用します。 - ``` - SELECT average(duration) - FROM PageView - WHERE appName = 'WebPortal' - ``` + ``` + SELECT average(duration) + FROM PageView + WHERE appName = 'WebPortal' + ``` - アラート条件にこのクエリを使用すると、New Relicに`WebPortal`アプリケーションからの平均`pageviews`が通知されます。`pageviews`を監視すると、アプリケーション内のレイテンシの問題を見つけるのに役立ちます。 + アラート条件にこのクエリを使用すると、`WebPortal`アプリケーションの取得したいページ読み込みの平均レイテンシまたは期間がNew Relicに通知されます。レイテンシに関するプロアクティブなアラートは中核的なゴールデンシグナルであり、潜在的な低下に対する早期警告を提供します。 - New Relicのクエリ言語であるNRQLの使用方法の詳細については、[NRQLドキュメント](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/)を参照してください。 - - + New Relicのクエリ言語であるNRQLの使用方法の詳細については、[NRQLドキュメント](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/)を参照してください。 + + @@ -113,75 +82,41 @@ translationType: human 信号を定義したら、**Run**をクリックします。チャートが表示され、設定したパラメーターが表示されます。 - A screenshot showing a user how to set the signal behavior for an alert condition. + A screenshot showing a user how to set the signal behavior for an alert condition. - この例では、チャートには`WebPortal`アプリケーションの平均`pageviews`が表示されます。**Next**をクリックして、アラート条件の設定を開始します。 + この例では、チャートには`WebPortal`アプリケーションの平均レイテンシが表示されます。**Next**をクリックして、アラート条件の設定を開始します。 - この例では、`WebPortal`アプリケーション内の`pageviews`の異常なアクティビティを監視するために作成した条件に合わせて、これらの高度な信号設定をカスタマイズします。 + この例では、 `WebPortal`アプリケーションのレイテンシを監視するために作成した条件に合わせて、これらの高度な信号設定をカスタマイズします。 - - A screenshot depicting advanced signal settings. + + A screenshot depicting advanced signal settings. ウィンドウ期間は、New Relicがアラート条件での分析のためにデータをグループ化する方法を定義します。適切な設定の選択は、データの頻度と希望する詳細レベルによって異なります。 - * - **High-frequency data (for example, pageviews every minute)** - - - :変動や傾向をリアルタイムで把握できるように、データ頻度(この場合は1分)に一致するようにウィンドウ期間を設定します - - * - **Low-frequency data (for example, hourly signals)** - + * **High-frequency data (for example, pageviews every minute)**:変動や傾向をリアルタイムで把握できるように、データ頻度(この場合は1分)に一致するようにウィンドウ期間を設定します + * **Low-frequency data (for example, hourly signals)**:パターンや異常を明らかにするのに十分なデータをキャプチャするウィンドウ期間を選択します(たとえば、1時間ごとの信号の場合は60分) - :パターンや異常を明らかにするのに十分なデータをキャプチャするウィンドウ期間を選択します(たとえば、1時間ごとの信号の場合は60分) - - ニーズと経験に応じて、ウィンドウ期間をカスタマイズできます。アラート条件の作成に慣れてきたら、開始時や実験時にはデフォルトを使用することをお勧めします。 + ニーズと経験に応じて、ウィンドウ期間をカスタマイズできます。アラート条件の作成に慣れてきたら、開始時や実験時にはデフォルトを使用することをお勧めします。 - + 従来の集計方法では、データがまばらに存在したり、間隔の間に大きな変動が見られるデータを処理する場合には不十分である場合があります。スライディングウィンドウ集計を使用してそのようなデータを分析し、タイムリーなアラートを効果的にトリガーする方法を以下に示します。 1. **Smooth out the noise**:まず、大きな集計ウィンドウを作成します。この時間枠(たとえば、5分)はバッファとして機能し、データに固有の「ノイズ」や変動性を平滑化します。これは、単独の急上昇や急降下によってトリガーされる誤ったアラートを防ぐのに役立ちます。 - 2. **Avoid lag with a sliding window**大きなウィンドウはデータ分析に役立ちますが、閾値をチェックする前に間隔全体が経過するまで待機すると、アラート通知が大幅に遅れる可能性があります。スライディングウィンドウを小さくすることをお勧めします(たとえば、1分)。このスライディングウィンドウを、より大きな集計ウィンドウ内でデータをスキャンする移動フレームとして想像してください。フレームが小さい間隔で進むたびに、集計値(平均など)が計算されます。 - 3. **Set your threshold duration**:より小さいスライディングウィンドウのコンテキスト内で、アラートの閾値を定義できるようになりました。これにより、現在のフレームの集計値が目的の範囲から大幅に逸脱した場合でも、より大きなウィンドウの平滑化効果を犠牲にすることなく、アラートを迅速にトリガーできます。 - スライディングウィンドウ集計について詳しくは、[このNRQLチュートリアル](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/create-smoother-charts-with-sliding-windows/)をご覧ください。 + スライディングウィンドウ集計について詳しくは、[このNRQLチュートリアル](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/create-smoother-charts-with-sliding-windows/)をご覧ください。 - + 一般的には、**event flow**ストリーミングメソッドを使用することをお勧めします。これは、システムに高頻度で安定的に入力されるデータに最適です。**event timer**を選択する方がよい場合もありますが、最初のアラートにはデフォルトの**event flow**をお勧めします。ストリーミングメソッドの選び方を理解するには、こちらの短いビデオ(約5分31秒)を視聴することをお勧めします。 - - + アラート条件の遅延機能は、一貫性のないデータ収集から生じる潜在的な問題を防ぎます。これはバッファとして機能し、アラートをトリガーする前にデータが到着して処理されるまでの時間を確保します。これにより、誤検知を防止し、より正確なインシデントの作成が保証されます。 使い方: @@ -189,39 +124,29 @@ translationType: human 適切な遅延設定は、受信データの一貫性を評価することによって決定されます。 * 一貫したデータ:データポイントが1分以内にタイムスタンプとともに定期的に到着する場合は、遅延設定を低くしても問題ありません - * 一貫性のないデータ:過去や未来の数分間にわたるタイムスタンプを持つデータポイントが到着した場合、不整合に対応するために遅延設定を大きくする必要があります - バッファの作成: + バッファの作成: * 選択した遅延設定により、アラート条件が定義された閾値に対してデータを評価するまでの待機時間が導入されます - * このバッファにより、データの不一致を解決するまでの時間が確保され、誤解を招くアラートが発生する可能性が軽減されます - + `WebPortal`アプリケーションのレイテンシの問題をチームに通知するためのアラート条件を作成しています。この例では、アプリケーションは一貫してNew Relicデータを送信します。アプリケーションからNew Relicに信号が継続的に送信されており、信号に予期されるギャップがないため、ギャップ埋め戦略を選択する必要はありません。 ギャップ埋め戦略は、データ収集が断続的または不完全である可能性があるシナリオに対処します。これらは、欠落しているデータポイントを推定値で置き換える方法を提供し、データストリームにギャップがある場合でもアラート条件が効果的に機能することを保証します。 ギャップ埋めをオフのままにする場合: - * - **Consistent data flow** - - - :WebPortalアプリケーションの場合のように、アプリケーションが予想されるギャップなしで一貫してNew Relicにデータを送信する場合、通常はギャップを埋める必要はありません。このような場合、たいていはギャップ埋め戦略を実行しない設定のままにすることが最適なアプローチとなります。 + * **Consistent data flow**:WebPortalアプリケーションの場合のように、アプリケーションが予想されるギャップなしで一貫してNew Relicにデータを送信する場合、通常はギャップを埋める必要はありません。このような場合、たいていはギャップ埋め戦略を実行しない設定のままにすることが最適なアプローチとなります。 - 主な考慮事項: + 主な考慮事項: * **Popular use case**:一般的に、ギャップを埋める際には、データを受信していないウィンドウに値0を挿入します。 - * **Anomaly thresholds**ギャップ埋め値は、異常閾値を使用する場合、最後に観測された値からの標準偏差の数値として解釈されます。たとえば、ギャップを値0で埋めると、最後に確認された値が複製され、実質的には変化がないと想定されます。 - ギャップ埋め戦略の詳細については、[損失信号に関するドキュメント](/docs/apis/nerdgraph/examples/nerdgraph-api-loss-signal-gap-filling/)をご覧ください。 + ギャップ埋め戦略の詳細については、[損失信号に関するドキュメント](/docs/apis/nerdgraph/examples/nerdgraph-api-loss-signal-gap-filling/)をご覧ください。 @@ -231,17 +156,10 @@ translationType: human アラート条件がコンテナの場合、閾値は各アラート条件が従う必要があるルールです。データがシステムにストリーミングされると、アラート条件によってこれらのルールに該当するインシデントが検索されます。アラート条件で、設定したすべての条件を満たしたデータがシステムから検出されると、インシデントが作成されます。インシデントは、システムに何か問題があることを示しているため、確認する必要があります。 - A screenshot depicting how to set the threshold for an alert condition. + A screenshot depicting how to set the threshold for an alert condition. - + 異常閾値は、特定の数値よりも予想されるパターンから逸脱する場合に最適です。これを使用すると、事前定義された制限を設定することなく、異常なアクティビティを監視できます。New Relicの異常検知は、時間の経過とともにデータを動的に分析し、進化するシステム動作を反映するように閾値を調整します。 異常検知の設定: @@ -252,34 +170,26 @@ translationType: human * 異常に高い値のみに焦点を当てるには、「上限のみ」を選択します。 2. 優先順位の割り当て: - * 潜在的な問題に迅速に対処できるように、最初のアラートの優先度レベルをクリティカルに設定します。 - * 優先レベルの詳細については、アラート条件のドキュメントを参照してください。 3. 違反基準の定義: * デフォルト設定から開始:クエリが予測値から5分間以上標準偏差3だけ逸脱する値を返した場合、インシデントをオープンします。 * 特定のアプリケーションおよびアラート要件に合わせて、必要に応じてこれらの設定をカスタマイズします。 - 優先レベルの詳細については、[アラート条件に関するドキュメント](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/advanced-techniques/set-thresholds-alert-condition#threshold-levels)をご覧ください。 + 優先レベルの詳細については、[アラート条件に関するドキュメント](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/advanced-techniques/set-thresholds-alert-condition#threshold-levels)をご覧ください。 - 異常の閾値とモデルの動作について詳しくは、異常に関する[ドキュメント](/docs/alerts-applied-intelligence/applied-intelligence/anomaly-detection/anomaly-detection-applied-intelligence/)をご覧ください。 + 異常の閾値とモデルの動作について詳しくは、異常に関する[ドキュメント](/docs/alerts-applied-intelligence/applied-intelligence/anomaly-detection/anomaly-detection-applied-intelligence/)をご覧ください。 - - 異常閾値とは異なり、静的閾値はデータセット全体を参照せず、システムの履歴に基づいて異常な動作を判断します。代わりに、**you set**ユーザーが設定した基準とは異なる動作をする場合には、システムが静的閾値に従ってインシデントを開きます。 + + 異常閾値とは異なり、静的閾値はデータセット全体を参照せず、システムの履歴に基づいて異常な動作を判断します。代わりに、システムが設定した基準と異なる動作をした場合には必ず、静的閾値がインシデントを開きます。 異常閾値と静的閾値の両方の優先レベルを設定する必要があります。詳細については、上のセクションを参照してください。 - - 損失信号閾値は、損失信号が失われたとみなす前に待機する時間を決定します。その時間内に信号が返されない場合は、新しいインシデントを開くか、関連するインシデントを閉じるかを選択できます。システムの予想される動作とデータ収集頻度に応じて、閾値を設定します。たとえば、`pageviews`の信号消失が遅延の問題を示している可能性がある場合は、適切な閾値を設定し、ボックスをオンにして新しい信号消失インシデントを開きます。 + + 損失信号閾値は、損失信号が失われたとみなす前に待機する時間を決定します。その時間内に信号が返されない場合は、新しいインシデントを開くか、関連するインシデントを閉じるかを選択できます。システムの予想される動作とデータ収集頻度に応じて、閾値を設定します。たとえば、ウェブサイトでトラフィックの完全な損失やスループットが発生した場合、それに対応するNew Relicに送信されるテレメトリーデータも停止します。この信号損失を監視することで、このような停止の早期警告システムとして機能します。 @@ -291,33 +201,26 @@ translationType: human ポリシーはインシデントの分類システムです。ポリシーを作成すると、受信したすべてのインシデントを整理するツールが作成されます。ポリシーを**[workflows](/docs/alerts-applied-intelligence/applied-intelligence/incident-workflows/incident-workflows/)**ワークフローに接続すると、このすべての受信情報の送信先、送信頻度、送信先をNew Relicに指示できます。 - A screenshot demonstrating how you can new alert condition. + A screenshot demonstrating how you can new alert condition. - - アラート条件にはわかりやすい名前を付けることが重要です。この条件に**pageviews**という名前を付けてから、まったく別のアプリケーション用に別の条件を作成し、その条件にも同じく**pageviews**というラベルを付けたとします。問題が発生すると、どの状態がどのアプリケーションのものであるかを区別できなくなります。したがって、条件には必ず具体的で一意の名前を付けてください。このケースでは、この条件に**pageviews: WebPortal App**という名前を付けます。 + + 条件の命名のベストプラクティスとして、重要な情報がひと目でわかる構造化された形式があります。条件名には次の要素を含めます。 + + * **優先度**:アラートの重大度または緊急度を、P1、P2、P3のように示します。 + * **信号**:高平均レイテンシや低スループットなど、監視するメトリクスや条件を指定します。 + * **エンティティ**:WebPortalアプリやデータベースサーバーなど、影響を受けるシステム、アプリケーションやコンポーネントを識別します。 + + この構造に従うと、適切な条件名の例は「`P2 | High Avg Latency | WebPortal App`」になります。 - + アラート条件に接続するポリシーが既にある場合は、既存のポリシーを選択します。 ポリシーの作成について詳しくは、 [こちらを](/docs/alerts-applied-intelligence/new-relic-alerts/alert-policies/specify-when-alerts-create-incidents/)ご覧ください。 - + アラート戦略では応答性と疲労のバランスを取ることが重要であり、`WebPortal`アプリケーションの`pageview`モニタリングに関する重要な考慮事項を示しました。ポリシーのオプションを見てみましょう。 1. ポリシーごとに1つのイシュー(デフォルト): @@ -338,128 +241,212 @@ translationType: human ポリシーの作成について詳しくは、 [こちらを](/docs/alerts-applied-intelligence/new-relic-alerts/alert-policies/specify-when-alerts-create-incidents/)ご覧ください。 - + 対象の信号が条件の閾値で示された期間にわたって非違反状態に戻ると、インシデントは自動的に終了します。この待ち時間を回復期間と呼びます。 - たとえば、違反行為が「少なくとも 5 分間に1回、`pageviews`が300未満」である場合、 `pageviews`が5分間連続して300以上になると、インシデントは自動的に終了します。 + たとえば、レイテンシを測定していて、違反行為が「`WebPortal`アプリケーションでページ読み込みの`duration`が3秒以上増加したこと」である場合、インシデントは`duration`が5分間連続して3秒未満になると自動的に終了します。 インシデントが自動的に終了すると、次のようになります。 1. 終了タイムスタンプは回復期間の開始時点に遡ります - 2. 評価はリセットされ、前のインシデントが終了したときから再開されます - すべての条件には、長時間続くインシデントを自動的に強制終了する、インシデントの時間制限が設定されています。 + すべての条件には、長時間続くインシデントを自動的に強制終了する、インシデントの時間制限が設定されています。 - New Relicでは自動的にデフォルトで3日間が設定されるため、最初のアラートにはデフォルト設定を使用することをお勧めします。 + New Relicでは自動的にデフォルトで3日間が設定されるため、最初のアラートにはデフォルト設定を使用することをお勧めします。 - 信号がデータを返さない場合に未解決のインシデントを閉じるもう 1 つの方法は、`loss of signal`閾値を設定することです。詳細については、上記の損失信号閾値のセクションを参照してください。 + 信号がデータを返さない場合に未解決のインシデントを閉じるもう 1 つの方法は、`loss of signal`閾値を設定することです。詳細については、上記の損失信号閾値のセクションを参照してください。 - + `WebPortal`アプリケーションにレイテンシの問題があるかどうかを知らせるアラート条件を作成しているため、開発者がこのインシデントについて通知されたときに必要な情報をすべて入手できるようにする必要があります。インシデントが作成されたときに、ワークフローを使用してチームのSlackチャネルに通知します。 カスタムインシデントの説明について詳しくは、[ドキュメント](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/advanced-techniques/alert-custom-incident-descriptions)をご覧ください。 - - ランブックにリンクする場合は、ランブックURLフィールドにURLを入力できます。 + + A screenshot depicting the final step of creating an alert condition- the alert details page + + タイトルテンプレートの使用はオプションですが、推奨されます。アラート条件は、監視したい一連の閾値を定義します。これらの閾値のいずれかに違反があった場合、インシデントが作成されます。意味のあるタイトルテンプレートを使用することで、問題を正確に特定し、稼働停止の解決を迅速化できます。 + + タイトルテンプレートの詳細については、[ドキュメント](//docs/alerts/create-alert/condition-details/title-template/)をご覧ください。 + + + + 調査、トリアージ、修復手順を詳述した運用ランブックは、このフィールドにリンクされることがよくあります。 -## 既存のアラート条件を編集または改善する [#edit-existing-alert-condition] +## 既存のアラート条件を編集する [#edit-existing-alert-condition] 既に作成したアラート条件を編集する場合は、次の操作を行うことができます。 -1. [one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > +1. [one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; **Alerts**に移動します。 +2. 左側のナビゲーションで**Alert Conditions**を選択します。 +3. 編集するアラート条件をクリックします。 + +これで**Alert conditions details**ページが表示されます。このページには、条件の作成時に設定したすべての要素が含まれています。各セクションの右上にある鉛筆をクリックすると、アラート条件の特定の項目を編集できます。 + +### 信号履歴 [#signal-coverage] - - **Alerts** - +**Signal history**の下に、アラート条件の作成に使用したNRQLクエリの最新の結果が表示されます。この例では、設定した特定の期間における`WebPortal`アプリの平均レイテンシが表示されます。 - に移動します。 +NRQLクエリで構築されたすべてのアラート条件について、**Signal history**に折れ線グラフとして表示されます。 -2. 左側のナビゲーションで +Syntheticモニターで構築されたアラート条件は少し異なります。これは、Syntheticモニターを使用すると、複数の場所からアプリケーションにpingを実行できるため、モニターが実行されるたびに肯定的な結果または否定的な結果が生成される可能性があるためです。このデータは表でのみ表示できます。 - - **Alert Conditions** - +## 条件のタイプ [#condition-types] - を選択します。 +推奨される主な条件タイプはNRQLアラート条件ですが、他のタイプの条件もあります。以下に、条件タイプを網羅したリストを示します。 -3. 編集するアラート条件をクリックします。 + + + UIまたは[NerdGraph API](/docs/alerts/alerts-nerdgraph/nerdgraph-examples/nerdgraph-api-alerts-nrql-conditions)を使用して、[数値を返すベーシックなNRQLクエリ](/docs/new-relic-alerts-alert-nrql-queries)に対するNRQL条件を作成します。 + -これで**Alert conditions details**ページが表示されます。このページには、条件の作成時に設定したすべての要素が含まれています。各セクションの右上にある鉛筆をクリックすると、アラート条件の特定の項目を編集できます。 + + NRQLを使用して条件を作成する際のヒントについては、[APMメトリクスアラート条件](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/apm-metric-alert-conditions)を参照してください。 + -### 信号履歴 [#signal-coverage] + + [異常アラート](/docs/alerts/new-relic-alerts/configuring-alert-policies/create-anomaly-alert-conditions)では、週ごと、または季節ごとのパターンなど、変化するデータとトレンドに動的に適応する条件を作成できます。この機能は、[](/docs/apm/new-relic-apm/getting-started/welcome-new-relic-apm)および[](/docs/browser/new-relic-browser/getting-started/new-relic-browser)アプリのほか、[NRQLクエリ](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries)でも使用できます。 + -**Signal history**の下に、アラート条件の作成に使用したNRQLクエリの最新の結果が表示されます。この例では、設定した特定の期間における`WebPortal`アプリの平均`pageviews`が表示されます。 + + [複数の場所におけるSyntheticsモニタリングの条件](/docs/alerts/new-relic-alerts/defining-conditions/multi-location-synthetics-alert-conditions)を使用して、モニターを設定し、特定の数の場所で同時に障害が発生している場合に通知を受けられます。 + -NRQLクエリで構築されたすべてのアラート条件について、**Signal history**に折れ線グラフとして表示されます。 + + APMでは、[キートランザクション](/docs/apm/transactions/key-transactions/introduction-key-transactions)の条件を設定できます。 + -Syntheticモニターで構築されたアラート条件は少し異なります。これは、Syntheticモニターを使用すると、複数の場所からアプリケーションにpingを実行できるため、モニターが実行されるたびに肯定的な結果または否定的な結果が生成される可能性があるためです。このデータは表でのみ表示できます。 + + 閾値を、Javaアプリインスタンスのメトリクスがその閾値を超えた場合にインシデントをオープンするように設定できます。 + + [閾値を特定のインスタンスにスコープする](/docs/alerts/new-relic-alerts/configuring-alert-policies/scope-alert-thresholds-specific-instances)ことで、潜在的な問題がどこで発生しているかをより迅速に突き止めることができます。たとえば、アプリのインスタンスのサブセットのみで発生している異常を検出する場合に便利です。膨大な数のインスタンスにわたってメトリックスを集計するアプリの場合、このタイプの異常は容易に見過ごされてしまいます。 + + + + APMによって監視されるJavaアプリケーションの場合、単一のJVMのヒープサイズ、またはスレッド数が予想される動作範囲外にある場合にインシデントをオープンする[閾値](/docs/using-new-relic/welcome-new-relic/get-started/glossary#alert-threshold)を設定できます。 + + 各アプリの[選択されたインスタンス](#instance-incidents)ごとに、閾値違反のアラートを個別に評価します。条件を作成する際、Javaアプリのアラートポリシーに対する条件タイプとして**JVM health metric**を選択してから、いずれかの利用可能な閾値を選択します。 + + * スレッドのデッドロック + + * ヒープメモリの使用 + + * CPU利用時間 + + * ガベージコレクションのCPU時間 + + インシデントは、閾値の逆数が満たされると自動的に閉じますが、UIを使用すると、JVM稼働メトリクスに関する[インシデント](/docs/new-relic-solutions/get-started/glossary/#alert-incident)が強制終了する時間も変更できます。デフォルトは24時間です。 + + + + 条件には[閾値](/docs/using-new-relic/welcome-new-relic/get-started/glossary#alert-threshold)としてパーセンタイルを定義するオプションが含まれます。この条件は、ウェブアプリのレスポンスタイムがこの値を上回る、下回る、または等しい場合として設定します。これは、たとえば運用スタッフがウェブの**average**平均レスポンスタイムではなく、アプリケーションサーバーの**overall**全体的な[ウェブトランザクション](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#transaction)レスポンスタイムのパーセンタイルに基づいてアラートを発生させる場合に便利です。 + + + [ウェブアプリケーション以外のトランザクション](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#non-web-transaction)に対して、条件内に任意の閾値を設定する場合、[NRQLクエリ](#nrql-conditions)機能を使用してください。 + + + パーセンタイル閾値を定義するには: + + 1. アプリの条件の種類として**Web transactions percentiles**を選択し、アプリを 1 つ選択します(複数のアプリでアラートを発生させるには、それぞれに個別の**Web transactions percentiles**条\ + 件を作成します)。 + + 2. インシデントをオープンする閾値を定義するには、**Percentile nth**レスポンスタイム値を入力し、その頻度(この値より大きい、小さい、または等しい)を選択します。 + + ユーザーインタフェースにはクリティカルと警告の値が秒単位で表示されますが、New Relicにはトランザクションタイムがミリ秒で保存されます。ミリ秒で定義する場合は、値に小数点を含めます。 + + + + アプリケーションに[ラベル](/docs/data-analysis/user-interface-functions/organize-your-data/labels-categories-organize-apps-servers-monitors#labels)を適用することで、条件にこれらの[エンティティ](/docs/using-new-relic/welcome-new-relic/get-started/glossary#alert-entity)を自動的にリンクさせることができます。これにより、すべてのアプリケーションを動的環境内で簡単に管理できます。エンティティラベルを最適な状態で管理するため、[エージェントの設定ファイル](/docs/data-analysis/user-interface-functions/organize-your-data/labels-categories-organize-apps-servers-monitors#config)を使用するようお勧めします。 + + 1つのラベルを使用して、関連のある**all**すべてのエンティティ(最大10,000エンティティ)を識別できます。ラベルを複数使用する場合は、選択されたすべてのラベルを共有するエンティティのみを識別します。 + + 条件と合わせてダイナミックターゲティングを利用するには、[インシデントクローズタイマー](/docs/alerts-applied-intelligence/new-relic-alerts/alert-incidents/how-alert-condition-incidents-are-closed#time-limit)を設定する必要もあります。 + + 1つの条件に対して最高で10個のラベルを追加、編集、削除するには: + + 1. 製品タイプとして**APM > Application metric**を選択します。 + + 2. エンティティを識別するには、**Labels**タブを選択します。ラベルを名前で検索するか、カテゴリーのリストからラベルを選択します。 + + また、[インフラストラクチャ](/docs/infrastructure/new-relic-infrastructure/configuration/infrastructure-alerts-add-edit-or-view-host-alert-information)を使用して、監視対象の条件を直接作成することもできます。 + + + + InfrastructureモニタリングUIから直接[リソースの条件を作成](/docs/infrastructure/new-relic-infrastructure/configuration/infrastructure-alerts-add-edit-or-view-host-alert-information)できます。 + + たとえば、Infrastructureエージェントでデータが受信されなくなったときに通知を受信するには、[host not reporting](/docs/infrastructure/new-relic-infrastructure/configuration/create-infrastructure-host-not-reporting-condition)という条件タイプを使用します。これにより、フィルタリングされたホストグループに対してアラートを動的に送信し、5〜60分の時間枠を設定できるようになります。 + + + +## ポリシーに条件を追加する [#add-conditions] + +[ポリシーに条件を追加する](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/define-alert-conditions)には: + +1. 次のパスに移動します: **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Alerts &gt; Alert Policies** +2. ポリシーを検出します。 +3. **Add a condition**をクリックします。 + +[新しいNRQL条件を作成する](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions)には: + +1. 次のパスに移動します: **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Alerts &gt; Alert Conditions** +2. **Add a condition**をクリックします。 + +## 条件をコピーする [#copy-condition] + +[ターゲット](/docs/apm/new-relic-apm/getting-started/glossary#alert-target)や[閾値など](/docs/apm/new-relic-apm/getting-started/glossary#alert-threshold)を含む既存の条件をコピーし、選択したアカウントの別のポリシーに追加するには、次の手順を実行します。 + +1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Alerts &gt; Alert conditions**に移動します。 + +2. アラート条件のリストから、コピーしたいアラートの三点アイコンをクリックし、 **Duplicate condition**を選択します。 + +3. **Copy alert condition**から、リストを検索またはスクロールして、この条件を追加するポリシーを選択します。 + +4. オプション:必要に応じて条件名を変更します。 + +5. オプション:トグルスイッチを切り替えます: **Enable on save** + +6. **Copy condition**を選択します。 + + デフォルトでは、選択されたアラートポリシーはコピーされた条件を**無効**の状態で追加します。標準の手順に従ってアラートポリシーにさらなる条件を[追加](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/define-alert-conditions)またはコピーし、必要に応じて[条件を**有効にします**](/docs/alerts/new-relic-alerts-beta/updating-alert-policies/disable-or-delete-alert-policies-conditions#disable-conditions)。また、新しい条件には、元の条件に追加された[タグは](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#add-via-ui-api)コピーされません。 + +## 条件を有効/無効にする [#disable-conditions] + +条件を無効にしたり再度有効にするには、以下を行います。 -## トラブルシューティング [#troubleshoot] +1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Alerts &gt; Alert Conditions**に移動します。次に、 **Alert conditions**のリストからトグルを使用して条件を有効または無効にします。 +2. **On/Off**スイッチをクリックして切り替えます。 -履歴チャートに空の信号が表示された場合は、次のいずれかを検討してください。 +[条件をコピーする](/docs/alerts/new-relic-alerts-beta/updating-alert-policies/copy-alert-conditions)と、元のポリシーで条件が有効( **On** )だったとしても、新しいポリシーでは自動的に無効( **Off** )として保存されます。 -* - **Review the condition's settings** - +## 条件を削除する [#delete-conditions] - :すべての要素が正しく設定されていることを再確認します。 +条件をオフにしてポリシーを維持するには、条件を[無効にします](/docs/alerts/new-relic-alerts-beta/updating-alert-policies/disable-or-delete-alert-policies-conditions#condition-on-off)。1つ以上の条件を削除するには、以下を行います。 -* - **Inspect NRQL queries** - +1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Alerts &gt; Alert Conditions**に移動します。 - :クエリが有効なメトリクスまたはイベントをターゲットにしており、データを返していることを確認します。 +2. **Alert conditions**のリストから条件を選択し、省略記号メニュー(...)から**Delete**をクリックします。 -* - **Examine entity configuration** - + + 削除ボタンが表示されない場合は、アカウント管理者が組織の条件の削除を無効にしている可能性があります。 + - :エンティティが信号を送信するように正しく設定されていることを確認します。 +## アラート条件ページのトラブルシューティング [#troubleshoot] -* - **Consult New Relic documentation** - +**Alert Condition**ページの履歴チャートに空の信号が表示される場合は、次のいずれかを検討してください。 - :特定の問題については、関連するガイドを参照してください。 +* **Review the condition's settings**:すべての要素が正しく設定されていることを再確認します。 +* **Inspect NRQL queries**:クエリが有効なメトリクスまたはイベントをターゲットにしており、データを返していることを確認します。 +* **Examine entity configuration**:エンティティが信号を送信するように正しく設定されていることを確認します。 +* **Consult New Relic documentation**:特定の問題については、関連するガイドを参照してください。 ## 次のステップ [#whats-next] - - 初心者向けのアラートの短期集中コース - - - - 既にアラート条件を設定している場合は、詳細設定でさらに掘り下げましょう - - - - ワークフローを使用して、スタック内の異常な動作について通知を受け取る - - + 初心者のためのアラート短期集中講座アラート条件をすでに設定している場合は、詳細設定でさらに詳しく調べられますワークフローを使用して、スタック内の異常な動作について通知を受け取りましょう + \ No newline at end of file diff --git a/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx b/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx index f5009c15dc6..af162b1ceb4 100644 --- a/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx +++ b/src/i18n/content/jp/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx @@ -4,41 +4,24 @@ tags: - Alerts - Alert conditions metaDescription: How to define thresholds that trigger alert notifications based on your NRQL queries. -freshnessValidatedDate: never +freshnessValidatedDate: '2024-08-01T00:00:00.000Z' translationType: human --- -We recommend creating an alert using a NRQL alert condition. This doc will guide you through formatting and configuring your NRQL alert conditions to maximize efficiency and reduce noise. If you've just started with New Relic, or you haven't created an alert condition yet, we recommend starting with [Alert conditions](/docs/alerts/create-alert/create-alert-condition/alert-conditions/). +アラートの作成には、NRQLアラート条件を使用することを推奨します。このドキュメントでは、効率を最大化し、ノイズを削減するNRQLアラート条件のフォーマットと構成について説明します。New Relicを使い始めたばかりの場合や、まだアラート条件を作成していない場合は、[アラート条件](/docs/alerts/create-alert/create-alert-condition/alert-conditions/)から始めることをおすすめします。 -You can create an alert condition from: +アラート条件は以下から作成できます。 * [チャート](/docs/tutorial-create-alerts/create-an-alert/) - * [ポリシーページ](https://one.newrelic.com/nr1-core/condition-builder/policy-entity) - -* - [**Alert coverage gaps**](https://one.newrelic.com/alerts-ai/detection-gaps/) - - - [ページ](https://one.newrelic.com/alerts-ai/detection-gaps/) +* [**Alert coverage gaps**ページ](https://one.newrelic.com/alerts-ai/detection-gaps/) 次のアラートビルダーのいずれかを使用することもできます。 -* Use +* **Write your own query**を使用して、アラートをゼロから作成する。 +* Use **Guided mode**推奨オプションから選択して、NRQLクエリを構築する。 - - **Write your own query** - - - to build alerts from scratch. - -* - Use **Guided mode** - - - to choose from recommended options and have your NRQL query built for you. - -No matter where you begin creating an alert condition, whether through a chart or by writing your own query, NRQL is the building block upon which you can define your signal and set your thresholds. +アラート条件の作成をチャートで開始するか自身でクエリを記述するかに関わらず、NRQLはシグナルを定義して閾値を設定できる基礎ブロックとなります。 ## NRQLアラートの構文 [#syntax] @@ -275,7 +258,7 @@ SELECT function(attribute) `SLIDE BY`句は、[スライディングウィンドウ](#sliding-window-aggregation)と呼ばれる機能をサポートしています。スライディングウィンドウを使用すると、`SLIDE BY`データは、互いに重複する時間の「ウィンドウ」に収集されます。これらのウィンドウは、移動集計(移動平均など)が狭い時間枠からの集計よりも重要である場合に、変動の多い折れ線グラフを滑らかにするのに役立ちます。 - UIでスライディングウィンドウを有効にすることができます。条件を作成または編集するときは、**Adjust to signal behavior > Data aggregation settings > Use sliding window aggregation**の順に移動します。 + UIでスライディングウィンドウを有効にすることができます。条件を作成または編集するときは、**Adjust to signal behavior > Data aggregation settings > Use sliding window aggregation**の順に移動します。 たとえば、以下と同等のアラート条件を作成するには、 @@ -305,7 +288,7 @@ SELECT function(attribute) - サブクエリの実行にはデータを介しての複数のパスが必要なため、[サブクエリ](/docs/query-your-data/nrql-new-relic-query-language/get-started/subqueries-in-nrql)はストリーミングと互換性がありません。 + サブクエリの実行にはデータを介しての複数のパスが必要なため、[サブクエリ](/docs/query-your-data/nrql-new-relic-query-language/get-started/subqueries-in-nrql)はストリーミングと互換性がありません。 @@ -326,10 +309,7 @@ SELECT function(attribute) 以下に示すのは、NRQL条件の一般的な使用ケースです。これらのクエリは、静的および異常の[条件タイプ](#threshold-types)において動作します。 - + 重要な顧客や一定範囲のデータなど、データの特定セグメントをターゲットとする制約付きアラートを作成します。これらの条件を定義するには`WHERE`句を使用してください。 ```sql @@ -341,10 +321,7 @@ SELECT function(attribute) ``` - + データのN番目のパーセンタイルが指定の閾値に達したときにアラートを作成します。例えば、SLAサービスレベルの管理など。集計ウィンドウの期間に基づいてNRQLクエリを評価するため、期間ごとにパーセンタイル値を個別に算出します。 ```sql @@ -356,10 +333,7 @@ SELECT function(attribute) ``` - + データが最大、最小、平均に達したときにアラートを作成します。例えば、処理時間やレスポンスタイムが一定の閾値に達しないようにできます。 ```sql @@ -371,10 +345,7 @@ SELECT function(attribute) ``` - + データの一部が特定の閾値を上回るとき、または下回るときにアラートを作成します。 ```sql @@ -386,10 +357,7 @@ SELECT function(attribute) ``` - + 特定のトランザクションに対して、T値を適用した[Apdex](/docs/apm/new-relic-apm/apdex/apdex-measuring-user-satisfaction)でアラートを作成します。ライセンスキーは、PHP INIファイルでエージェントに対して設定されており、ディレクトリや仮想ホストごとに変更できます。 ```sql @@ -455,10 +423,7 @@ SELECT filter(count(*), WHERE result = 'FAILED') FROM SyntheticCheck WHERE monit [ネスト構造の集計クエリ](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/nested-aggregation-make-ordered-computations-single-query)は、データに対してクエリを実行する強力な方法です。ただし、注意すべき重要な制限がいくつかあります。 - + `FACET`がないと、内部クエリは単一の結果を生成するため、外部クエリには何も集計されません。ネスト構造のクエリを使用している場合は、内部クエリがファセットされていることを確認してください。 ```sql @@ -466,10 +431,7 @@ SELECT filter(count(*), WHERE result = 'FAILED') FROM SyntheticCheck WHERE monit ``` - + 1分間のアラート集計ウィンドウで、内部クエリはより小さな30秒のウィンドウを2つ生成します。理論上、この2つのウィンドウは外部クエリによって集計されます。ただし、現在この機能はサポートされていません。 ```sql @@ -477,22 +439,16 @@ SELECT filter(count(*), WHERE result = 'FAILED') FROM SyntheticCheck WHERE monit ``` - + 信号損失の詳細については、[NerdGraph API:信号の損失とギャップの充填](/docs/alerts-applied-intelligence/new-relic-alerts/alerts-nerdgraph/nerdgraph-api-loss-signal-gap-filling)を参照してください。 - + [メトリックタイムスライス](/docs/data-apis/understand-data/new-relic-data-types/#timeslice-data)のネストされたクエリはサポートされていません。具体的には、NRQLアラート条件の内部クエリでは、以下の用語は使用できません。 * `WITH METRIC_FORMAT` * `metricTimesliceName` - * ```keyset``Metric```タイプで呼び出された、`uniques`、`nativesizeestimate`、または`bytecountestimate` + * `keyset``Metric`タイプで呼び出された、`uniques`、`nativesizeestimate`、または`bytecountestimate` * `newrelic.timeslice.value` * `apm.service.*`、`apm.browser.*`、`apm.mobile.*`、 `apm.key.transaction.*` @@ -559,7 +515,7 @@ SELECT filter(count(*), WHERE result = 'FAILED') FROM SyntheticCheck WHERE monit * 複数のホスト上で動作するアプリケーション。 * `SyntheticCheck` データ:タイムアウトは3分かかる場合があるため、5分以上前のデータをクエリするとよいでしょう。 - さらに、クエリによって生成されるデータが断続的な場合、高度な信号設定の[`slide by`](#sliding-window-aggregation)オプションの使用をご検討ください。 + さらに、クエリによって生成されるデータが断続的な場合、高度な信号設定の[`slide by`](#sliding-window-aggregation)オプションの使用をご検討ください。 @@ -592,15 +548,7 @@ SELECT filter(count(*), WHERE result = 'FAILED') FROM SyntheticCheck WHERE monit **Condition settings**を使用して次のことを行います。 * 簡潔で分かりやすい[条件名](/docs/alerts/new-relic-alerts/configuring-alert-policies/define-alert-conditions#rename-condition)を作成します。 - - * インシデントと通知に含まれる - - - **Add details** - - - ページの条件について、カスタムインシデントの説明を記入します。 - + * インシデントと通知に含まれる**Add details**ページの条件について、カスタムインシデントの説明を記入します。 * インシデント対応に関する自社の手順を含めるには、ランブックのURLを追加します。この情報をカスタムインシデントの説明に追加することもできます。 @@ -717,15 +665,10 @@ NRQLアラートを作成する際、異なる条件のタイプを選択でき 信号損失は、特定の期間にわたってNRQL条件に一致するデータがない場合に発生します。信号損失の閾値期間と、閾値を超えたときに何が起こるかを設定できます。 -signal-loss-ui.png +screenshot of signal loss options
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Alerts > Alert conditions (Policies)**に移動し、次に**+ New alert condition**に移動します。信号損失は、NRQL条件でのみ使用できます。 + **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Alerts &gt; Alert conditions (Policies)**に移動し、次に**+ New alert condition**に移動します。信号損失は、NRQL条件でのみ使用できます。
これらの設定は、GraphQL API(推奨)またはREST APIを使用して管理することもできます。特定の[Graph QL APIの例](/docs/alerts-applied-intelligence/new-relic-alerts/alerts-nerdgraph/nerdgraph-api-loss-signal-gap-filling)については、こちらを参照してください。 @@ -734,117 +677,52 @@ NRQLアラートを作成する際、異なる条件のタイプを選択でき **Loss of signal settings:**
-信号損失の設定には、継続時間と2つの可能なアクションが含まれます。 +Loss of signal settings include a time duration and a few actions. * **Signal loss expiration time** - * UIラベル: - - - **Signal is lost after:** - - + * UIラベル: **Signal is lost after:** * GraphQLノード: [expiration.expirationDuration](/docs/apis/nerdgraph/examples/nerdgraph-api-loss-signal-gap-filling/#loss-of-signal) - * 有効期限とは、ストリーミングアラートパイプラインでデータポイントを受信すると開始およびリセットされるタイマーです。「有効期限」が切れる前に別のデータポイントを受信しないと、その信号は損失したと見なされます。これは、New Relicにデータが送信されていないか、アラートパイプラインにストリーミングされる前に、NRQLクエリの`WHERE`句がそのデータを除外しているためです。ファセットクエリがある場合、各ファセットはシグナルであることに注意してください。したがって、これらのシグナルのいずれかが指定期間中に終了すると、シグナルの損失と見なされます。 - * 閾値の有効期限に関係なく、タイマーが期限切れになるとすぐに信号損失がトリガーされます。 - * 最長の有効期限は48時間です。これは、頻度の低いジョブの実行をモニタリングするときに役立ちます。最小は30秒ですが、少なくとも3〜5分に設定することを推奨します。 * **Loss of signal actions** - 信号が損失したと見なされると、未解決のインシデントを閉じるか、新しいインシデントを開くか、またはその両方を行うことができます。 + Once a signal is considered lost, you have a few options: * 現在未解決のインシデントをすべて閉じる:これにより、特定の信号に関連する未解決のインシデントがすべて終了します。必ずしも、条件のすべてのインシデントが終了するとは限りません。一時的なサービスまたは散発的な信号で警告している場合は、インシデントが適切に終了するように、このアクションを選択することをお勧めします。この場合、GraphQLノード名は[ 「closeViolationsOnExpiration」](/docs/apis/nerdgraph/examples/nerdgraph-api-loss-signal-gap-filling/#loss-of-signal) です。 * 新しいインシデントを開く:これにより、信号が損失したと見なされると、新しいインシデントが発生します。これらのインシデントは、信号の損失が原因であることを示します。インシデントプリファレンスに基づいて、通知がトリガーされます。この場合、graphQLノード名は[、「openViolationOnExpiration」](/docs/apis/nerdgraph/examples/nerdgraph-api-loss-signal-gap-filling/#loss-of-signal) です。 - * 両方のアクションを有効にすると、最初に未解決のインシデントがすべて終了します。次に、信号が損失すると、新しいインシデントが発生します。 - -UIで信号損失検出を使用して設定されたNRQLアラートを作成する場合は、以下の手順に従います。 - -1. ポリシーについて条件を作成するときは、 - - - **Select a product** - - - で - - - **NRQL** - - - をクリックしてから、 - - - **Next, define thresholds** - - - をクリックします。 - -2. アラートする値を返す[NRQLクエリ](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries#syntax)を作成します。 - -3. - **Threshold type** - - - には、 - - - **Static** - - - または - - - **Anomaly** - - - を選択します。 - -4. - **+ Add lost signal threshold** - + * When you enable both of the above actions, we'll close all open incidents first, and then open a new incident for loss of signal. + * Do not open "lost signal" incidents on expected termination. When a signal is expected to terminate, you can choose not to open a new incident. This is useful when you know that a signal will be lost at a certain time, and you don't want to open a new incident for that signal loss. The GraphQL node name for this is [`ignoreOnExpectedTermination`](/docs/apis/nerdgraph/examples/nerdgraph-api-loss-signal-gap-filling/#loss-of-signal). - をクリックし、 - - - **Consider the signal lost after** - - - フィールドで信号の有効期限を分または秒で設定します。 - -5. 信号が失われたときに実行する操作を選択します。 - - - **Close all current open incidents** - - - と + + In order to prevent a loss of signal incident from opening when "Do not open "lost signal" incident on expected termination", the tag `termination: expected` must be added to the entity. This tag tells us the signal was expected to terminate. See [how to add the tag directly to the entity](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#add-tags). + - - **Open new "lost signal" incident** - +UIで信号損失検出を使用して設定されたNRQLアラートを作成する場合は、以下の手順に従います。 - のいずれかまたは両方を確認できます。これらのアクションによって、該当する状態に対して信号損失インシデントがどのように処理されるかが制御されます。 +1. Follow the [instructions to create a NRQL alert condition](/docs/alerts/create-alert/create-alert-condition/alert-conditions/#set-your-signal-behavior). +2. On the [Set thresholds step](/docs/alerts/create-alert/create-alert-condition/alert-conditions/#thresholds) you&apos;ll find the option to Add lost signal threshold. Click this button. +3. Set the signal expiration duration time in minutes or seconds in the **Consider the signal lost after** field. +4. Choose what you want to happen when the signal is lost. You can check any or all of the following options: **Close all current open incidents**, **Open new "lost signal" incident**, **Do not open "lost signal" incident on expected termination**. These control how loss of signal incidents will be handled for the condition. +5. You can optionally add or remove static/anomaly numeric thresholds. A condition that has only a loss of signal threshold and no static/anomaly numeric thresholds is valid, and it's considered a "stand alone" loss of signal condition. +6. Continue through the steps to save your condition. +7. If you selected "**Do not open "lost signal" incident on expected termination**&quot;, you must add the `termination: expected` tag to the entity to prevent a loss of signal incident from opening. See [how to add the tag directly to the entity](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#add-tags). -6. 必ず、条件に名前を付けてから保存します。 + + You might be curious why you'd ever want to have bothOpen new "lost signal" incident and Do not open "lost signal" incident on expected termination set to true. Think of it like this: you always want to be notified when a signal is lost until the one time you know the signal is scheduled to stop and you don&apos;t want to be notified. In that case, you&apos;d set both to true, and when you expect the signal to be lost, you&apos;d add the `termination: expected` tag to the relevant entity. + 信号が戻ってくると、信号閉鎖の喪失により、 * インシデントが発生します。新しく開かれた信号損失インシデントは、新しいデータが評価されるとすぐに閉じられます。 - * それらが属する条件が期限切れになります。デフォルトでは、条件は3日後に期限切れになります。 - -* - **Close all current open incidents** - - - オプションを使用して、インシデントを手動で閉じます。 +* **Close all current open incidents**オプションを使用して、インシデントを手動で閉じます。 信号損失検出は、ネスト型の集計またはサブクエリを使用するNRQLクエリでは機能しません。 @@ -852,12 +730,7 @@ UIで信号損失検出を使用して設定されたNRQLアラートを作成 ## 高度な信号設定 [#advanced-signal] -Screenshot showing advanced signal settings +Screenshot showing advanced signal settings
NRQLアラート条件を作成すると、高度な信号設定により、[ストリーミングアラートデータ](/docs/alerts-applied-intelligence/new-relic-alerts/get-started/streaming-alerts-key-terms-concepts)を管理し、誤検出を防止できます。 @@ -884,10 +757,7 @@ NRQL条件を作成する際の[高度な信号設定](/docs/alerts-applied-inte この短いビデオでスライディングウィンドウの設定方法を紹介します(2分30秒)。 -