タイムスライスメトリックをディメンションメトリックまたはイベントデータと組み合わせてクエリすることはできません。 `newrelic.timeslice.value`または`apm.*`メトリックを含むクエリは、APMメトリックのみを返すことができます。
@@ -28,14 +28,14 @@ New Relic は[いくつかの方法でメトリクス](/docs/using-new-relic/dat
## クエリの作成方法 [#form-query]
-APM では、一部のチャートには、 [そのチャートを生成した NRQL クエリを表示する](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language#what-is-nrql)オプションがあります。 これは、メトリクスをクエリする方法を理解するための良い出発点となります。 以下の NRQL クエリは、 概要ページのエラー率グラフからわずかに変更されています。
+APM では、一部のチャートには、 [そのチャートを生成した NRQL クエリを表示する](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language#what-is-nrql)オプションがあります。 これは、メトリクスをクエリする方法を理解するための良い出発点となります。 以下の NRQL クエリは、 概要ページのエラー率グラフからわずかに変更されています。
```sql
FROM Metric
- SELECT count(apm.service.error.count) / count(apm.service.transaction.duration)
- WHERE (entity.guid = 'AN_ENTITY_GUID')
- AND (transactionType = 'Web')
- SINCE 1 day ago TIMESERIES
+SELECT count(apm.service.error.count) / count(apm.service.transaction.duration)
+WHERE (entity.guid = 'AN_ENTITY_GUID')
+AND (transactionType = 'Web')
+SINCE 1 day ago TIMESERIES
```
ここでは、このクエリの各部分がどのように機能するかを説明します。
@@ -124,7 +124,7 @@ FROM Metric
## メートル法のタイムスライスデータの変換方法 [#timeslice-conversion]
-元のタイムスライス メトリクスをクエリに使用できるディメンション メトリクスに変換する作業は進行中のプロセスであり、完了していません。 このセクションに探しているメトリクスが見つからない場合は、 [「汎用クエリ」](#generic-queries)を参照してください。
+元のタイムスライス メトリクスをクエリに使用できるディメンション メトリクスに変換する作業は進行中のプロセスであり、完了していません。 このセクションに探しているメトリクスが見つからない場合は、 [「汎用クエリ」](#generic-queries)を参照してください。
元の[APM タイムスライス メトリクスが](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data)どのように次元メトリクスに変換されるかを次に示します。
@@ -141,7 +141,7 @@ FROM Metric
-
+
@@ -154,13 +154,13 @@ FROM Metric
`apm.service.datastore.operation.duration`という名前の1次元メトリックは、データストアメトリックのグループ全体を表します。
- このメトリックには、メトリック名にエンコードされたデータ値を表す3つの属性、datastoreType、table、operationがあります。
+ このメトリクスには、メトリクス名にエンコードされたデータ値を表す 3 つのプロパティ`datastoreType` 、 `table` 、および`operation`があります。
- `datastoreType = ‘MySQL’`
+ `datastoreType = 'MySQL'`
- `table = ‘users’`
+ `table = 'users'`
- `operation = ‘select’`
+ `operation = 'select'`
|
@@ -200,7 +200,7 @@ APMメトリクスの一部は、ディメンションメトリクスとして
- percentage
+ `percentage`
|
@@ -271,7 +271,7 @@ APMメトリクスの一部は、ディメンションメトリクスとして
エージェントのインスタンス数のカウント
|
- |
+ |
count
@@ -287,7 +287,7 @@ APMメトリクスの一部は、ディメンションメトリクスとして
プロセスメモリ(MB
|
- |
+ |
メガバイト
@@ -372,16 +372,16 @@ APMメトリクスの一部は、ディメンションメトリクスとして
```sql
FROM Metric
- SELECT unit
- WHERE appName = 'YOUR_APP_NAME'
- AND metricName = 'METRIC_NAME'
+SELECT unit
+WHERE appName = 'YOUR_APP_NAME'
+AND metricName = 'METRIC_NAME'
```
メトリック・タイムスライス・データの一般的な構造について、一般的な例を含めて詳しく理解するには、 [Metric timeslice data](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data) を参照してください。
### 属性
-これらの属性は、上記のメトリクスの表にリストされているメトリクス固有の属性に加えて使用できます。
+これらの属性は、上記のメトリクスの表にリストされているメトリクス固有の属性に加えて使用できます。
@@ -463,7 +463,7 @@ FROM Metric
- Java エージェントの場合、 `host : port`
+ Java エージェントの場合、 `host : port`
|
@@ -613,13 +613,13 @@ WHERE metricTimesliceName = 'Datastore/statement/MySQL/test/select'
```sql
SELECT uniques(metricTimesliceName)
-FROM Metric WHERE appName='YOUR_APP_NAME'
+FROM Metric WHERE appName = 'YOUR_APP_NAME'
AND newrelic.timeslice.value IS NOT NULL
```
## ワイルドカードで指定されたメトリック名セグメントのファセット [#wildcard]
-一部のメトリクス タイムスライス名には、メトリクス名のセグメントとして属性値が含まれています。 たとえば、 エージェントは、次の形式を使用して外部通話の継続時間を追跡することによってメトリクスをレポートします。
+一部のメトリクス タイムスライス名には、メトリクス名のセグメントとして属性値が含まれています。 たとえば、 エージェントは、次の形式を使用して外部通話の継続時間を追跡することによってメトリクスをレポートします。
```
External/{externalHost}/all
@@ -631,9 +631,9 @@ External/{externalHost}/all
```sql
FROM Metric SELECT count(newrelic.timeslice.value)
- WHERE appName = 'MY APP'
- WITH METRIC_FORMAT 'Custom/Labels/{action}'
- TIMESERIES FACET action
+WHERE appName = 'MY APP'
+WITH METRIC_FORMAT 'Custom/Labels/{action}'
+TIMESERIES FACET action
```
このクエリでは、 `{action}`は一時属性`action`を作成し、それが`FACET action`によって使用されます。クエリ中に存在するのは属性のみであるため、任意の名前を使用できます。既存の属性名と競合しない名前を選択する必要があります。
@@ -654,85 +654,70 @@ FROM Metric SELECT count(newrelic.timeslice.value)
メトリック・タイムスライス・データのクエリの例をいくつか紹介します。
-
+
このクエリは[`WHERE… IN`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#sel-where)を使用して2つのアプリケーションを指定し、それらによってファセットを作成します。
```sql
FROM Metric
- SELECT rate(count(apm.service.transaction.duration), 1 minute) as 'Web throughput'
- WHERE appName IN ('MY_APPLICATION', 'MY_OTHER_APPLICATION')
- AND (transactionType = 'Web')
- FACET appName
- TIMESERIES
+ SELECT rate(count(apm.service.transaction.duration), 1 minute) AS 'Web throughput'
+ WHERE appName IN ('MY_APPLICATION', 'MY_OTHER_APPLICATION')
+ AND (transactionType = 'Web')
+ FACET appName
+ TIMESERIES
```
-
+
このクエリは、 [`rate`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#func-rate)関数を使用して1分あたりのリクエスト数のグラフを表示します。
```sql
FROM Metric
- SELECT rate(count(apm.service.transaction.duration), 1 minute) as 'HttpDispatcher requests_per_minute'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 days ago
+ SELECT rate(count(apm.service.transaction.duration), 1 minute) AS 'HttpDispatcher requests_per_minute'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 days ago
```
-
+
このクエリは、ホスト名でファセットされた1分あたりのリクエスト数のチャートを表示します。
```sql
FROM Metric
- SELECT count(apm.service.transaction.duration) as 'HttpDispatcher requests_per_minute'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 hours ago
- FACET host
- LIMIT 20
+ SELECT count(apm.service.transaction.duration) AS 'HttpDispatcher requests_per_minute'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 hours ago
+ FACET host
+ LIMIT 20
```
`host`を使用する代わりに、 `host.bootId`などの他の[ホスト関連の属性](/node/36916/revisions/402556/view#infrastructure-attributes)でファセットすることができます。
-
+
これは、 [`average`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#func-average)を使用してメトリックの平均期間を照会します。
```sql
FROM Metric
- SELECT average(apm.service.transaction.duration) as 'HttpDispatcher average duration'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 days ago
+ SELECT average(apm.service.transaction.duration) AS 'HttpDispatcher average duration'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 days ago
```
-
+
このクエリは、単一のトランザクション(この場合、 `MY_APPLICATION`という名前のRailsアプリの`UsersController`の`show`アクション)の平均期間を、上位20の個々のセグメント(データベースクエリ、外部サービス呼び出し、ガベージコレクション)ごとに分類します。時間など)。これは、サービスエンティティのAPMトランザクションページに表示される「アプリケーションの内訳」チャートの多くを再現しています。
```sql
FROM Metric
- SELECT average(newrelic.timeslice.value, exclusiveTime: true) as 'duration, seconds'
- WHERE appName = 'MY_APPLICATION'
- AND scope = 'Controller/users/show'
- LIMIT 20
- FACET metricTimesliceName
- TIMESERIES SINCE 3 days ago
+ SELECT average(newrelic.timeslice.value, exclusiveTime: true) AS 'duration, seconds'
+ WHERE appName = 'MY_APPLICATION'
+ AND scope = 'Controller/users/show'
+ LIMIT 20
+ FACET metricTimesliceName
+ TIMESERIES SINCE 3 days ago
```
-
+
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx b/src/i18n/content/jp/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
index 221d18ec055..96503d266d1 100644
--- a/src/i18n/content/jp/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
+++ b/src/i18n/content/jp/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
@@ -30,30 +30,30 @@ APMでは、メトリックタイムスライスデータと呼ばれる特定
メトリックをクエリするには、次のクエリ形式を使用できます。
-```
+```sql
FROM Metric SELECT function(metric_name) WHERE attribute=value FACET attribute TIMESERIES
```
どのメトリック データ型に対してどの関数がサポートされているかについては、「[メトリック データ構造](/docs/data-apis/understand-data/metric-data/metric-data-type)」を参照してください。
-グラフ化するメトリックの名前を、適切な値関数を使用して`SELECT`句に追加します。 `WHERE` }句と`FACET`句は、属性値とともに使用できます。データをグラフ化する場合は、キーワード`TIMESERIES`を含めることを忘れないでください。
+グラフ化するメトリックの名前を、適切な値関数を使用して`SELECT`句に追加します。 `WHERE` 句と`FACET`句は、属性値とともに使用できます。データをグラフ化する場合は、キーワード`TIMESERIES`を含めることを忘れないでください。
この例は、クラスター`foo`のCPU使用率を秒単位でグラフ化する方法を示しています。このクエリは、属性`containerName`および`clusterName`を持つ`container_cpu_usage_seconds_total`という名前の`count`メトリックが与えられた場合に、コンテナごとにCPU使用率を分類します。
-```
-FROM Metric select sum(container_cpu_usage_seconds_total)
- WHERE clusterName = 'foo'
- FACET containerName
- TIMESERIES
+```sql
+FROM Metric SELECT sum(container_cpu_usage_seconds_total)
+WHERE clusterName = 'foo'
+FACET containerName
+TIMESERIES
```
1分ごとのCPU使用率(変化率)を知りたい場合は、上記のクエリにrate関数を追加します。
-```
-FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
- WHERE clusterName = 'foo'
- FACET containerName
- TIMESERIES
+```sql
+FROM Metric SELECT rate(sum(container_cpu_usage_seconds_total), 1 minute)
+WHERE clusterName = 'foo'
+FACET containerName
+TIMESERIES
```
## メトリクスクエリの例を見る [#example-metric-queries]
@@ -61,76 +61,62 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
前述の例では、メトリック・クエリの基本的な形式を示しましたが、NRQLはメトリック・データのチャート化、探索、分析にも使用できます。
-
+
`SELECT`句にコンマで区切られたメトリックのリストを指定して、単一のクエリを使用して複数のメトリックをグラフ化します。たとえば、コンテナのメモリ使用量とメモリ制限メトリックをグラフ化するには、次のクエリを使用します。
- ```
+ ```sql
FROM Metric
- SELECT latest(container_memory_usage_bytes), latest(container_spec_memory_limit_bytes)
- WHERE containerName = 'inventory'
- TIMESERIES
+ SELECT latest(container_memory_usage_bytes), latest(container_spec_memory_limit_bytes)
+ WHERE containerName = 'inventory'
+ TIMESERIES
```
以下に説明するように、 [ワイルドカード](#query-multiple-metrics-wildcards) を使って行うこともできます。
-
+
1つまたは複数のメトリクスに対して数学的な演算を行い、新しい派生メトリクスを計算します。利用可能なメモリを監視するには、前述の例で使用した2つのメトリクスから利用可能なメモリの割合を計算します。
- ```
+ ```sql
FROM Metric
- SELECT (latest(container_spec_memory_limit_bytes) - latest(container_memory_usage_bytes))
- / latest(container_spec_memory_limit_bytes)
- * 100
- AS '% Memory Available'
- WHERE containerName = 'inventory'
- TIMESERIES
+ SELECT (latest(container_spec_memory_limit_bytes) - latest(container_memory_usage_bytes))
+ / latest(container_spec_memory_limit_bytes)
+ * 100
+ AS '% Memory Available'
+ WHERE containerName = 'inventory'
+ TIMESERIES
```
以下に説明するように、 [ワイルドカード](#query-multiple-metrics-wildcards) を使って行うこともできます。
-
+
`SELECT`のすべてに適用される`WHERE`句を使用することに加えて、NRQLは、グラフ化または操作する特定の時系列を選択するために使用できる`filter`と呼ばれる別の集計関数を提供します。
次の例は、ポッド内の2つの特定のコンテナのメモリ使用量を合計することによって計算される`"Total (k8s)"`というラベルの付いたメモリ使用量メトリックを示しています。
- ```
+ ```sql
FROM Metric
- SELECT filter(
- latest(
- container_memory_usage_bytes),
- WHERE containerName = 'discovery')
- + filter(
- latest(
- container_memory_usage_bytes),
- WHERE containerName = 'my-proxy')
- AS 'Total (k8s)'
- WHERE clusterName = 'my-cluster' AND podName LIKE 'my-pilot-%'
- TIMESERIES
+ SELECT filter(
+ latest(container_memory_usage_bytes),
+ WHERE containerName = 'discovery')
+ + filter(
+ latest(container_memory_usage_bytes),
+ WHERE containerName = 'my-proxy')
+ AS 'Total (k8s)'
+ WHERE clusterName = 'my-cluster' AND podName LIKE 'my-pilot-%'
+ TIMESERIES
```
-
+
`FROM Metric`を使用してメトリックデータをクエリする場合、New Relicは、クエリウィンドウの長さと`TIMESERIES`キーワードの引数として指定されたバケットサイズに応じて、クエリで使用する特定の集計を自動的に選択します。これにより、効率的なクエリとチャートの解決が保証されます。この動作をオーバーライドして生のメトリックデータポイントを表示または操作する場合は、クエリでオプションの`RAW`キーワードを使用します。
これらの生のメトリックデータポイントにクエリを実行する場合、クエリのタイムウィンドウは48時間に制限されています。48時間を超える生のメトリックデータにアクセスしようとするクエリは、クエリエラーになります。
この例では、特定のメトリックについて受信した直近の20個のデータポイントをリストアップする方法を示します。
- ```
+ ```sql
FROM Metric SELECT * WHERE metricName = 'container_fs_usage_bytes' LIMIT 20 RAW
```
@@ -157,35 +143,31 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
クエリで使用する場合、 `myNeatProcess.%.duration`は上記の3つのアルゴリズムすべての結果を返します。後で`algorithm4` 、 `algorithm5` 、および`algorithm6`という名前の新しいアルゴリズムを作成すると、同じクエリで6つのアルゴリズムすべての結果が返されます。
-
+
`SELECT`句でワイルドカード( `%` )を使用すると、1つのクエリを使用して複数の指標をグラフ化できます。たとえば、上記の例のすべてのアルゴリズムをクエリし、各アルゴリズムの平均期間についてグラフに線をプロットするには、次のクエリを使用します。
- ```
+ ```sql
FROM Metric
- SELECT average(myNeatProcess.%.duration)
- FACET metricName TIMESERIES
+ SELECT average(myNeatProcess.%.duration)
+ FACET metricName TIMESERIES
```
-
+
また、ワイルドカードを使って、複数のメトリクスに対して演算を行い、新しいメトリクスを計算することもできます。上の例で挙げたすべてのアルゴリズムの平均継続時間を計算することができます。
- ```
+ ```sql
FROM Metric
- SELECT average(myNeatProcess.%.duration) TIMESERIES
+ SELECT average(myNeatProcess.%.duration)
+ TIMESERIES
```
一つのアルゴリズムが全体のランタイムに占める割合を計算することができます。
- ```
+ ```sql
FROM Metric
- SELECT myNeatProcess.algorithm1.duration / sum(myNeatProcess.%.duration) TIMESERIES
+ SELECT myNeatProcess.algorithm1.duration / sum(myNeatProcess.%.duration)
+ TIMESERIES
```
@@ -197,13 +179,10 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
これらのフィールドを抽出するには、 `getField()`を使用できます。 たとえば、 `WHERE`句で比較を行うために Metrics 内の単一の値を使用する場合は、 `getField(metricName, field)`または短縮構文`metricName[field]`を使用できます。
-
+
メトリックの平均値は`count`に対して`total`として計算されるため、次のクエリは`average()`値関数の結果が2より大きいメトリックデータを返します。
- ```
+ ```sql
FROM Metric
SELECT average(apm.service.transaction.duration)
WHERE appName = 'MyApp'
@@ -212,7 +191,7 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
または、次の省略形を使用することもできます。
- ```
+ ```sql
FROM Metric
SELECT average(apm.service.transaction.duration)
WHERE appName = 'MyApp'
@@ -220,13 +199,10 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
```
-
+
この例のクエリは、ゲージメトリクスのリストを返します。
- ```
+ ```sql
FROM Metric
SELECT uniques(metricName)
WHERE getField(%, type) = 'gauge'
@@ -234,7 +210,7 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
または、次の省略形を使用することもできます。
- ```
+ ```sql
FROM Metric
SELECT uniques(metricName)
WHERE %[type] = 'gauge'
@@ -249,30 +225,21 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
NRQL `keyset`および`uniques`関数を`metricName`属性(すべてのメトリックで使用可能)と一緒に使用して、アカウントで使用可能なすべてのメトリックを一覧表示したり、特定のメトリックで使用可能な属性を検出したりすることができます。
-
- ```
+
+ ```sql
FROM Metric SELECT uniques(metricName)
```
-
- ```
+
+ ```sql
FROM Metric SELECT uniques(metricName) WHERE hostname = 'host1.mycompany.com'
```
-
- ```
+
+ ```sql
FROM Metric SELECT keyset() WHERE metricName = METRIC_NAME
```
-
+
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx b/src/i18n/content/jp/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
index 40fbb08c149..d2987ee2741 100644
--- a/src/i18n/content/jp/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
@@ -31,7 +31,7 @@ Windows用インフラストラクチャエージェントのアシストイン
5. 更新します。
-6. オプション。その他の [パラメータを更新する](#parameters).
+6. オプション: 他の[問題](#parameters)を更新します。 デフォルトのドライブとは異なるインストレーション パスを指定するには、インストーラを起動する前に、環境変数`SYSTEMDRIVE`を目的のドライブに設定します。 さらに、 `newrelic-infra service`を作成した後、この環境変数を構成します。
7. 管理者権限で`installer.ps1`を実行します。
@@ -170,7 +170,7 @@ Windowsのアシストインストールでは、以下のパラメータを設
デフォルト:
```
- C:\Program Files\NewRelic\newrelic-infra\inregrations.d
+ C:\Program Files\New Relic\newrelic-infra\integrations.d
```
diff --git a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
index f920c9ad50a..873f0b951eb 100644
--- a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
@@ -10,7 +10,7 @@ New Relic Azure Monitor 統合を使用して、Microsoft Azure サービスに
Azure モニター統合は、サポートされている Azure サービスからのすべてのメトリクスを監視します。有効にすると、設定されたポーリング間隔に従って Azure プラットフォーム サービスにクエリが実行されます。その場合、次の結果が得られます。
-* [Azure Monitor でサポートされているすべての Azure サービス](https://learn.microsoft.com/en-us/azure/azure-monitor/essentials/metrics-supported)からのメトリックの取り込み。
+* [でサポートされている多くのAzure サービスAzure Monitor](https://learn.microsoft.com/en-us/azure/azure-monitor/essentials/metrics-supported) からのメトリクスの取り込み。
* クエリ、アラート、およびデータ エクスプローラーのネイティブ[ディメンション メトリック](/docs/data-apis/understand-data/new-relic-data-types/#metrics-new-relic)エクスペリエンス。
* ゴールデン メトリックと組み込みダッシュボードを備えた [エンティティ エクスプローラー](/docs/new-relic-solutions/new-relic-one/core-concepts/what-entity-new-relic) [](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer)の Azure エンティティ 。
* Azure リソースで定義されたカスタム タグで装飾されたメトリック。
diff --git a/src/i18n/content/jp/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx b/src/i18n/content/jp/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
index 21acd9be32e..c0437da3061 100644
--- a/src/i18n/content/jp/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
@@ -69,7 +69,7 @@ VMware Tanzu 用 New Relic Nozzle には次の要件があります。
- 1.12.34
+ 1.12.36
|
@@ -79,7 +79,7 @@ VMware Tanzu 用 New Relic Nozzle には次の要件があります。
- 2024 年 1 月 25 日
+ 2024年12月9日
|
@@ -89,7 +89,7 @@ VMware Tanzu 用 New Relic Nozzle には次の要件があります。
- New Relic サービス ブローカー 1.12.34
+ New Relic サービスブローカー 1.12.36
|
@@ -109,7 +109,7 @@ VMware Tanzu 用 New Relic Nozzle には次の要件があります。
- 2.10.x、2.11.x、2.12.x、2.13.x、3.x、4.x、および 5.x
+ 2.10.x、 2.11.x、2.12.x、2.13.x、3.x、4.x、5.x、および 6.x
|
diff --git a/src/i18n/content/jp/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx b/src/i18n/content/jp/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
index 2cd90ea1dcb..c9c48564427 100644
--- a/src/i18n/content/jp/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
+++ b/src/i18n/content/jp/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
@@ -23,5 +23,5 @@ New Relic APM言語エージェントでは、カスタム タグ (ラベル)
* [Ruby](/docs.newrelic.com/docs/apm/agents/ruby-agent/configuration/ruby-agent-configuration/)エージェント バージョン 9.16.0 以上。
* Go: 近日公開予定
* Java: 近日公開予定
-* Node.js: 近日公開予定
+* [Node.js](/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration) : エージェント バージョン 12.8.0 以上。
* [Python](/docs/apm/agents/python-agent/configuration/python-agent-configuration)エージェント バージョン 10.3.0 以上。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx
index 1e26aca504b..f3bef861cd0 100644
--- a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx
+++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx
@@ -93,7 +93,7 @@ Androidエージェントのインストールは、ガイド付きインスト
resolutionStrategy {
eachPlugin {
// not required if using `classpath dependency` above
- if (requested.id.id.startsWith("newrelic") || requested.id.id.startsWith("com.newrelic.agent.android"))) {
+ if (requested.id.id.startsWith("newrelic") || requested.id.id.startsWith("com.newrelic.agent.android")) {
useModule("com.newrelic.agent.android:agent-gradle-plugin:${AGENT_VERSION}")
}
}
diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx
new file mode 100644
index 00000000000..518c0cb5e63
--- /dev/null
+++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx
@@ -0,0 +1,35 @@
+---
+title: iOS エージェントを使用したロギング
+tags:
+ - Mobile logging
+ - New Relic Mobile iOS
+metaDescription: Suggestions for setting up the logging in your app with the New Relic agent
+freshnessValidatedDate: never
+translationType: machine
+---
+
+プロジェクト全体で一貫性のある包括的なログ記録を確保するために、iOS エージェントはログ記録 API を提供します。 エージェントのログ記録 API を使用して、モバイル アプリのログを New Relic に送信します。 これにより、ログが 1 か所に集められ、分析できるようになります。 詳細については、[モバイル ログ API を](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-logs/#ios)参照してください。
+
+## ログレベルの設定
+
+エージェントおよびリモート ログの iOS エージェントログレベルを設定できます。
+
+### エージェントログレベル
+
+エージェント ログレベルは New Relic エージェントで設定され、どのログメッセージがデバイスのコンソールに書き込まれるかを決定します。 これには New Relic エージェント ログも含まれます。 すべての New Relic エージェントログを表示するには、ログレベルを`NRLogLevelDebug`に設定します。
+
+### リモートログレベル
+
+New Relic プラットフォームでは、リモート ログレベルによって、デバイスから New Relic に送信されるログの詳細度が制御されます。 これにより、データ量を管理し、関連する情報に焦点を当てることができます。
+
+**設定**: New Relic ダッシュボードの**Application**タブでリモートログレベルを設定できます。 リモートログレベルの設定の詳細については、[モバイルログ](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-logs)を参照してください。
+
+## 自動ログ収集
+
+New Relic プラットフォームでは、リモート ログ記録が有効になっている場合、iOS エージェントはアプリから`stdout`と`stderr`に書き込まれたすべてのログを収集します。 `NSLog()` 、Swift `print()` 、およびその他の印刷ファミリ関数へのすべての呼び出しをキャプチャします。 この方法で収集されたログは`NRLogLevelInfo`に設定されます。 この機能はデフォルトで無効になっています。 有効にするには、 `NRFeatureFlag_AutoCollectLogs`機能フラグを使用します。
+
+エージェントは、 `'\n\n'`区切り文字を使用してログメッセージを区切ります。 タイムスタンプは、アプリケーションがログを書き込んだときではなく、エージェントがログを収集した時刻を反映します。 ログメッセージはエージェントによって収集される前にバッファリングされるため、これによりミリ秒の差が生じる可能性があります。
+
+
+ この機能は Xcode の組み込みコンソールに干渉するため、デバッガーが接続されている間は有効にできません。
+
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
index 7d9b9aaf208..d7421c14b07 100644
--- a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
+++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
@@ -145,7 +145,7 @@ translationType: machine
myMap.put("Key", "Value");
Integer stringVar =
(Integer) myMap.get("Key"); // throws ClassCastException
- } catch (Exception e) {
+ } catch(Exception e) {
NewRelic.recordHandledException(e, myMap);
}
}
@@ -166,8 +166,8 @@ translationType: machine
Snackbar.make(view, "Replace with your own action", Snackbar.LENGTH_LONG)
.setAnchorView(R.id.fab)
.setAction("Action", null).show()
- }catch (exception:Exception) {
- NewRelic.recordHandledException(exception,myMap)
+ } catch(exception:Exception) {
+ NewRelic.recordHandledException(exception,myMap)
}
}
...
@@ -259,7 +259,7 @@ translationType: machine
@throw [NSException exceptionWithName:@"versionException"
reason:@"App version no longer supported"
userInfo:nil];
- } @catch (NSException* e) {
+ } @catch(NSException* e) {
[NewRelic recordHandledException:e];
}
```
@@ -333,8 +333,8 @@ translationType: machine
```dart
try {
some_code_that_throws_error();
- } catch (ex) {
- NewrelicMobile.instance
+ } catch(ex) {
+ NewrelicMobile.instance
.recordError(error, StackTrace.current, attributes: attributes);
}
```
@@ -396,7 +396,7 @@ translationType: machine
```csharp
try {
some_code_that_throws_error();
- } catch (Exception ex) {
+ } catch(Exception ex) {
CrossNewRelic.Current.RecordException(ex);
}
```
@@ -458,7 +458,7 @@ translationType: machine
```csharp
try {
some_code_that_throws_error();
- } catch (Exception ex) {
+ } catch(Exception ex) {
NewRelicAgent.RecordException(e);
}
```
diff --git a/src/i18n/content/jp/docs/network-performance-monitoring/advanced/advanced-config.mdx b/src/i18n/content/jp/docs/network-performance-monitoring/advanced/advanced-config.mdx
index ed5790cb8df..54bc4744d05 100644
--- a/src/i18n/content/jp/docs/network-performance-monitoring/advanced/advanced-config.mdx
+++ b/src/i18n/content/jp/docs/network-performance-monitoring/advanced/advanced-config.mdx
@@ -386,7 +386,7 @@ global:
- NewRelicのエンティティ合成中に使用される値。これは、一致した`mib_profile`に基づいて自動的に作成され、エンティティを作成するには、 [entity-definitions](https://github.com/newrelic/entity-definitions/search?q=%22attribute%3A+provider%22+filename%3Adefinition.yml)リポジトリ内のルールの1つと一致する必要があります。デバイスを手動で追加する場合は、この値が有効であることを確認するように注意する必要があります。
+ New Relic のエンティティ合成中に使用される値。 これは一致した`mib_profile`に基づいて自動的に作成され、エンティティを作成するには、 [エンティティ定義](https://github.com/search?q=repo%3Anewrelic/entity-definitions%20path%3Adefinition.yml&type=code)リポジトリ内のルールの 1 つに一致する必要があります。 デバイスを手動で追加する場合は、この値が有効であることを確認する必要があります。
|
diff --git a/src/i18n/content/jp/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx b/src/i18n/content/jp/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
index a0c4dd8c4dc..ab1ddf0355a 100644
--- a/src/i18n/content/jp/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
+++ b/src/i18n/content/jp/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
@@ -11,24 +11,15 @@ translationType: machine
New Relicには[、任意のソースからデータを取り込み、](/docs/data-apis/custom-data/intro-custom-data)カスタム[チャート](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder)や[ダッシュボード](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards)を作成するための多くのオプションがあります。ただし、これらのオプションを超えてNew Relicで独自のエクスペリエンスを作成したい場合は、プラットフォームでアプリを構築するために使用するのと同じツールにアクセスできます。
-
+
New Relicアプリケーションは、次のようなReactJavaScriptアプリケーションです。
-* 他の
-
-
-
- やデータとともに、 [New Relic プラットフォーム](/docs/new-relic-one/use-new-relic-one/get-started/introduction-new-relic-one)上に存在します。
-
+* 他のやデータとともに、 [New Relic プラットフォーム](/docs/new-relic-one/use-new-relic-one/get-started/introduction-new-relic-one)上に存在します。
* あなたの組織のためにカスタマイズされたビジュアライゼーションを提供します。
-
* New Relicが監視しているエンティティのデータや、他のサービスやAPIからのデータなど、任意のソースからのデータを表示できます。
-New Relicアプリで何ができるかについては、読み続けてください。または、スキップして独自のアプリの作成を開始する場合は、最初[に開発者サイトの要件を](https://developer.newrelic.com/build-apps/permission-manage-apps)お読みください。
+New Relic アプリで何ができるかについて詳しくは、読み続けてください。 または、先に進んで独自のアプリの構築を開始したい場合は、[開発環境セットアップ ガイド](/docs/new-relic-solutions/new-relic-one/build-nr-apps/set-up-dev-env/)に進んでください。
## New Relic:プログラム可能なプラットフォーム [#what-is-it]
@@ -36,12 +27,9 @@ New Relicアプリで何ができるかについては、読み続けてくだ
これで、プラットフォームの基本的な構成要素を制御できるようになります。エンジニアがNewRelicプラットフォームを構築するために使用するのと同じツールを使用して、独自の組織構造とビジネスニーズに合わせたカスタムアプリケーションを構築できます。 React、GraphQL、およびNRQL(クエリ言語)の使用方法を知っている場合、アプリケーションの構築には数分しかかかりません。
-カスタムアプリケーションの構築については、[デベロッパーサイトのガイド](https://developer.newrelic.com/build-apps)をご覧ください。また、独自のアプリケーションを構築する方法については、YouTubeの短いビデオ(約3分15秒)をご覧ください。
+カスタム アプリケーションの構築については、[開発者ガイド](/docs/new-relic-solutions/tutorials/build-hello-world-app/)をご覧ください。 または、独自のアプリの構築を開始する方法の概要については、この短い YouTube ビデオ (約 1 分) をご覧ください。 3分15秒)。
-
+
## 始めましょう [#get-started]
@@ -50,18 +38,14 @@ New Relicを使用すると、どんなに複雑であっても、データ主
* APIを使用して[、任意のソースからNewRelicにデータを取得します](/docs/data-apis/custom-data/intro-custom-data)。
* [そのデータをカスタムアプリケーションで視覚化](https://developer.newrelic.com/build-apps).
-
+
- **[one.newrelic.com](https://one.newrelic.com/all-capabilities):** 以下は、New Relic 上に構築されたカスタム アプリケーションの例です。 このアプリケーションは、 から報告された PageView イベントを使用して、Web サイトの詳細な分析を提供します。
+ **[one.newrelic.com](https://one.newrelic.com/all-capabilities):** 以下は、New Relic 上に構築されたカスタム アプリケーションの例です。 このアプリケーションは、 から報告された PageView イベントを使用して、Web サイトの詳細な分析を提供します。
ビジュアライゼーションのニーズが比較的シンプルな場合は、 [カスタムチャート](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder) や [カスタムダッシュボード](/docs/dashboards/new-relic-one-dashboards/get-started/introduction-new-relic-one-dashboards) の使用を検討してください。
-さあ、私たちの [開発者サイト](http://developer.newrelic.com) にアクセスして、ビルドを始めましょう。
+それでは、 [Hello World の例](/docs/new-relic-solutions/tutorials/build-hello-world-app/)にアクセスして構築を開始してください。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx b/src/i18n/content/jp/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
index 835f1443cd4..a3592ff5be9 100644
--- a/src/i18n/content/jp/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
+++ b/src/i18n/content/jp/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
@@ -12,9 +12,7 @@ translationType: machine
Pathpoint は、関連する内部プロセスや外部依存関係を含むジャーニーのすべてのフェーズの健全性とパフォーマンスを監視および分析することで、組織がジャーニーに影響を与える問題を簡単に特定して解決し、内部プロセスを最適化し、全体的な顧客エクスペリエンスを向上させることを可能にします。
-Pathpoint は、 New Relic labs チームによって開発されたオープンソース カタログ プロジェクトです。 [GitHub Pathpoint リポジトリを](https://github.com/newrelic/nr-labs-pathpoint)参照してください。
-
-Pathpoint のメリットを大まかに理解したいですか? [Pathpoint 製品ページを](https://newrelic.com/platform/pathpoint)ご覧ください。
+[New Relic catalog](https://onenr.io/0bRm7rdJZQy)からアプリを直接インストールします。 [GitHub リポジトリ](https://github.com/newrelic/nr-labs-pathpoint)を調べることもできます。
diff --git a/src/i18n/content/jp/docs/new-relic-solutions/new-relic-one/introduction-new-relic-platform.mdx b/src/i18n/content/jp/docs/new-relic-solutions/new-relic-one/introduction-new-relic-platform.mdx
index b34970737e3..2fd7c6893b1 100644
--- a/src/i18n/content/jp/docs/new-relic-solutions/new-relic-one/introduction-new-relic-platform.mdx
+++ b/src/i18n/content/jp/docs/new-relic-solutions/new-relic-one/introduction-new-relic-platform.mdx
@@ -276,7 +276,7 @@ New Relic UIと可視化の共有のオプションは次のとおりです。
- New Relic UIページ全体を共有するには、プラットフォームの上部近くにある \[permalink] アイコンを使用します。これらのリンクは6か月間使用されなかった場合に期限切れになります。
+ New Relic UIページ全体を共有するには、プラットフォームの上部近くにある \[permalink] アイコンを使用します。
|
diff --git a/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx b/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
index f8a69b1bd9a..a1ae771e900 100644
--- a/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
+++ b/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
@@ -9,9 +9,9 @@ freshnessValidatedDate: never
translationType: machine
---
-シンセティック モニタリング ジョブ マネージャーは、 [Docker コンテナー](https://www.docker.com/resources/what-container)ベースのリソースであり、 [プライベート ロケーション](/docs/synthetics/synthetic-monitoring/private-locations/private-locations-overview-monitor-internal-sites-add-new-locations)に割り当てられた[シンセティック モニター](/docs/synthetics/synthetic-monitoring/getting-started/types-synthetics-monitors)を受け入れて実行します。
+当社の合成監視ジョブ マネージャーは[ 、プライベート ロケーションに割り当てられた](/docs/synthetics/synthetic-monitoring/private-locations/private-locations-overview-monitor-internal-sites-add-new-locations) 合成監視を[ 受け入れて実行する](/docs/synthetics/synthetic-monitoring/using-monitors/intro-synthetic-monitoring/#types-of-synthetic-monitors)[Docker コンテナ](https://www.docker.com/resources/what-container) ベース のリソースです。
-ジョブ マネージャーは、Docker コンテナー システム環境または Kubernetes コンテナー オーケストレーション システム環境で動作できます。ジョブ マネージャーは、その環境を自動検出して、適切な動作モードを選択します。
+ジョブ マネージャーは、Docker コンテナー システム環境、Podman コンテナー システム環境、または Kubernetes コンテナー オーケストレーション システム環境で動作できます。 ジョブ マネージャーは環境を自動検出し、適切な動作モードを選択します。
## Synthetics ジョブ マネージャーの機能 [#enhancements]
@@ -19,7 +19,7 @@ Synthetics ジョブ マネージャーは仮想マシンではなくコンテ
* Linux、 [macOS](https://docs.docker.com/docker-for-mac/) 、および[Windows](https://docs.docker.com/docker-for-windows/)と互換性があります。
* [root 以外の](#run-as-non-root)ユーザーによる実行の[セキュリティ](#security)とサポートが強化されました。
-* Docker コンテナーを[サンドボックス](#sandboxing-and-docker-deps)環境として活用する機能。
+* Docker コンテナを[サンドボックス](#docker-dependencies)環境として活用する機能。
## Kubernetes固有の機能 [#kubernetes-enhancements]
@@ -50,7 +50,7 @@ Synthetics ジョブ マネージャーをホストするには、システム
-
+ |
の互換性
|
@@ -69,7 +69,7 @@ Synthetics ジョブ マネージャーをホストするには、システム
**Linux kernel:** 3.10以降 **macOS:** 10.11 以降 **Windows:** Windows 10 64 ビット以降
- *また、Synthetics ジョブ マネージャーが Windows システムで動作するようにするには、Linux コンテナーを実行するように Docker を構成する必要があります。*
+ また、Synthetics ジョブ マネージャーが Windows システムで動作するようにするには、Linux コンテナーを実行するように Docker を構成する必要があります。
|
@@ -136,7 +136,103 @@ Synthetics ジョブ マネージャーをホストするには、システム
- Docker Synthetics ジョブ マネージャーは、AWS ECS、Docker Swarm、Apache Mesos、Azure Container Instances などのコンテナー オーケストレーターで使用するようには設計されていません。コンテナー オーケストレーターで Docker 合成ジョブ マネージャーを実行すると、それ自体がコンテナー オーケストレーターであるため、予期しない問題が発生します。コンテナー オーケストレーションを使用している場合は、 [Kubernetes 合成ジョブ マネージャーの要件](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements)を参照してください。
+ Docker外形監視ジョブ マネージャーは、 AWS ECS、 Docker Swarm、 Apache Mesos、 Azureコンテナー インスタンスなどのコンテナー オーケストレーターで使用するように設計されていません。 Docker外形監視ジョブ マネージャーをコンテナー オーケストレーターで実行すると、それ自体がオーケストレーターとして機能するため、予期しない問題が発生します。 コンテナー オーケストレーションを使用している場合は、 [Kubernetes外形監視ジョブ マネージャーの要件」](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements)を参照してください。
+
+
+
+ >
+ }
+ >
+
+
+
+
+ の互換性
+ |
+
+
+ 要件
+ |
+
+
+
+
+
+
+ オペレーティング·システム
+ |
+
+
+ **Linux kernel:** 3.10以上
+ |
+
+
+
+
+ プロセッサー
+ |
+
+
+ 最新のマルチコアAMD64またはx86\_64 CPU
+ |
+
+
+
+
+ メモリー
+ |
+
+
+ CPU コアあたり 3.256 GiB の RAM (専用)
+ |
+
+
+
+
+ ディスクサイズ
+ |
+
+
+ ホストあたり最低50GiB
+ |
+
+
+
+
+ ディスクファイルシステム
+ |
+
+
+ NFSv4.1以降(NFSを使用している場合)
+ |
+
+
+
+
+ [ポッドマンバージョン](https://github.com/containers/podman/releases)
+ |
+
+
+ Podman [5.0.0-ce](https://github.com/containers/podman/releases/tag/v5.0.0)以上
+ |
+
+
+
+
+ プライベートロケーションキー
+ |
+
+
+ [秘密のロケーションキー](#private-location-key)が必要です
+ |
+
+
+
+
+
+ Podman 外形監視ジョブ マネージャーは、 AWS ECS、 Docker Swarm、 Apache Mesos、 Azureコンテナ インスタンスなどのコンテナ オーケストレーターで使用するように設計されていません。 Docker外形監視ジョブ マネージャーをコンテナー オーケストレーターで実行すると、それ自体がオーケストレーターとして機能するため、予期しない問題が発生します。 コンテナー オーケストレーションを使用している場合は、 [Kubernetes外形監視ジョブ マネージャーの要件」](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements)を参照してください。
@@ -148,7 +244,7 @@ Synthetics ジョブ マネージャーをホストするには、システム
-
+ |
の互換性
|
@@ -316,7 +412,7 @@ Synthetics ジョブ マネージャーをホストするには、システム
## 合成ジョブ マネージャーのインストール、更新、および構成 [#install]
-同じホスト内で複数の Docker プライベート ロケーション コンテナーを実行している場合、ポートの競合が発生します。このポートの競合を回避するには、ジョブ マネージャーのセットアップを開始するときに必ず次のことを行ってください。
+同じホスト内で複数のDockerまたは Podman プライベートロケーション コンテナーを実行している場合、ポートの競合が発生します。 このポート競合を回避するには、ジョブ マネージャーの設定を開始するときに、必ず次の操作を実行してください。
* 異なるホストでジョブ マネージャーと CPM を実行します。
* 各ジョブ マネージャーを個別のホストで実行します。
@@ -324,13 +420,13 @@ Synthetics ジョブ マネージャーをホストするには、システム
Synthetics ジョブ マネージャーのイメージは、 [Docker Hub](https://hub.docker.com/)でホストされています。[hub.docker.com/r/newrelic/synthetics-job-manager/tags](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags)に移動しますすべてのリリースのリストについては。
-ローカル イメージ リポジトリでイメージをホストしている場合を除き、Docker が合成ジョブ マネージャーと合成ランタイム イメージをプルできるように、ファイアウォールを介した`docker.io`への接続を許可する必要があります。Synthetics ジョブ マネージャーが起動すると、ランタイム イメージが自動的にプルされます。ローカル リポジトリとランナー レジストリ エンドポイントを設定する方法の詳細については、 [Docker 環境の構成](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#docker-env-config)と[Kubernetes 環境の構成](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#kubernetes-env-config)を参照してください。
+ローカル イメージ リポジトリでイメージをホストしている場合を除き、 Dockerまたは Podman が外形監視ジョブ マネージャーと合成ランタイム イメージをプルできるように、ファイア ウォールを介した `docker.io` への接続を許可する必要があります。 外形監視ジョブマネージャーが起動すると、ランタイムイメージが自動的に取得されます。 ローカルリポジトリとランナーレジストリエンドポイントの設定方法については、 [Docker環境設定](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#docker-env-config)、 [Podman環境設定](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#podman-env-config)、 [Kubernetes環境設定](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#kubernetes-env-config)を参照してください。
高度な構成設定の詳細については、 [synthetics ジョブ マネージャーの構成](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration)を参照してください。
## 合成ジョブ マネージャーを開始する [#start]
-以下は、ジョブ マネージャーを開始するための該当する Docker または Kubernetes の手順です。
+以下は、ジョブ マネージャーを起動するための Docker、Podman、または Kubernetes の適用可能な手順です。
1. [プライベートロケーションキー](#private-location-key)を見つけます。
- 2. サンドボックス用の[Docker 依存関係](#sandboxing-and-docker-deps)が有効になっており、システムに合成ジョブ マネージャーが[インストールされ](#install-update)ていることを確認してください。
+ 2. サンドボックスの[Docker依存関係](#docker-dependencies)が有効になっていて、システムに外形監視ジョブ マネージャー[がインストールされていること](#install-update)を確認してください。
3. システムに適したスクリプトを実行します。システムに合わせて、次の例の共通のデフォルト`/var/run/docker.sock`を調整します。
@@ -375,6 +471,43 @@ Synthetics ジョブ マネージャーのイメージは、 [Docker Hub](https:
```
+ >
+ }
+ >
+ 1. [プライベートロケーションキー](#private-location-key)を見つけます。
+ 2. サンドボックス用に[Podman 依存関係](#podman-dependencies)を有効にし、システムに外形監視ジョブ マネージャー[をインストールしている](#install-update)ことを確認してください。
+ 3. システムに対して以下のスクリプトを実行します。
+
+ Linux でポッドを作成し、ホスト マシンの IP アドレスを追加するには:
+
+ ```
+ podman pod create --name YOUR_POD_NAME --add-host=podman.service:IP_ADDRESS
+ ```
+
+ ジョブ マネージャーを起動するには:
+
+ ```
+ podman run \
+ --name YOUR_CONTAINER_NAME \
+ --pod YOUR_POD_NAME \
+ -e "PRIVATE_LOCATION_KEY=YOUR_PRIVATE_LOCATION_KEY" \
+ -e "CONTAINER_ENGINE=PODMAN" \
+ -e "PODMAN_API_SERVICE_PORT=YOUR_PODMAN_API_SERVICE_PORT" \
+ -e "PODMAN_POD_NAME=YOUR_POD_NAME" \
+ -d \
+ --restart unless-stopped \
+ newrelic/synthetics-job-manager:latest
+ ```
+
+ ミニオン コンテナのログを表示するには:
+
+ ```
+ podman logs --follow YOUR_CONTAINER_NAME
+ ```
+
+
Kubernetes の起動手順>
@@ -385,7 +518,7 @@ Synthetics ジョブ マネージャーのイメージは、 [Docker Hub](https:
2. Kubernetes クラスターで合成ジョブ マネージャーの名前空間を設定します。
```shell
- kubectl create namespace YOUR_NAMESPACE
+ kubectl create namespace YOUR_NAMESPACE
```
3. NewRelicHelmリポジトリからHelmチャートをコピーします。
@@ -428,7 +561,7 @@ Synthetics ジョブ マネージャーのイメージは、 [Docker Hub](https:
## Synthetics ジョブ マネージャーを停止または削除する [#stop]
-Docker コンテナー システム環境で、Docker `stop`プロシージャーを使用して、synthetics ジョブ マネージャーの実行を停止します。Kubernetes コンテナー オーケストレーション システム環境で、Kubernetes `delete`手順を使用して、合成ジョブ マネージャーの実行を停止します。
+Dockerまたは Podman コンテナ システム環境では、それぞれの `stop` プロシージャを使用して外形監視ジョブ マネージャーを停止します。 Kubernetesコンテナ オーケストレーション システム環境では、 Kubernetes `delete` プロシージャを使用して、外形監視ジョブ マネージャーの実行を停止します。
+ >
+ }
+ >
+ [Podman コンテナは、コンテナ名またはコンテナ ID のいずれかで停止](https://docs.podman.io/en/stable/markdown/podman-stop.1.html)できます。
+
+ * Linux のコンテナ名停止:
+
+ ```
+ podman stop YOUR_CONTAINER_NAME
+ podman rm YOUR_CONTAINER_NAME
+ ```
+
+ * Linux のコンテナ ID 停止:
+
+ 例では、コンテナは停止され、削除されます。コンテナのみを停止するには、 `podman rm $CONTAINER_ID`を省略します。
+
+ ```
+ CONTAINER_ID=$(podman ps -aqf name=YOUR_CONTAINER_NAME)
+ podman stop $CONTAINER_ID
+ podman rm $CONTAINER_ID
+ ```
+
+
Kubernetes 削除手順>
@@ -491,9 +649,9 @@ Docker コンテナー システム環境で、Docker `stop`プロシージャ
-## サンドボックスとDockerの依存関係 [#sandboxing-and-docker-deps]
+## サンドボックスと依存関係 [#sandboxing-and-deps]
-サンドボックスと Docker の依存関係は、Docker コンテナー システム環境の合成ジョブ マネージャーに適用されます。
+サンドボックス化と依存関係は、 Dockerまたは Podman コンテナ システム環境の外形監視ジョブ マネージャーに適用されます。
+
+ >
+ }
+ >
+ 外形監視ジョブ マネージャーは Podman で実行され、Podman をサンドボックス テクノロジーとして活用できます。 これにより、モニターの実行が完全に分離され、セキュリティ、信頼性、再現性が向上します。 スクリプトまたはbrowser監視が実行されるたびに、外形監視ジョブ マネージャーは新しい Podman コンテナを作成し、一致するランタイムを使用して実行します。
+
+ 追加のランタイム コンテナを生成するには、外形監視ジョブ マネージャー コンテナを Podman エンジンと通信するように構成する必要があります。 生成された各コンテナーは、外形監視ジョブ マネージャー コンテナーが関連付けられている[プライベート ロケーションで実行されている合成モニター](/docs/synthetics/new-relic-synthetics/using-monitors/add-edit-monitors)に関連付けられたチェックを実行する専用になります。
+
+ リリースには重要な依存関係があります。 サンドボックスを有効にするには、次の点を確認してください。
+
+ 1. Podman [5.0.0-ce](https://github.com/containers/podman/releases/tag/v5.0.0)以降をインストールしました。
+
+ 2. ルートレス実行を有効にしました:
+
+ * ルート権限を必要とせずにコンテナを実行するように Podman を設定します。
+ ```
+ mkdir -p ~/.config/containers
+ touch ~/.config/containers/containers.conf
+ vi ~/.config/containers/containers.conf
+ ```
+ * `containers.conf`ファイルを編集して、Podman が`crun`と`systemd`使用するように設定します。
+ ```
+ [engine]
+ runtime = "crun"
+ cgroup_manager = "systemd"
+ ```
+
+ 3. cgroups v2 を有効にしました (RHEL のみ):
+ * GRUB を編集して cgroups v2 を有効にします。これにより、RHEL の最新のコンテナ ランタイムとの互換性が確保されます。
+ ```
+ sudo sed -i 's/GRUB_CMDLINE_LINUX="/&systemd.unified_cgroup_hierarchy=1 /' /etc/default/grub
+ sudo grub2-mkconfig -o /boot/grub2/grub.cfg
+ sudo reboot
+ ```
+
+ 4. システム全体の委任を有効にして、Podman サービスの`cgroups`委任を許可しました。
+ ```
+ sudo mkdir -p /etc/systemd/system/user@.service.d/
+ echo -e "[Service]\nDelegate=yes" | sudo tee /etc/systemd/system/user@.service.d/delegate.conf > /dev/null
+ ```
+
+ 5. ユーザーレベルの`systemd`サービスを設定します。
+
+ * ユーザー レベルの`systemd`サービス用のディレクトリを作成します。
+ ```
+ mkdir -p ~/.config/systemd/user/podman.service.d
+ ```
+ * デリゲート設定をユーザーレベルの`systemd`サービスに追加します。
+ ```
+ echo -e "[Service]\nDelegate=yes" > ~/.config/systemd/user/podman.service.d/override.conf
+ ```
+
+ 6. Podman ソケットを有効にして起動しました。
+ ```
+ systemctl --user enable podman.socket
+ systemctl --user start podman.socket
+ systemctl --user status podman.socket
+ ```
+
+ 7. Podman API サービスを作成して構成しました。
+
+ * Podman API サービスを作成し、HTTP API アクセスを提供するように Podman を設定します。
+ ```
+ mkdir -p ~/.config/systemd/user
+ touch ~/.config/systemd/user/podman-api.service
+ vi ~/.config/systemd/user/podman-api.service
+ ```
+ * ポート 8000 で Podman の API を公開するサービスを定義します。
+ ```
+ [Unit]
+ Description=Podman API Service
+ After=default.target
+
+ [Service]
+ Type=simple
+ ExecStart=/usr/bin/podman system service -t 0 tcp:0.0.0.0:8000
+ Restart=on-failure
+
+ [Install]
+ WantedBy=default.target
+ ```
+
+ 8. Podman API サービスを有効にして開始しました。
+ ```
+ systemctl --user daemon-reload
+ systemctl --user enable podman-api.service
+ systemctl --user start podman-api.service
+ systemctl --user status podman-api.service
+ ```
+
+
+ ホスト上のコア数によって、外形監視ジョブ マネージャーがホスト上で同時に実行できるランタイム コンテナの数が決まります。 メモリ要件はランタイム コンテナーの予想される数に合わせて調整されるため、リソースの競合を回避するために**not running multiple synthetics job managers on the same host**を推奨します。
+
+
+
+
## セキュリティ、サンドボックス化、および非ルートとしての実行 [#security]
デフォルトでは、合成ジョブ マネージャー内で実行されているソフトウェアは、 `root`ユーザー権限で実行されます。実行がサンドボックス化されるため、これはほとんどのシナリオに適しています。
@@ -559,7 +815,7 @@ Docker コンテナー システム環境で、Docker `stop`プロシージャ
-## Docker または Kubernetes 環境を理解する [#understand]
+## Docker、Podman、Kubernetes環境を理解する [#understand]
以下は、ジョブ マネージャーのコンテナー環境の維持と理解に関する追加情報です。ライセンス情報を表示し、ジョブ マネージャーのネットワーク設定を理解し、Docker イメージ リポジトリを確認します。
@@ -567,7 +823,7 @@ Docker コンテナー システム環境で、Docker `stop`プロシージャ
必要に応じて、次のオプションを使用してください。
- * Docker ログを追跡し、モニターの正常性を確認するには、 [synthetics ジョブ マネージャーのメンテナンスと監視](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring)を参照してください。
+ * Dockerまたは Podman のログを追跡し、モニターの状態を確認するには、 [外形監視ジョブ マネージャーのメンテナンスと監視を](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring)参照してください。
* Kubernetes コンテナー オーケストレーション システム環境の合成ジョブ マネージャーの場合、次の Helm `show`コマンドを使用して、それぞれ`chart.yaml`と`values.yaml`を表示できます。
@@ -590,10 +846,12 @@ Docker コンテナー システム環境で、Docker `stop`プロシージャ
ブリッジ ネットワークは、合成ジョブ マネージャーとランタイム コンテナー間の通信用に作成されます。つまり、 `--network`や`--dns`などのネットワーク コマンド オプションは、起動時に (Docker コンテナー システム環境で Docker 実行コマンドを介して) 合成ジョブ マネージャー コンテナーに渡され、ランタイム コンテナーによって継承または使用されません。
これらのネットワークが作成されると、デーモン用に構成されたデフォルトのIPアドレスプールからプルされます。Dockerコンテナシステム環境でのこの例については、 [Dockerサイト](https://docs.docker.com/engine/reference/commandline/dockerd/#daemon-configuration-file)を参照してください。
+
+ Podman の場合、外形監視ジョブ マネージャーとランタイム コンテナ間の通信にブリッジ ネットワークを使用せず、代わりに Podman ポッドを使用します。 Podman ポッド内のすべてのコンテナは、同じネットワーク ネームスペースを共有します。 つまり、そのポッド内で同じ IP アドレスを共有することになります。 この場合、コンテナは同じ IP を共有しますが、サービスは異なるポートで公開されます。
- 単一の合成ジョブ マネージャー Docker イメージは、Docker コンテナー システム環境と Kubernetes コンテナー オーケストレーション システム環境の両方を提供します。Docker イメージは Docker Hub でホストされています。Docker イメージが最新であることを確認するには、 [Docker Hub newrelic/synthetics-job-manager リポジトリ](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags)を参照してください。
+ 単一の外形監視ジョブ マネージャーDockerイメージは、 Docker 、Podman、およびKubernetesコンテナー オーケストレーション システム環境にサービスを提供します。 Docker イメージは Docker Hub でホストされています。 Docker イメージが最新であることを確認するには、 [Docker Hub の newrelic/synthetics-job-manager リポジトリを](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags)参照してください。
@@ -639,7 +897,7 @@ Docker コンテナー システム環境で、Docker `stop`プロシージャ
- これは、Docker コンテナー環境にのみ適用されます。起動時に合成ジョブ マネージャー コンテナーに渡される引数は、合成ジョブ マネージャーによって生成されたランタイム コンテナーには渡されません。Docker にはコンテナーの「継承」や「階層」の概念がなく、synthetics ジョブ マネージャーからランタイム コンテナーに渡される構成をコピーしません。それらの間の唯一の共有構成は、 [Docker デーモン](https://docs.docker.com/config/daemon/)レベルで設定されたものです。
+ これは Docker および Podman コンテナ環境にのみ適用されます。 リリース時に外形監視ジョブ マネージャー コンテナに渡された引数は、外形監視ジョブ マネージャーによって生成されたランタイム コンテナには渡されません。 Dockerや Podman にはコンテナの「継承」や「階層」の概念がなく、外形監視ジョブマネージャから渡される設定を実行時コンテナにコピーすることはありません。 ただし、Podman の場合、ポッド レベルで渡される引数は、外形監視ジョブ マネージャーとポッド内のランタイム コンテナの間で共有されます。 それら間で共有される唯一の構成は、 [Docker デーモン](https://docs.docker.com/config/daemon/)レベルで設定される構成です。
|
diff --git a/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx b/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
index ab3f3b7d9e2..c8d50dd0280 100644
--- a/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
+++ b/src/i18n/content/jp/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
@@ -13,7 +13,7 @@ translationType: machine
* シンセティック ジョブ マネージャーが正常であり、[シンセティック ジョブ マネージャー ステータス エンドポイント](#sjm-status)で動作しているかどうかを確認します。
* プライベートな場所が十分にプロビジョニングされておらず、[より多くの合成ジョブ マネージャーが必要](#more-jobmanagers)かどうかを確認します。
-* [Docker ログ](#monitor-docker-logs)または[Kubernetes ログ](#monitor-docker-logs)を確認します。
+* [Docker ログ](#monitor-docker-logs)、 [Podman ログ](#monitor-podman-logs)、または[Kubernetes ログ](#monitor-docker-logs)を確認します。
[New Relic のアラート](/docs/synthetics/synthetic-monitors/using-monitors/alerts-synthetic-monitoring)を使用して、モニターの失敗の通知を受け取ることもできます。
@@ -57,6 +57,18 @@ HTTP を使用して実行中の合成ジョブ マネージャーに接続す
```
+ >
+ }
+ >
+ これは、外形監視ジョブ マネージャーが Podman コンテナ システム環境で適切に動作していることを示す外形監視ジョブ マネージャー ログの例です。
+
+ ```
+ $podman logs [YOUR_CONTAINER_NAME]
+ ```
+
+
>
@@ -109,6 +121,22 @@ Synthetics ジョブ マネージャーで問題が発生した場合は、デ
```
+ >
+ }
+ >
+
+ `-f`を`Podman logs`に追加すると、コマンドはログに追従します。
+
+
+ ```
+ podman run ... -e LOG_LEVEL=DEBUG ...
+ podman logs -f YOUR_CONTAINER_NAME
+ ... verbose logging continues ...
+ ```
+
+
>
diff --git a/src/i18n/content/kr/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx b/src/i18n/content/kr/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx
index e572e5a9e16..7a3d973a8ed 100644
--- a/src/i18n/content/kr/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx
+++ b/src/i18n/content/kr/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx
@@ -1940,6 +1940,56 @@ common: &default_settings
+## 클라우드 설정
+
+에이전트 YAML의 `cloud` 섹션에서 클라우드 관련 옵션을 설정합니다. `newrelic.config.cloud` 접두사가 붙은 [시스템 속성](/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file/#System_Properties)이나 `NEW_RELIC_CLOUD_` 접두사가 붙은 [환경 변수](/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file/#Environment_Variables)를 사용해 이 설정을 재정의할 수 있습니다.
+
+설정의 예:
+
+```yml
+cloud:
+ aws:
+ account_id: 123456789012
+```
+
+
+
+
+
+
+
+ Type
+ |
+
+
+ 문자열
+ |
+
+
+
+
+ 기본
+ |
+
+
+ (없음)
+ |
+
+
+
+
+ 이 설정은 일부 클라우드 서비스를 계측할 때 사용되므로 각 스팬에서 `cloud.resource_id` 속성을 설정할 수 있습니다.
+
+ AWS DynamoDB와 Kinesis가 `cloud.resource_id` 속성을 채우기 위해 이 값이 필요한 서비스입니다. AWS Lambda에서는 계정 ID가 함수 이름에 포함되지 않은 경우 이 값이 필요합니다.
+
+ 다음 호출은 이 설정을 재정의합니다.
+
+ ```java
+ NewRelic.getAgent().getCloud().setAccountInfo(CloudAccountInfo.AWS_ACCOUNT_ID, "...");
+ ```
+
+
+
## 클라우드 플랫폼 활용 [#utilization]
`utilization` 섹션에서 클라우드 플랫폼 활용 설정을 지정하고 `newrelic.config.utilization` 접두사가 붙은 시스템 속성으로 재정의할 수 있습니다.
@@ -3301,7 +3351,7 @@ Java 에이전트는 애플리케이션 클래스 경로에서 jar 및 해당
Java 에이전트는 JFR(Java Flight Recorder)을 사용하여 [실시간 프로파일링](/docs/agents/java-agent/features/real-time-profiling-java-using-jfr-metrics/)을 위해 충실도가 높은 JVM 데이터를 수집합니다.
-`newrelic.config.jfr.` 접두사가 붙은 [시스템 속성](#System_Properties) 또는 `NEW_RELIC_JFR_` 접두사가 붙은 [환경 변수](#Environment_Variables)를 사용하여 에이전트 YAML의 `jfr` 섹션에서 실시간 프로파일링을 구성합니다.
+에이전트 YAML의 `jfr` 섹션에서 실시간 프로파일링을 설정합니다. 이 설정 옵션은 `newrelic.config.jfr.`로 시작하는 [시스템 속성](#System_Properties)이나 `NEW_RELIC_JFR_`로 시작하는 [환경 변수](#Environment_Variables)로 재정의할 수 있습니다.
@@ -3437,11 +3487,109 @@ Java 에이전트는 JMX를 사용하여 JVM 데이터를 수집합니다. 또
+## JVM 속성 난독화
+
+Java 에이전트는 JVM 속성을 뉴렐릭으로 보내 UI에 표시합니다. Java 에이전트 버전 `8.16.0`부터 대부분의 속성 값이 난독화됩니다. 예를 들어: `-Dprop=12345`는 이제 `-Dprop=obfuscated`로 전송됩니다.
+
+에이전트 YAML의 `obfuscate_jvm_props` 섹션에서 난독화 관련 옵션을 설정합니다. `newrelic.config.obfuscate_jvm_props` 접두사가 붙은 [시스템 속성](/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file/#System_Properties)이나 `NEW_RELIC_OBFUSCATE_JVM_PROPS_` 접두사가 붙은 [환경 변수](/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file/#Environment_Variables)를 사용해 이 설정을 재정의할 수 있습니다.
+
+기본적으로 `-X`로 시작하는 속성 값은 난독화되지 않습니다.
+
+
+
+
+
+
+
+ Type
+ |
+
+
+ Boolean
+ |
+
+
+
+
+ 기본
+ |
+
+
+ `true`
+ |
+
+
+
+
+ JVM 속성의 난독화를 활성화/비활성화하는 데 사용됩니다.
+
+
+
+
+
+
+
+ Type
+ |
+
+
+ 문자열 목록
+ |
+
+
+
+
+ 기본
+ |
+
+
+ (없음)
+ |
+
+
+
+
+ 난독화가 활성화된 경우 속성 키가 이 목록에 포함된 값과 일치하면 그 값은 난독화되지 않습니다.
+
+ 이 목록의 항목에는 와일드카드( `*`가 마지막 문자로 지정될 수 있습니다. 차단(block) 목록과의 충돌은 [속성 규칙](/docs/apm/agents/java-agent/attributes/java-agent-attributes/#attruls)에 따라 해결되며, 그러한 경우 `allow`가 `include`로 작동합니다.
+
+
+
+
+
+
+
+ Type
+ |
+
+
+ 문자열 목록
+ |
+
+
+
+
+ 기본
+ |
+
+
+ (없음)
+ |
+
+
+
+
+ 난독화가 활성화된 경우 속성 키가 이 목록에 포함된 값과 일치하면 그 값은 난독화됩니다.
+
+ 이 목록의 항목에는 와일드카드( `*`가 마지막 문자로 지정될 수 있습니다. 허용(allow) 목록과의 충돌은 [속성 규칙](/docs/apm/agents/java-agent/attributes/java-agent-attributes/#attruls)에 따라 해결되며, 그러한 경우 `block`이 `exclude`로 작동합니다.
+
+
+
## Kafka 메시지 대기열 [#kafka-message-queues]
Kafka 계측 설정에 대한 자세한 정보는 [Kafka 메시지 대기열 계측](/docs/apm/agents/java-agent/instrumentation/java-agent-instrument-kafka-message-queues/) 페이지에서 확인할 수 있습니다.
-* \[Kafka event collection(/docs/apm/agents/java-agent/instrumentation/java-agent-instrument-kafka-message-queues/#collect-kafka-events)
+* [Kafka 이벤트 수집](/docs/apm/agents/java-agent/instrumentation/java-agent-instrument-kafka-message-queues/#collect-kafka-events)
* [Kafka 노드 메트릭](/docs/apm/agents/java-agent/instrumentation/java-agent-instrument-kafka-message-queues/#kafka-node-metrics)
* [Kafka 구성 이벤트](/docs/apm/agents/java-agent/instrumentation/java-agent-instrument-kafka-message-queues/#kafka-config)
* [Kafka는 스트림 트랜잭션](/docs/apm/agents/java-agent/instrumentation/java-agent-instrument-kafka-message-queues/#collect-kafka-streams-transactions)
diff --git a/src/i18n/content/kr/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx b/src/i18n/content/kr/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx
index 25de597e744..6735dd3b264 100644
--- a/src/i18n/content/kr/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx
+++ b/src/i18n/content/kr/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx
@@ -229,7 +229,7 @@ Java 에이전트를 설치하기 전에 시스템이 다음 요구 사항을
* SqsClient 2.1.0 최신 버전
- * Struts 2.0 최신 버전
+ * Struts 2.0 - 6.6.1
* 0.8.0을 최신으로 절약
diff --git a/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx b/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx
index 46220844586..352ad220733 100644
--- a/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx
+++ b/src/i18n/content/kr/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx
@@ -251,7 +251,7 @@ Node.js 에이전트는 [npm(Node Package Manager) 저장소](https://npmjs.org/
**참고**: 지원되는 최신 버전은 지원되는 최신 버전을 반영하지 않을 수 있습니다.
-| 패키지 이름 | 최소 지원 버전 | 최신 지원 버전 | 도입된 버전\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.9.3 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.11.2 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.696.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.16.1 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.12.2 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.12 | 9.0.0 | | `@koa/router` | 11.0.2 | 13.1.0 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.3.18 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.8 | 10.1.0 | | `@prisma/client` | 5.0.0 | 5.22.0 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.4.4 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.4 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1692.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.21.1 | 2.6.0 | | `fastify` | 2.0.0 | 5.1.0 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 13.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.10.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.4 | 1.32.0 | | `next` | 13.4.19 | 15.0.3 | 12.0.0 | | `openai` | 4.0.0 | 4.73.0 | 11.13.0 | | `pg` | 8.2.0 | 8.13.1 | 9.0.0 | | `pg-native` | 3.0.0 | 3.2.0 | 9.0.0 | | `pino` | 7.0.0 | 9.5.0 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.1.1 | 4.9.0 | | `undici` | 5.0.0 | 6.21.0 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.17.0 | 8.11.0 |
+| 패키지 이름 | 최소 지원 버전 | 최신 지원 버전 | 도입된 버전\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.9.3 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.11.2 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.705.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.705.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.699.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.699.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.705.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.16.2 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.12.4 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.12 | 9.0.0 | | `@koa/router` | 11.0.2 | 13.1.0 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.3.20 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.8 | 10.1.0 | | `@prisma/client` | 5.0.0 | 6.0.1 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.4.5 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.5 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1692.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.21.1 | 2.6.0 | | `fastify` | 2.0.0 | 5.1.0 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 13.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.11.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.5 | 1.32.0 | | `next` | 13.4.19 | 15.0.3 | 12.0.0 | | `openai` | 4.0.0 | 4.75.0 | 11.13.0 | | `pg` | 8.2.0 | 8.13.1 | 9.0.0 | | `pg-native` | 3.0.0 | 3.2.0 | 9.0.0 | | `pino` | 7.0.0 | 9.5.0 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.1.1 | 4.9.0 | | `undici` | 5.0.0 | 7.1.0 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.17.0 | 8.11.0 |
\*패키지를 지정하지 않으면 `newrelic` 패키지 내에서 지원됩니다.
diff --git a/src/i18n/content/kr/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration.mdx b/src/i18n/content/kr/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration.mdx
index 0e75f8c660e..3c4099f13c7 100644
--- a/src/i18n/content/kr/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration.mdx
+++ b/src/i18n/content/kr/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration.mdx
@@ -3958,6 +3958,82 @@ Node.js 에이전트의 로그 구성에 대한 팁은 [Node.js의 문맥적 로
샘플링된 트랜잭션에 대한 모든 로그가 기록된 후 `max_samples_stored`의 한도에 도달하지 않은 경우 샘플링에 없는 트랜잭션에 대한 로그 메시지가 전송됩니다. 남아 있는 경우 트랜잭션 외부의 로그 메시지가 기록됩니다.
+
+
+
+
+
+ Type
+ |
+
+
+ Boolean
+ |
+
+
+
+
+ 기본
+ |
+
+
+ 거짓
+ |
+
+
+
+
+ [환경 변수](#environment)
+ |
+
+
+ `NEW_RELIC_APPLICATION_LOGGING_FORWARDING_LABELS_ENABLED`
+ |
+
+
+
+
+ 에이전트가 뉴렐릭으로 보내기 위해 로그 레코드에 라벨을 추가할지 여부를 토글로 설정합니다.
+
+
+
+
+
+
+
+ Type
+ |
+
+
+ Array
+ |
+
+
+
+
+ 기본
+ |
+
+
+ \[]
+ |
+
+
+
+
+ [환경 변수](#environment)
+ |
+
+
+ `NEW_RELIC_APPLICATION_LOGGING_FORWARDING_LABELS_EXCLUDE`
+ |
+
+
+
+
+ 로그에 라벨을 포함하도록 활성화할 때 제외시킬 라벨 이름의 목록으로 대소문자를 구분하지 않습니다. 이 속성은 와일드카드나 정규식을 지원하지 않습니다.
+
+
diff --git a/src/i18n/content/kr/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx b/src/i18n/content/kr/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx
index 0803281b56f..b8af55cd2ec 100644
--- a/src/i18n/content/kr/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx
+++ b/src/i18n/content/kr/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx
@@ -480,10 +480,6 @@ New Relic의 Ruby 에이전트 [버전 3.17.0 이상](/docs/release-notes/agent-
-
- ORM
- |
-
데이터 베이스
|
@@ -500,10 +496,6 @@ New Relic의 Ruby 에이전트 [버전 3.17.0 이상](/docs/release-notes/agent-
-
- 액티브 레코드 5 이상
- |
-
[PostgreSQL](https://www.postgresql.org/)
|
@@ -531,53 +523,19 @@ New Relic의 Ruby 에이전트 [버전 3.17.0 이상](/docs/release-notes/agent-
-
-
- 액티브 레코드 2.1-4
- |
-
-
- [PostgreSQL](https://www.postgresql.org/)
- |
-
-
- [페이지](https://rubygems.org/gems/pg)
- |
-
-
- 3.17.0
- |
-
-
[MySQL](https://www.mysql.com/)
|
- [mysql](https://rubygems.org/gems/mysql)
+ [삼부작](https://rubygems.org/gems/trilogy)
|
- 3.17.0
+ 9.16.1
|
-
-
-
- [MySQL](https://www.mysql.com/)
- |
-
-
- [mysql2](https://rubygems.org/gems/mysql2)
- |
-
-
- 3.17.0
- |
-
- |
-
@@ -776,13 +734,12 @@ Ruby 에이전트에서 지원하는 HTTP 클라이언트는 다음과 같습니
## 메시지 큐잉 [#http\_clients][#http_clients]
-[메시지 큐 계측](/docs/agents/ruby-agent/features/message-queues) 은 [Ruby 에이전트 버전 4.3.0 이상](/docs/release-notes/agent-release-notes/ruby-release-notes) 에서만 사용할 수 있습니다. 현재 지원되는 메시지 브로커:
-
-* RabbitMQ
-
-메시지 브로커를 용이하게 하는 현재 지원되는 gem:
+현재 지원되는 젬은 [다음과 같습니다](/docs/agents/ruby-agent/features/message-queues).
-* [Bunny](/docs/agents/ruby-agent/features/message-queues): 2.0 이상(버전 2.0.x - 2.6.x는 에이전트 버전 8.16.0에서 마지막으로 지원됨)
+* Bunny: 2.0 이상(버전 2.0.x - 2.6.x는 에이전트 버전 8.16.0에서 마지막으로 지원됨)
+* AWS SQS
+* 르드카프카
+* 루비-카프카
## 다른
diff --git a/src/i18n/content/kr/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx b/src/i18n/content/kr/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx
index 2a73c8e290c..df7a3111963 100644
--- a/src/i18n/content/kr/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx
+++ b/src/i18n/content/kr/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx
@@ -195,7 +195,7 @@ translationType: machine
* 에이전트 버전 v1.260.0 이상. 지속적인 개선을 위해 [최신 에이전트 버전으로 업그레이드하는](/docs/release-notes/new-relic-browser-release-notes/browser-agent-release-notes) 것이 좋습니다.
* 에이전트 유형: Pro 또는 Pro+SPA. 세션 재생은 Lite 브라우저 에이전트에서 작동하지 않습니다.
- * [세션 추적](/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking/#settings) 및 세션 추적이 활성화됩니다.
+ * [세션 추적이](/docs/browser/browser-monitoring/browser-pro-features/session-traces-explore-webpages-life-cycle/#requirements) 활성화되었습니다.
* 최종 사용자의 브라우저는 세션 리플레이를 기록하는 데 필요한 브라우저 수준 API 지원합니다( [MutationObserver](https://caniuse.com/mutationobserver) 에서 호환성 확인).
diff --git a/src/i18n/content/kr/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx b/src/i18n/content/kr/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx
index 9ea959a5235..1ce95f25f6d 100644
--- a/src/i18n/content/kr/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx
+++ b/src/i18n/content/kr/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx
@@ -34,11 +34,4 @@ translationType: machine
* 사용자가 브라우저에서 DOM 저장소를 비활성화한 경우.
* 브라우저 또는 페이지가 보안 정책 또는 기타 수단을 통한 타사 원본 스크립트의 로드 및 실행을 허용 **하지 않도록** 구성된 경우(자연스럽게 전체 에이전트가 작동하지 않음을 의미함).
- * localStorage와 같은 브라우저 저장 API는 활성 세션 중에 지워집니다.
-
-## 추적 활성화 또는 비활성화 [#settings]
-
-New Relic은 데이터 프라이버시를 진지하게 생각합니다. 기본적으로 당사는 브라우저 에이전트가 수집한 개인 데이터를 보유하지 않으며 귀하는 세션 추적을 제어할 수 있습니다. 웹사이트 방문자의 웹 브라우저에서 세션 추적을 활성화 또는 비활성화하려면:
-
-1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Browser > (select an app) > Settings > Application settings** 으)로 이동합니다.
-2. 앱의 **Privacy** 설정에서 **Session tracking** 전환합니다.
\ No newline at end of file
+ * localStorage와 같은 브라우저 저장 API는 활성 세션 중에 지워집니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx b/src/i18n/content/kr/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx
index 0b1f869de2f..a87c9d5fe08 100644
--- a/src/i18n/content/kr/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx
+++ b/src/i18n/content/kr/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx
@@ -176,7 +176,7 @@ translationType: machine
- 애플리케이션이 주로 보안된 로컬 네트워크 내에 로드되는 경우 사용자가 브라우저 데이터를 보고하기 위해 필요한 네트워크 엔드포인트에 접속할 수 있는지 확인하세요. 여기에는 뉴렐릭의 [CDN과 비콘이](/docs/browser/new-relic-browser/performance-quality/security-new-relic-browser#cdn) 포함됩니다.
+ 애플리케이션이 주로 보안 로컬 네트워크 내에서 로드되는 경우 사용자가 브라우저 데이터를 보고하는 데 필요한 네트워크 엔드포인트에 연결할 수 있는지 확인하십시오. 여기에는 New Relic의 [CDN과 비콘](/docs/browser/new-relic-browser/performance-quality/security-new-relic-browser#cdn) 이 포함됩니다.
diff --git a/src/i18n/content/kr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx b/src/i18n/content/kr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx
index 18b08d3db56..d75d9ca458d 100644
--- a/src/i18n/content/kr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx
+++ b/src/i18n/content/kr/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx
@@ -44,7 +44,7 @@ newrelic.wrapLogger(parent: Object, functionName: string, options?: Object<{ cus
이 메서드에 유효한 부모 컨테이너와 자식 함수 이름을 제공하면 래핑된 함수가 호출될 때마다 브라우저 에이전트가 새 로그 이벤트를 기록합니다. 첫 번째 인수는 호출된 함수에 로그 메시지로 전달됩니다. 로그 이벤트에 대한 자세한 내용은 [로그 UI를](/docs/logs/ui-data/use-logs-ui/) 참조하세요.
-선택적 설정은 `options` 인수를 사용하여 캡처된 로그와 함께 전달될 수 있습니다. `options` 인수(`options.customAttributes`)에서 API 호출에 제공된 모든 사용자 정의 속성은 이 래퍼에서 생성된 모든 로그 이벤트에 최상위 속성으로 추가됩니다. `options` 인수(`options.level`)에 `level` 를 제공하여 캡처된 로그의 `level` 를 제어할 수 있습니다. 기본값은 `info` 입니다. 성공적으로 래핑되면 함수의 로깅 감지를 변경할 수 없습니다.
+`options` 인수를 사용하여 캡처된 로그와 함께 선택적 설정을 전달할 수 있습니다. `options` 인수(`options.customAttributes`)에서 API 호출에 제공된 모든 사용자 정의 속성은 이 래퍼에서 생성된 모든 로그 이벤트에 최상위 속성으로 추가됩니다. 캡처된 로그의 `level` 제어하려면 `options` 인수(`options.level`)에 `level` 제공합니다. 기본적으로 클러스터 레벨은 `info` 으로 설정되어 있습니다.
## 매개변수 [#wrap-parameters]
diff --git a/src/i18n/content/kr/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx b/src/i18n/content/kr/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx
index 4e8ca54b481..aaf1fc59433 100644
--- a/src/i18n/content/kr/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx
+++ b/src/i18n/content/kr/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx
@@ -115,7 +115,7 @@ New Relic은 속성이 매핑된 후 방문자의 IP 주소를 유지하지 않
이 정보는 선택한 앱의 [**Geography** 페이지](/docs/browser/new-relic-browser/additional-standard-features/geography-webpage-performance-location) 에 표시됩니다. 또한 특정 브라우저 유형에 대한 세부정보는 선택한 앱의 [**Browsers** 페이지](/docs/browser/new-relic-browser/additional-standard-features/browsers-problem-patterns-type-or-location) 에 표시됩니다.
-## CDN 액세스 [#traces]
+## CDN 액세스 [#cdn]
페이지 로드 타이밍은 New Relic의 유틸리티 JavaScript 파일( `nr.js` )이 호스팅되는 CDN(콘텐츠 전송 네트워크)에 대한 액세스가 필요합니다. 파일( `js-agent.newrelic.com` )의 도메인 이름은 그대로 유지되지만 경로(버전)의 번호는 주기적으로 변경될 수 있습니다.
@@ -125,7 +125,7 @@ New Relic은 속성이 매핑된 후 방문자의 IP 주소를 유지하지 않
최종 사용자가 방화벽이나 프록시 뒤에 있고 CDN 또는 New Relic의 [네트워크](/docs/apm/new-relic-apm/getting-started/networks) ( `bam.nr-data.net` 및 `bam-cell.nr-data.net` 포함)에 대한 액세스 권한이 없는 경우 브라우저 모니터링이 작동하지 않습니다.
-## 쿠키
+## 쿠키 [#cookies]
현재 에이전트(버전 1220 이상)의 경우 타사 쿠키 사용이 더 이상 지원되지 않습니다.
diff --git a/src/i18n/content/kr/docs/codestream/observability/code-level-metrics.mdx b/src/i18n/content/kr/docs/codestream/observability/code-level-metrics.mdx
index 16beb6162cc..3f672875078 100644
--- a/src/i18n/content/kr/docs/codestream/observability/code-level-metrics.mdx
+++ b/src/i18n/content/kr/docs/codestream/observability/code-level-metrics.mdx
@@ -1,7 +1,7 @@
---
title: 코드 수준 측정항목
metaDescription: See performance data at the method level.
-freshnessValidatedDate: '2024-03-14T00:00:00.000Z'
+freshnessValidatedDate: '2024-12-04T00:00:00.000Z'
translationType: machine
---
@@ -36,12 +36,11 @@ SINCE 30 minutes ago LIMIT MAX
편집기 내 성능 데이터를 보려면 서비스가 아래 나열된 요구 사항을 충족해야 하며 서비스가 지난 30분 동안 데이터를 수집했어야 합니다.
* [분산 추적을](/docs/distributed-tracing/enable-configure/language-agents-enable-distributed-tracing) 사용하도록 설정해야 합니다. 분산 추적은 모든 에이전트의 최신 버전에서 기본적으로 켜져 있으므로 분산 추적을 비활성화한 경우에만 이에 대해 걱정하면 됩니다.
-* **Go:** Go 에이전트 버전 3.24.0 이상이 필요합니다. VS Code를 사용하는 경우 언어 서버가 활성화된 상태로 [Go for VS Code](https://marketplace.visualstudio.com/items?itemName=golang.go) 확장도 설치되어 있어야 합니다.
-* **Java:** 잔류 에이전트 버전 7.11.0 이상이 필요합니다. 코드 레벨 지표는 [지원되는 Java 프레임워크](/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent/#frameworks) 로 구현된 프로젝트에서만 사용할 수 있습니다. VS Code를 사용하는 경우 [Red Hat 확장의 Java 언어 지원](https://marketplace.visualstudio.com/items?itemName=redhat.java) 도 설치되어 있어야 합니다. Kotlin 지원은 IntelliJ에서만 사용할 수 있습니다.
-* **.NET:** .NET 에이전트 버전 10.2.0 이상이 필요합니다. Visual Studio를 사용하는 경우 **Tools > Options > Text Editor > All Languages > CodeLens** 으로 이동하여 CodeLense가 활성화되어 있는지 확인하고 "Enable CodeLens" 및 "Show CodeStream 코드 레벨 메트릭 표시"가 모두 선택되어 있는지 확인하세요. VS Code를 사용하는 경우 [C#](https://marketplace.visualstudio.com/items?itemName=ms-dotnettools.csharp) 확장이 설치되어 있어야 합니다.
-* **Node.js:** Node.js 에이전트 버전 10.5.0 이상이 필요합니다. 코드베이스에 익명 함수가 포함된 경우 [변경 추적을](/docs/change-tracking/change-tracking-introduction/) 사용하여 구현, 배포 정보를 뉴렐릭으로 보내거나 빌드 파이프라인의 [환경 변수를 통해 빌드 SHA를 보내야](/docs/codestream/observability/error-investigation/#buildsha) 합니다.
-* **PHP:** PHP 에이전트 버전 10.6.0 이상이 필요합니다. VS Code를 사용하는 경우 [PHP Intelephense](https://marketplace.visualstudio.com/items?itemName=bmewburn.vscode-intelephense-client) 확장도 설치되어 있어야 합니다.
-* **Python:** Python 에이전트 버전 7.10.0.175 이상이 필요합니다. 코드 레벨 지표는 [지원되는 Python 프레임워크](/docs/apm/agents/python-agent/getting-started/instrumented-python-packages) 와 PHP 버전 7.0 이상으로 구현된 프로젝트에서만 사용할 수 있습니다. VS Code를 사용하는 경우 언어 서버가 활성화된 [Python](https://marketplace.visualstudio.com/items?itemName=ms-python.python) 확장도 설치되어 있어야 합니다.
-* **Ruby:** 루비 에이전트 버전 8.10.0 이상이 필요합니다. 코드 레벨 지표는 수동 트레이스가 포함된 Rails 및 루비 메서드에만 사용할 수 있습니다([루비 메서드 및 CodeStream에 대해 자세히 알아보세요](/docs/apm/agents/ruby-agent/features/ruby-codestream-integration)). VS Code를 사용하는 경우 [루비 LSP](https://marketplace.visualstudio.com/items?itemName=Shopify.ruby-lsp) 확장 프로그램도 설치되어 있어야 합니다.
+* VS Code를 사용하는 경우, [자바](https://marketplace.visualstudio.com/items?itemName=redhat.java), [C#](https://marketplace.visualstudio.com/items?itemName=ms-dotnettools.csharp), [PHP](https://marketplace.visualstudio.com/items?itemName=bmewburn.vscode-intelephense-client), [파이썬](https://marketplace.visualstudio.com/items?itemName=ms-python.python), [Go](https://marketplace.visualstudio.com/items?itemName=golang.go) 또는 [루비에](https://marketplace.visualstudio.com/items?itemName=Shopify.ruby-lsp) 대한 언어 지원을 위해 확장 프로그램을 설치해야 합니다.
+* **Java:** 코드 레벨 메트릭은 [지원되는 지속 프레임워크](/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent/#frameworks) 로 구현된 프로젝트에서만 사용할 수 있습니다. Kotlin 지원은 IntelliJ에서만 제공됩니다.
+* **.NET:** Visual Studio를 사용하는 경우 **Tools > Options > Text Editor > All Languages > CodeLens** 에서 CodeLenses가 활성화되었는지 확인하고 **Enable CodeLens** 와 **Show CodeStream Code-Level Metrics** \[Show CodeStream 코드 레벨 지표가] 모두 선택되어 있는지 확인하세요.
+* **Node.js:** 코드베이스에 익명 함수가 포함된 경우 [추적 변경을](/docs/change-tracking/change-tracking-introduction/) 사용하여 형상, 배포 정보를 뉴렐릭으로 보내거나 빌드 파이프라인의 [환경 변수를 사용하여 빌드 SHA를](/docs/codestream/observability/error-investigation/#buildsha) 보낼 수 있습니다.
+* **Python:** 코드 레벨 메트릭은 [지원되는 끌어서 프레임워크](/docs/apm/agents/python-agent/getting-started/instrumented-python-packages) 로 구현된 프로젝트와 PHP 버전 7.0 이상에서만 사용할 수 있습니다.
+* **Ruby:** 코드 레벨 지표는 수동 트레이스를 사용하는 Rails 및 루비 메서드에만 사용할 수 있습니다([루비 메서드 및 CodeStream에 대해 자세히 알아보세요](/docs/apm/agents/ruby-agent/features/ruby-codestream-integration)).
IDE 설정의 CodeStream 섹션으로 이동하고 **CodeStream: Show Golden Signals In Editor** 설정을 선택 취소하여 CodeLense를 끌 수 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/codestream/start-here/install-codestream.mdx b/src/i18n/content/kr/docs/codestream/start-here/install-codestream.mdx
index 8868f76d8ea..805ed4392a3 100644
--- a/src/i18n/content/kr/docs/codestream/start-here/install-codestream.mdx
+++ b/src/i18n/content/kr/docs/codestream/start-here/install-codestream.mdx
@@ -1,44 +1,30 @@
---
title: CodeStream 설치 및 가입
metaDescription: How to install CodeStream and integrate it with your New Relic account.
-freshnessValidatedDate: never
+freshnessValidatedDate: '2024-12-04T00:00:00.000Z'
translationType: machine
---
특정 IDE에 대한 CodeStream 확장을 설치할 수 있습니다.
-
+
[Visual Studio Code](https://marketplace.visualstudio.com/items?itemName=CodeStream.codestream) 용 CodeStream을 다운로드하여 설치합니다. 확장 마켓플레이스를 통해 Visual Studio Code에 직접 설치할 수도 있습니다.
-
+
[Visual Studio 2022](https://marketplace.visualstudio.com/items?itemName=CodeStream.codestream-vs-22) 용 CodeStream을 다운로드하고 설치합니다. 확장 마켓플레이스를 통해 Visual Studio에 직접 설치할 수도 있습니다.
-
+
[JetBrains](https://plugins.jetbrains.com/plugin/12206-codestream) 용 CodeStream을 다운로드하여 설치합니다. JetBrains 플러그인 메뉴에서 설치할 수도 있습니다.
+VS Code를 사용하는 경우 일부 CodeStream 기능을 사용하려면 [자바](https://marketplace.visualstudio.com/items?itemName=redhat.java), [C#](https://marketplace.visualstudio.com/items?itemName=ms-dotnettools.csharp), [PHP](https://marketplace.visualstudio.com/items?itemName=bmewburn.vscode-intelephense-client), [엑셀](https://marketplace.visualstudio.com/items?itemName=ms-python.python), [Go](https://marketplace.visualstudio.com/items?itemName=golang.go) 또는 [루비에](https://marketplace.visualstudio.com/items?itemName=Shopify.ruby-lsp) 대한 언어 지원을 위해 확장 프로그램을 설치해야 합니다.
+
## 로그인 [#signin]
IDE에 CodeStream 확장을 설치한 후 New Relic 자격 증명으로 로그인합니다.
-
+
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/metric-data-type.mdx b/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/metric-data-type.mdx
index b0c03a68275..4e2e5dded43 100644
--- a/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/metric-data-type.mdx
+++ b/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/metric-data-type.mdx
@@ -62,13 +62,15 @@ New Relic 플랫폼은 메트릭, 이벤트, 로그 및 추적의 네 가지 주
값은 양의 double이어야 합니다.
- 일반적으로 합계 비율을 사용하려고 합니다.
+ 일반적으로 `sum` 의 `rate` 가져오려고 합니다.
- `From Metric select rate(sum(myMetric), 1 minute`) . . .
+ ```sql
+ FROM Metric SELECT rate(sum(myMetric), 1 minute`) . . .
+ ```
- * [합집합](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-sum)
+ * [`sum`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-sum)
|
@@ -125,13 +127,13 @@ New Relic 플랫폼은 메트릭, 이벤트, 로그 및 추적의 네 가지 주
- * 백분위수
- * histogram
- * 분
- * 최대
- * 합집합
- * 세다
- * 평균
+ * `percentile`
+ * `histogram`
+ * `min`
+ * `max`
+ * `sum`
+ * `count`
+ * `average`
|
@@ -159,12 +161,12 @@ New Relic 플랫폼은 메트릭, 이벤트, 로그 및 추적의 네 가지 주
- * 최신
- * 분
- * 최대
- * 합집합
- * 세다
- * 평균
+ * `latest`
+ * `min`
+ * `max`
+ * `sum`
+ * `count`
+ * `average`
|
@@ -190,11 +192,11 @@ New Relic 플랫폼은 메트릭, 이벤트, 로그 및 추적의 네 가지 주
- * 분
- * 최대
- * 합집합
- * 세다
- * 평균
+ * `min`
+ * `max`
+ * `sum`
+ * `count`
+ * `average`
|
@@ -220,7 +222,7 @@ New Relic 플랫폼은 메트릭, 이벤트, 로그 및 추적의 네 가지 주
- * [고유 개수](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-uniqueCount)
+ * [`uniqueCount`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-uniqueCount)
|
diff --git a/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx b/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx
index e0ee7d262fd..67eb08139c8 100644
--- a/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx
+++ b/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx
@@ -9,9 +9,9 @@ APM은 지표 데이터를 [지표 타임슬라이스 데이터](/docs/using-new
## 메트릭 타임슬라이스 데이터를 쿼리하는 이유는 무엇입니까? [#why]
-뉴렐릭은 [여러 가지 방법으로 지표를](/docs/using-new-relic/data/understand-data/new-relic-data-types#metrics) 보고합니다. **metric timeslice data** 이라고 부르는 다양한 측정항목 데이터 중 하나입니다. 이는 APM, 및 브라우저에서 많은 차트를 생성하는 데 사용되는 데이터 유형입니다(자세한 내용은 [지표 타임슬라이스 데이터](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data) 참조).
+뉴렐릭은 [여러 가지 방법으로 지표를](/docs/using-new-relic/data/understand-data/new-relic-data-types#metrics) 보고합니다. **metric timeslice data** 이라고 부르는 다양한 측정항목 데이터 중 하나입니다. 이는 APM, 및 브라우저에서 많은 차트를 생성하는 데 사용되는 데이터 유형입니다(자세한 내용은 [지표 타임슬라이스 데이터](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data) 참조).
-지표는 지표 타임슬라이스 데이터에서 더 자세한 차원 지표 데이터로 자동 변환되며, 이를 통해 NRQL 및 [NerdGraph API를](/docs/apis/nerdgraph/examples/nerdgraph-nrql-tutorial) 통해 쿼리할 수 있습니다. 이 기능을 사용하면 이러한 중요한 APM 지표에 대한 강력하고 심층적인 사용자 정의 시각화를 만들 수 있습니다. 여기에는 [맞춤 지표를](/docs/agents/manage-apm-agents/agent-data/collect-custom-metrics) 쿼리할 수 있는 기능도 포함됩니다.
+지표는 지표 타임슬라이스 데이터에서 더 자세한 차원 지표 데이터로 자동 변환되며, 이를 통해 NRQL 및 [NerdGraph API를](/docs/apis/nerdgraph/examples/nerdgraph-nrql-tutorial) 통해 쿼리할 수 있습니다. 이 기능을 사용하면 이러한 중요한 APM 지표에 대한 강력하고 심층적인 사용자 정의 시각화를 만들 수 있습니다. 여기에는 [맞춤 지표를](/docs/agents/manage-apm-agents/agent-data/collect-custom-metrics) 쿼리할 수 있는 기능도 포함됩니다.
차원 메트릭 또는 이벤트 데이터와 함께 타임슬라이스 메트릭을 쿼리할 수 없습니다. `newrelic.timeslice.value` 또는 `apm.*` 측정항목과 관련된 모든 쿼리는 APM 측정항목만 반환할 수 있습니다.
@@ -28,14 +28,14 @@ APM은 지표 데이터를 [지표 타임슬라이스 데이터](/docs/using-new
## 쿼리를 구성하는 방법 [#form-query]
-APM에서 일부 차트에는 [해당 차트를 생성한 NRQL 쿼리를 볼 수](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language#what-is-nrql) 있는 옵션이 있습니다. 이는 지표를 쿼리하는 방법을 이해하기 위한 좋은 출발점입니다. 아래 NRQL 쿼리는 요약 페이지의 오류율 차트에서 약간 수정되었습니다.
+APM에서 일부 차트에는 [해당 차트를 생성한 NRQL 쿼리를 볼 수](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language#what-is-nrql) 있는 옵션이 있습니다. 이는 지표를 쿼리하는 방법을 이해하기 위한 좋은 출발점입니다. 아래 NRQL 쿼리는 요약 페이지의 오류율 차트에서 약간 수정되었습니다.
```sql
FROM Metric
- SELECT count(apm.service.error.count) / count(apm.service.transaction.duration)
- WHERE (entity.guid = 'AN_ENTITY_GUID')
- AND (transactionType = 'Web')
- SINCE 1 day ago TIMESERIES
+SELECT count(apm.service.error.count) / count(apm.service.transaction.duration)
+WHERE (entity.guid = 'AN_ENTITY_GUID')
+AND (transactionType = 'Web')
+SINCE 1 day ago TIMESERIES
```
다음은 이 쿼리의 일부가 작동하는 방식에 대한 분석입니다.
@@ -124,7 +124,7 @@ FROM Metric
## 메트릭 타임슬라이스 데이터가 변환되는 방식 [#timeslice-conversion]
-원본 타임슬라이스 지표를 쿼리에 사용할 수 있는 차원 지표로 변환하는 작업은 진행 중인 프로세스이며 완료되지 않습니다. 이 섹션에서 찾고 있는 지표가 표시되지 않으면 [일반 쿼리를](#generic-queries) 참조하세요.
+원본 타임슬라이스 지표를 쿼리에 사용할 수 있는 차원 지표로 변환하는 작업은 진행 중인 프로세스이며 완료되지 않습니다. 이 섹션에서 찾고 있는 지표가 표시되지 않으면 [일반 쿼리를](#generic-queries) 참조하세요.
원래 [APM 타임슬라이스 지표가](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data) 차원 지표로 변환되는 방법은 다음과 같습니다.
@@ -141,26 +141,26 @@ FROM Metric
-
+
APM 메트릭 이름은 슬래시로 구분된 단일 세그먼트 문자열로 표시됩니다.
- 예를 들어 " `Datastore/statement/MySQL/users/select` " 측정항목은 users 테이블에서 데이터베이스 선택 작업에 소요된 시간을 나타냅니다.
+ 예를 들어 " `Datastore/statement/MySQL/users/select` " 측정항목은 users 테이블에서 데이터베이스 선택 작업에 소요된 시간을 나타냅니다.
|
`apm.service.datastore.operation.duration` 이라는 단일 차원 측정항목은 데이터 저장소 측정항목의 전체 그룹을 나타냅니다.
- 이 메트릭에는 메트릭 이름, datastoreType, 테이블 및 작업으로 인코딩된 데이터 값을 나타내는 세 가지 속성이 있습니다.
+ 이 메트릭에는 메트릭 이름인 `datastoreType`, `table` 및 `operation` 에 인코딩된 데이터 값을 나타내는 세 가지 속성이 있습니다.
- `datastoreType = ‘MySQL’`
+ `datastoreType = 'MySQL'`
- `table = ‘users’`
+ `table = 'users'`
- `operation = ‘select’`
+ `operation = 'select'`
|
@@ -200,7 +200,7 @@ FROM Metric
- 백분율
+ `percentage`
|
@@ -271,7 +271,7 @@ FROM Metric
에이전트 인스턴스 수
|
- |
+ |
세다
@@ -287,7 +287,7 @@ FROM Metric
프로세스 메모리(MB)
|
- |
+ |
메가바이트
@@ -372,16 +372,16 @@ FROM Metric
```sql
FROM Metric
- SELECT unit
- WHERE appName = 'YOUR_APP_NAME'
- AND metricName = 'METRIC_NAME'
+SELECT unit
+WHERE appName = 'YOUR_APP_NAME'
+AND metricName = 'METRIC_NAME'
```
몇 가지 일반적인 예를 포함하여 메트릭 타임슬라이스 데이터의 일반적인 구조에 대한 자세한 내용은 메트릭 타임슬라이스 [데이터](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data) 를 참조하세요.
### 속성
-이러한 속성은 위의 지표 표에 나열된 지표별 속성 외에 사용할 수 있습니다.
+이러한 속성은 위의 지표 표에 나열된 지표별 속성 외에 사용할 수 있습니다.
@@ -463,7 +463,7 @@ FROM Metric
- Java 에이전트의 경우 `host : port`
+ Java 에이전트의 경우 `host : port`
|
@@ -493,7 +493,7 @@ FROM Metric
- (선택 사항) 이 메트릭이 "범위가 지정되는" 레거시 메트릭의 타임슬라이스 이름입니다. 범위가 있는 측정항목은 여기에 속합니다. 측정항목은 `scope` 속성에 명명된 측정항목의 컨텍스트에 적용됩니다. 예는 아래를 참조하십시오.
+ (선택 사항) 이 메트릭이 "범위가 지정되는" 레거시 메트릭의 타임슬라이스 이름입니다. 범위가 있는 측정항목은 여기에 속합니다. 측정항목은 `scope` 속성에 명명된 측정항목의 컨텍스트에 적용됩니다. 예는 아래를 참조하십시오.
|
@@ -613,13 +613,13 @@ WHERE metricTimesliceName = 'Datastore/statement/MySQL/test/select'
```sql
SELECT uniques(metricTimesliceName)
-FROM Metric WHERE appName='YOUR_APP_NAME'
+FROM Metric WHERE appName = 'YOUR_APP_NAME'
AND newrelic.timeslice.value IS NOT NULL
```
## 와일드카드 메트릭 이름 세그먼트의 패싯 [#wildcard]
-일부 지표 타임슬라이스 이름에는 속성 값이 메트릭 이름의 세그먼트로 포함됩니다. 예를 들어, 에이전트는 다음 형식을 사용하여 외부 통화 시간을 추적하여 지표를 보고합니다.
+일부 지표 타임슬라이스 이름에는 속성 값이 메트릭 이름의 세그먼트로 포함됩니다. 예를 들어, 에이전트는 다음 형식을 사용하여 외부 통화 시간을 추적하여 지표를 보고합니다.
```
External/{externalHost}/all
@@ -631,9 +631,9 @@ External/{externalHost}/all
```sql
FROM Metric SELECT count(newrelic.timeslice.value)
- WHERE appName = 'MY APP'
- WITH METRIC_FORMAT 'Custom/Labels/{action}'
- TIMESERIES FACET action
+WHERE appName = 'MY APP'
+WITH METRIC_FORMAT 'Custom/Labels/{action}'
+TIMESERIES FACET action
```
이 쿼리에서 `{action}` 은 임시 속성 `action` 을 생성한 다음 `FACET action` 에서 사용합니다. 쿼리 기간 동안 존재하는 속성일 뿐이므로 원하는 이름을 사용할 수 있습니다. 기존 속성 이름과 충돌하지 않는 이름을 선택해야 합니다.
@@ -654,85 +654,70 @@ FROM Metric SELECT count(newrelic.timeslice.value)
메트릭 타임슬라이스 데이터 쿼리의 몇 가지 예:
-
+
이 쿼리는 [`WHERE… IN`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#sel-where) 를 사용하여 두 개의 애플리케이션을 지정한 다음 해당 애플리케이션에 대한 패싯을 지정합니다.
```sql
FROM Metric
- SELECT rate(count(apm.service.transaction.duration), 1 minute) as 'Web throughput'
- WHERE appName IN ('MY_APPLICATION', 'MY_OTHER_APPLICATION')
- AND (transactionType = 'Web')
- FACET appName
- TIMESERIES
+ SELECT rate(count(apm.service.transaction.duration), 1 minute) AS 'Web throughput'
+ WHERE appName IN ('MY_APPLICATION', 'MY_OTHER_APPLICATION')
+ AND (transactionType = 'Web')
+ FACET appName
+ TIMESERIES
```
-
+
이 쿼리는 [`rate`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#func-rate) 함수를 사용하여 분당 요청 차트를 표시합니다.
```sql
FROM Metric
- SELECT rate(count(apm.service.transaction.duration), 1 minute) as 'HttpDispatcher requests_per_minute'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 days ago
+ SELECT rate(count(apm.service.transaction.duration), 1 minute) AS 'HttpDispatcher requests_per_minute'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 days ago
```
-
+
이 쿼리는 호스트 이름으로 패싯 처리된 분당 요청 차트를 표시합니다.
```sql
FROM Metric
- SELECT count(apm.service.transaction.duration) as 'HttpDispatcher requests_per_minute'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 hours ago
- FACET host
- LIMIT 20
+ SELECT count(apm.service.transaction.duration) AS 'HttpDispatcher requests_per_minute'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 hours ago
+ FACET host
+ LIMIT 20
```
`host` 를 사용하는 대신 `host.bootId` 과 같은 다른 [호스트 관련 속성으로](/node/36916/revisions/402556/view#infrastructure-attributes) 패싯할 수 있습니다.
-
+
이것은 [`average`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#func-average) 을 사용하여 측정항목의 평균 기간을 쿼리합니다.
```sql
FROM Metric
- SELECT average(apm.service.transaction.duration) as 'HttpDispatcher average duration'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 days ago
+ SELECT average(apm.service.transaction.duration) AS 'HttpDispatcher average duration'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 days ago
```
-
+
이 쿼리는 상위 20개 개별 세그먼트(데이터베이스 쿼리, 외부 서비스 호출, 가비지 수집)별로 단일 트랜잭션(이 경우 `MY_APPLICATION` 이라는 Rails 앱의 `UsersController` 에 있는 `show` 작업)의 평균 지속 시간을 분석합니다. 시간 등). 서비스 엔터티에 대한 APM 트랜잭션 페이지에 표시되는 "응용 프로그램 분석" 차트의 대부분을 재현합니다.
```sql
FROM Metric
- SELECT average(newrelic.timeslice.value, exclusiveTime: true) as 'duration, seconds'
- WHERE appName = 'MY_APPLICATION'
- AND scope = 'Controller/users/show'
- LIMIT 20
- FACET metricTimesliceName
- TIMESERIES SINCE 3 days ago
+ SELECT average(newrelic.timeslice.value, exclusiveTime: true) AS 'duration, seconds'
+ WHERE appName = 'MY_APPLICATION'
+ AND scope = 'Controller/users/show'
+ LIMIT 20
+ FACET metricTimesliceName
+ TIMESERIES SINCE 3 days ago
```
-
+
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx b/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
index a557c4a0d04..7be8748c1ab 100644
--- a/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
+++ b/src/i18n/content/kr/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
@@ -30,7 +30,7 @@ APM은 메트릭 타임슬라이스 데이터라고 하는 특정 유형의 데
메트릭을 쿼리하려면 다음 쿼리 형식을 사용할 수 있습니다.
-```
+```sql
FROM Metric SELECT function(metric_name) WHERE attribute=value FACET attribute TIMESERIES
```
@@ -40,20 +40,20 @@ FROM Metric SELECT function(metric_name) WHERE attribute=value FACET attribute T
이 예는 클러스터 `foo` 에 대한 CPU 사용량을 초 단위로 차트로 표시하는 방법을 보여줍니다. 이 쿼리는 `containerName` 및 `clusterName` 속성이 있는 `container_cpu_usage_seconds_total` `count` 측정항목이 있는 경우 컨테이너별로 CPU 사용량을 분류합니다.
-```
-FROM Metric select sum(container_cpu_usage_seconds_total)
- WHERE clusterName = 'foo'
- FACET containerName
- TIMESERIES
+```sql
+FROM Metric SELECT sum(container_cpu_usage_seconds_total)
+WHERE clusterName = 'foo'
+FACET containerName
+TIMESERIES
```
분당 CPU 사용량(변화율)을 원하면 위의 쿼리에 rate 함수를 추가할 수 있습니다.
-```
-FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
- WHERE clusterName = 'foo'
- FACET containerName
- TIMESERIES
+```sql
+FROM Metric SELECT rate(sum(container_cpu_usage_seconds_total), 1 minute)
+WHERE clusterName = 'foo'
+FACET containerName
+TIMESERIES
```
## 예시 메트릭 쿼리 보기 [#example-metric-queries]
@@ -61,76 +61,62 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
이전 예는 메트릭 쿼리의 기본 형식을 보여주지만 NRQL을 사용하여 메트릭 데이터를 차트로 작성, 탐색 및 분석할 수도 있습니다.
-
+
`SELECT` 절에 쉼표로 구분된 측정항목 목록을 제공하여 단일 쿼리를 사용하여 여러 측정항목을 차트로 표시합니다. 예를 들어, 메모리 제한 메트릭과 함께 컨테이너의 메모리 사용량을 차트로 표시하려면 다음 쿼리를 사용하십시오.
- ```
+ ```sql
FROM Metric
- SELECT latest(container_memory_usage_bytes), latest(container_spec_memory_limit_bytes)
- WHERE containerName = 'inventory'
- TIMESERIES
+ SELECT latest(container_memory_usage_bytes), latest(container_spec_memory_limit_bytes)
+ WHERE containerName = 'inventory'
+ TIMESERIES
```
아래에 설명된 대로 [와일드카드](#query-multiple-metrics-wildcards) 를 사용하여 이 작업을 수행할 수도 있습니다.
-
+
하나 이상의 메트릭에 대해 수학 연산을 수행하여 새로운 파생 메트릭을 계산합니다. 사용 가능한 메모리를 모니터링하기 위해 이전 예에서 사용된 두 가지 메트릭에서 사용 가능한 메모리의 백분율을 계산할 수 있습니다.
- ```
+ ```sql
FROM Metric
- SELECT (latest(container_spec_memory_limit_bytes) - latest(container_memory_usage_bytes))
- / latest(container_spec_memory_limit_bytes)
- * 100
- AS '% Memory Available'
- WHERE containerName = 'inventory'
- TIMESERIES
+ SELECT (latest(container_spec_memory_limit_bytes) - latest(container_memory_usage_bytes))
+ / latest(container_spec_memory_limit_bytes)
+ * 100
+ AS '% Memory Available'
+ WHERE containerName = 'inventory'
+ TIMESERIES
```
아래에 설명된 대로 [와일드카드](#query-multiple-metrics-wildcards) 를 사용하여 이 작업을 수행할 수도 있습니다.
-
+
`SELECT` 의 모든 항목에 적용되는 `WHERE` 절을 사용하는 것 외에도 NRQL은 차트로 만들거나 작업할 특정 시계열을 선택하는 데 사용할 수 있는 `filter` 라는 또 다른 집계 함수를 제공합니다.
다음 예시는 포드 내에서 두 개의 특정 컨테이너의 메모리 사용량을 더하여 계산된 `"Total (k8s)"` 이라는 레이블이 지정된 메모리 사용량 측정항목을 차트로 표시합니다.
- ```
+ ```sql
FROM Metric
- SELECT filter(
- latest(
- container_memory_usage_bytes),
- WHERE containerName = 'discovery')
- + filter(
- latest(
- container_memory_usage_bytes),
- WHERE containerName = 'my-proxy')
- AS 'Total (k8s)'
- WHERE clusterName = 'my-cluster' AND podName LIKE 'my-pilot-%'
- TIMESERIES
+ SELECT filter(
+ latest(container_memory_usage_bytes),
+ WHERE containerName = 'discovery')
+ + filter(
+ latest(container_memory_usage_bytes),
+ WHERE containerName = 'my-proxy')
+ AS 'Total (k8s)'
+ WHERE clusterName = 'my-cluster' AND podName LIKE 'my-pilot-%'
+ TIMESERIES
```
-
+
`FROM Metric` 을 사용하여 측정항목 데이터를 쿼리할 때 New Relic은 쿼리 창의 길이와 `TIMESERIES` 키워드에 대한 인수로 지정된 버킷 크기에 따라 쿼리에 사용할 특정 집계를 자동으로 선택합니다. 이는 효율적인 쿼리 및 차트 확인을 보장합니다. 원시 메트릭 데이터 포인트를 보거나 작업하기 위해 이 동작을 재정의하려면 쿼리에서 선택적 `RAW` 키워드를 사용하십시오.
이러한 원시 메트릭 데이터 포인트를 쿼리할 때 48시간의 쿼리 시간 창 제한이 있습니다. 48시간 이상의 원시 메트릭 데이터에 액세스하려는 쿼리는 쿼리 오류가 발생합니다.
이 예에서는 특정 메트릭에 대해 수신된 마지막 20개의 데이터 포인트를 나열하는 방법을 보여줍니다.
- ```
+ ```sql
FROM Metric SELECT * WHERE metricName = 'container_fs_usage_bytes' LIMIT 20 RAW
```
@@ -157,35 +143,31 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
쿼리에 사용되는 경우 `myNeatProcess.%.duration` 은 위의 세 가지 알고리즘 모두에 대한 결과를 반환합니다. 나중에 `algorithm4` , `algorithm5` 및 `algorithm6` 이라는 새 알고리즘을 생성하면 동일한 쿼리가 6개 알고리즘 모두에 대한 결과를 반환합니다.
-
+
`SELECT` 절에서 와일드카드( `%` )를 사용하여 단일 쿼리를 사용하여 여러 측정항목을 차트로 작성할 수 있습니다. 예를 들어, 위의 예에서 모든 알고리즘을 쿼리하고 각 알고리즘의 평균 기간 동안 차트에 선을 그리려면 다음 쿼리를 사용하십시오.
- ```
+ ```sql
FROM Metric
- SELECT average(myNeatProcess.%.duration)
- FACET metricName TIMESERIES
+ SELECT average(myNeatProcess.%.duration)
+ FACET metricName TIMESERIES
```
-
+
와일드카드를 사용하여 여러 메트릭에 대해 수학 연산을 수행하고 새 메트릭을 계산할 수도 있습니다. 위의 예에 나열된 모든 알고리즘의 평균 기간을 계산할 수 있습니다.
- ```
+ ```sql
FROM Metric
- SELECT average(myNeatProcess.%.duration) TIMESERIES
+ SELECT average(myNeatProcess.%.duration)
+ TIMESERIES
```
단일 알고리즘이 차지하는 전체 런타임의 백분율을 계산할 수 있습니다.
- ```
+ ```sql
FROM Metric
- SELECT myNeatProcess.algorithm1.duration / sum(myNeatProcess.%.duration) TIMESERIES
+ SELECT myNeatProcess.algorithm1.duration / sum(myNeatProcess.%.duration)
+ TIMESERIES
```
@@ -197,13 +179,10 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
`getField()` 사용하여 해당 필드를 추출할 수 있습니다. 예를 들어 지표 내의 단일 값을 사용하여 `WHERE` 절에서 비교를 수행하려는 경우 `getField(metricName, field)` 또는 단축 구문 `metricName[field]` 을 사용할 수 있습니다.
-
+
측정항목의 평균 값은 `count` 에 대해 `total` 으로 계산되므로 다음 쿼리는 `average()` 값 함수의 결과가 2보다 큰 측정항목 데이터를 반환합니다.
- ```
+ ```sql
FROM Metric
SELECT average(apm.service.transaction.duration)
WHERE appName = 'MyApp'
@@ -212,7 +191,7 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
또는 다음과 같은 약칭을 사용할 수 있습니다.
- ```
+ ```sql
FROM Metric
SELECT average(apm.service.transaction.duration)
WHERE appName = 'MyApp'
@@ -220,13 +199,10 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
```
-
+
이 예제 쿼리는 게이지 메트릭 목록을 반환합니다.
- ```
+ ```sql
FROM Metric
SELECT uniques(metricName)
WHERE getField(%, type) = 'gauge'
@@ -234,7 +210,7 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
또는 다음과 같은 약칭을 사용할 수 있습니다.
- ```
+ ```sql
FROM Metric
SELECT uniques(metricName)
WHERE %[type] = 'gauge'
@@ -249,30 +225,21 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
NRQL `keyset` 및 `uniques` 함수는 `metricName` 속성(모든 측정항목에서 사용 가능)과 함께 사용하여 계정에서 사용 가능한 모든 측정항목을 나열하거나 특정 측정항목에서 사용 가능한 속성을 검색하는 것과 같은 작업을 수행할 수 있습니다.
-
- ```
+
+ ```sql
FROM Metric SELECT uniques(metricName)
```
-
- ```
+
+ ```sql
FROM Metric SELECT uniques(metricName) WHERE hostname = 'host1.mycompany.com'
```
-
- ```
+
+ ```sql
FROM Metric SELECT keyset() WHERE metricName = METRIC_NAME
```
-
+
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx b/src/i18n/content/kr/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx
index c57d2148a1e..5d26374c0c8 100644
--- a/src/i18n/content/kr/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx
@@ -9,11 +9,11 @@ freshnessValidatedDate: '2024-09-20T00:00:00.000Z'
translationType: machine
---
-뉴렐릭은 Amazon Web Services (AWS) 환경에 대한 성능 데이터를 수집하는 여러 가지 방법을 제공합니다. 뉴렐릭을 AWS 와 연결한 후에는 시스템의 AWS 텔레메트리에 액세스하여 AWS 그리드의 상태를 면밀히 모니터링할 수 있습니다. 우리의 AWS 옵저버빌리티 솔루션은 [Amazon CloudWatch Metric Streams 통합을](/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations/#monitor-aws) 지원하여 지표를 얻고, [AWS 서비스 쿼리를 뉴렐릭으로 전달하여](/install/aws-logs/) 뉴렐릭에 로그인을 가져옵니다. 이 문서에서는 AWS 모니터링을 시작하는 방법을 설명하고 AWS 비용에 대한 개요를 제공합니다.
+뉴렐릭은 Amazon Web Services (AWS) 환경에 대한 성능 데이터를 수집하는 여러 가지 방법을 제공합니다. 뉴렐릭을 AWS 와 연결하면 시스템의 AWS 텔레메트리에 액세스하여 AWS 그리드의 상태를 면밀히 모니터링할 수 있습니다. 이 문서에서는 AWS 모니터링을 시작하는 방법을 설명하고 AWS 비용에 대한 개요를 제공합니다.
## CloudWatch Metric Streams 통합으로 시작하세요 [#monitor-aws]
-Amazon CloudWatch Metric Streams 통합은 [Amazon CloudWatch Metric Streams를](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Metric-Streams.html) 통해 전체 AWS 스택에 대한 데이터를 수집합니다. 대부분의 사용 사례에서 [Amazon CloudWatch Metric Streams 통합을 설치](/install/aws-cloudwatch) 하여 AWS 스택 모니터링을 시작합니다.
+AWS 옵저버빌리티 솔루션은 Amazon CloudWatch Metric Streams 통합으로,AWS [Amazon CloudWatch Metric Streams](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Metric-Streams.html) 통해 전체 리소스에 대한 데이터를 수집합니다. 대부분의 사용 사례에서 [Amazon CloudWatch Metric Streams 통합을 설치](/install/aws-cloudwatch) 하여 AWS 스택 모니터링을 시작합니다.
CloudWatch Metric Streams 통합은 AWS 대시보드에 대한 최상의 데이터를 제공하지만 [CloudWatch Metric Streams에서 지원하지 않는 통합을](/docs/infrastructure/amazon-integrations/connect/connect-aws-new-relic-infrastructure-monitoring/#integrations-not-replaced-streams) 사용하는 경우 통합 API 폴링 솔루션을 사용해야 할 수 있습니다. 현재 지원되는 통합에 대해 API 폴링을 사용 중인 경우 [데이터를 Amazon CloudWatch Metric Streams로 마이그레이션하는](/install/aws-cloudwatch/?task=migrate) 것이 좋습니다.
diff --git a/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx b/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx
index e95fd7644c7..9986c9e9e45 100644
--- a/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx
@@ -30,6 +30,14 @@ translationType: human
이러한 모든 변수를 사용하는 방법의 예시는 [GitHub의 샘플 구성 템플릿](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example)을 참조하십시오.
+## 환경 변수
+
+나열된 설정 옵션들은 대부분 환경 변수를 사용해 값을 설정하는 것을 허용하며, 이 설정이 YAML 설정에 우선합니다.
+
+
+ 인프라 에이전트는 종종 호스트에서 시스템 서비스로 실행되며, 전역적으로 관리됩니다. (예: Linux의 경우 `systemd`, Windows 서비스의 경우 `launchd` 등) 이 설정에서 환경 변수를 사용하여 설정 변경 사항을 적용하려면, 환경 변수들을 설정하고 인프라 에이전트 서비스가 실행 중인 격리된 컨텍스트에서 볼 수 있도록 해야 합니다. 이 작업을 수행하는 방법은 플랫폼마다 다르므로, 플랫폼의 서비스 관리자 문서에서 시스템 서비스에 환경 변수를 추가하는 방법을 확인하시기 바랍니다.
+
+
## 에이전트 변수 [#agent-variables]
diff --git a/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx b/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
index a7ef5475a39..523ef72acfe 100644
--- a/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
@@ -31,7 +31,7 @@ Windows용 인프라 에이전트의 지원 설치를 통해 사용자 환경에
5. 을 업데이트하세요.
-6. 선택 사항: 다른 [매개변수](#parameters) 를 업데이트합니다.
+6. 선택 사항: 다른 [시위를](#parameters) 업데이트하세요. 기본 드라이브와 다른 설치 경로를 지정하려면 설치 프로그램을 시작하기 전에 `SYSTEMDRIVE` 환경 변수를 원하는 드라이브로 설정하세요. 또한, `newrelic-infra service` 을 생성한 후 이에 대한 환경 변수를 구성하세요.
7. 관리자 권한으로 `installer.ps1` 을 실행합니다.
@@ -170,7 +170,7 @@ Windows용 지원 설치 중에 다음 매개변수를 구성할 수 있습니
기본:
```
- C:\Program Files\NewRelic\newrelic-infra\inregrations.d
+ C:\Program Files\New Relic\newrelic-infra\integrations.d
```
diff --git a/src/i18n/content/kr/docs/infrastructure/infrastructure-data/default-infra-data.mdx b/src/i18n/content/kr/docs/infrastructure/infrastructure-data/default-infra-data.mdx
index 03c94ef1ba3..c7823fa272b 100644
--- a/src/i18n/content/kr/docs/infrastructure/infrastructure-data/default-infra-data.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/infrastructure-data/default-infra-data.mdx
@@ -172,9 +172,9 @@ SELECT * FROM ProcessSample
뉴렐릭 인프라 에이전트(`SystemSample`, `StorageSample`, `NetworkSample` 및 `ProcessSample`)의 지표는 버킷으로 집계되어 장기간에 걸쳐 쿼리 성능을 개선합니다. 1시간 미만의 기간에 대한 NRQL 쿼리는 원시 데이터에 직접 액세스합니다. 1시간을 초과하는 쿼리의 경우 데이터는 다음 집계 버킷에서 검색됩니다.
-* 1분(1시간~6시간 범위)
-* 10분(6시간~3일 범위)
-* 1시간 (3일 ~ 14일 범위)
+* 1분(1시간->6시간 범위)
+* 10분(6시간->3일 범위)
+* 1시간 (3일 -> 14일 범위)
* 3시간(14일 이상 범위)
[차원 메트릭을 사용하여 인프라를 쿼리](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql) 할 수도 있습니다.
@@ -184,7 +184,7 @@ SELECT * FROM ProcessSample
데이터가 게이지 형식을 사용하는지 확인하려면 다음과 같은 쿼리를 실행하세요.
- ```
+ ```sql
FROM SystemSample SELECT cpuPercent SINCE 90 minutes ago
```
diff --git a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
index 0f75575877c..9c5e843b8cd 100644
--- a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
@@ -10,7 +10,7 @@ New Relic Azure Monitor 통합을 통해 Microsoft Azure 서비스에 대한 데
Azure 모니터 통합은 지원되는 Azure 서비스의 모든 메트릭을 모니터링합니다. 활성화되면 설정된 폴링 간격에 따라 Azure 플랫폼 서비스를 쿼리합니다. 그런 일이 발생하면 다음을 얻습니다.
-* [Azure Monitor에서 지원하는 모든 Azure 서비스](https://learn.microsoft.com/en-us/azure/azure-monitor/essentials/metrics-supported) 의 메트릭 수집.
+* [Azure Monitor가 지원하는 다양한 Azure 서비스](https://learn.microsoft.com/en-us/azure/azure-monitor/essentials/metrics-supported) 에서 메트릭을 수집합니다.
* 쿼리, 경고 및 데이터 탐색기에 대한 기본 [차원 메트릭](/docs/data-apis/understand-data/new-relic-data-types/#metrics-new-relic) 환경입니다.
* 골든 메트릭 및 기본 [제공](/docs/new-relic-solutions/new-relic-one/core-concepts/what-entity-new-relic) 대시보드가 있는 [엔터티 탐색기 의 Azure](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) 엔터티 .
* Azure 리소스에 정의된 사용자 지정 태그로 장식된 메트릭입니다.
diff --git a/src/i18n/content/kr/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx b/src/i18n/content/kr/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
index 3c58c05201d..c708956a821 100644
--- a/src/i18n/content/kr/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
@@ -69,7 +69,7 @@ VMware Tanzu용 New Relic Nozzle의 요구 사항은 다음과 같습니다.
- 1.12.34
+ 1.12.36
|
@@ -79,7 +79,7 @@ VMware Tanzu용 New Relic Nozzle의 요구 사항은 다음과 같습니다.
- 2024년 1월 25일
+ 2024년 12월 09일
|
@@ -89,7 +89,7 @@ VMware Tanzu용 New Relic Nozzle의 요구 사항은 다음과 같습니다.
- New Relic Service Broker 1.12.34
+ 뉴렐릭 서비스 브로커 1.12.36
|
@@ -109,7 +109,7 @@ VMware Tanzu용 New Relic Nozzle의 요구 사항은 다음과 같습니다.
- 2.10.x, 2.11.x, 2.12.x, 2.13.x, 3.x, 4.x 및 5.x
+ 2.10.x, 2.11.x, 2.12.x, 2.13.x, 3.x, 4.x, 5.x 및 6.x
|
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx
index c36fe7a412c..1e00ec2f398 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx
@@ -11,7 +11,7 @@ translationType: machine
이 페이지는 New Relic의 Prometheus 통합 옵션과 작동 방식에 대한 개요를 제공합니다. 여기에 있는 정보는 고유한 비즈니스 요구 사항에 가장 적합한 옵션을 선택하는 데 도움이 됩니다.
-## Prometheus OpenMetrics, Prometheus 에이전트 또는 원격 쓰기 통합? [#pomi-remote_write]
+## Prometheus OpenMetrics, Prometheus 에이전트 또는 원격 쓰기 통합? [#pomi-remote\_write][#pomi-remote_write]
우리는 현재 Prometheus 메트릭을 New Relic으로 보내는 세 가지 대안을 제공합니다.
@@ -24,79 +24,51 @@ Prometheus 서버가 이미 있는 경우 원격 쓰기 통합을 시작하는
아래에서 각 옵션에 대한 이점, 알림 및 권장 사항을 검토하십시오.
-
+
이익:
* Kubernetes 클러스터에서 실행되는 워크로드를 쉽게 계측합니다.
-
- * 사전 정의된
-
-
-
- 및 알림 세트입니다.
-
+ * 사전 정의된 및 알림 세트입니다.
* 수집된 원격 분석 데이터의 전체 제어.
-
* Prometheus 서버를 직접 관리할 필요가 없습니다.
- 권장 사항:
+ 권장 사항:
* [스크레이핑 간격은](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent#target-scrape-interval) 데이터 볼륨에 영향을 미치는 가장 큰 요소입니다. 관찰 가능성 요구 사항에 따라 선택하세요. 예를 들어 기본값인 30초를 1m로 변경하면 데이터 볼륨을 50%까지 줄일 수 있습니다.
-
* 필터를 설정하고 타겟팅할 데이터를 구성합니다. [Prometheus 지표 필터링](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent/#drop-keep-metrics)방법을 참조하십시오.
-
* Prometheus 에이전트 빠른 시작을 설치하여 Prometheus 인스턴스 및 샤드의 상태를 제어합니다.
-
+
이익:
* Prometheus 서버의 대안으로 가장 적합합니다.
-
* 모든 메트릭을 New Relic에 직접 저장하십시오.
-
* Prometheus 서버를 직접 관리할 필요가 없습니다.
-
* 로컬 스토리지가 필요하지 않습니다.
- 알림:
+ 알림:
* 약간 더 복잡한 설정.
-
* 고가용성 복제본은 지원하지 않습니다.
-
* Kubernetes 연산자는 향상된 작업 자동화에 사용할 수 없습니다.
-
+
이익:
* 이미 Prometheus 서버가 있는 경우 New Relic에서 결합된 메트릭에 쉽게 액세스할 수 있습니다. Access는 Prometheus 구성에서 한 줄의 yaml만 사용합니다.
-
* Prometheus에서 추가 조정 없이 New Relic 및 Prometheus를 통해 메트릭에 액세스하십시오.
-
* 연합: 여러 서버의 데이터를 단일 소스로 결합할 수 있습니다.
-
* Prometheus [고가용성 지원](/docs/integrations/prometheus-integrations/install-configure/prometheus-high-availability-ha) : 수집 시 HA 쌍에서 데이터 중복을 제거합니다.
- 알림:
+ 알림:
* Prometheus 서버를 관리해야 합니다.
-
* 스토리지 보유를 줄일 수 있습니다.
-
* 서버에 대한 쿼리 로드가 적습니다.
- 권장 사항:
+ 권장 사항:
* 데이터 볼륨을 더 잘 관리하기 위해 관찰 가능성을 평가하십시오.
@@ -115,7 +87,7 @@ Prometheus 서버가 이미 있는 경우 원격 쓰기 통합을 시작하는
## 쿠버네티스용 프로메테우스 에이전트 [#Agent]
-뉴렐릭의 프로메테우스 에이전트를 사용하면 쿠버네티스 클러스터에서 프로메테우스 인덱스를 쉽게 긁어낼 수 있습니다. 서비스 검색 및 Kubernetes 라벨을 활용하면 지표, 대시보드 및 가장 인기 있는 워크로드 에 즉시 액세스할 수 있습니다.
+뉴렐릭의 프로메테우스 에이전트를 사용하면 쿠버네티스 클러스터에서 프로메테우스 인덱스를 쉽게 긁어낼 수 있습니다. 서비스 검색 및 Kubernetes 라벨을 활용하면 지표, 대시보드 및 가장 인기 있는 워크로드 에 즉시 액세스할 수 있습니다.
두 가지 모드로 Prometheus 에이전트를 설치할 수 있습니다.
@@ -131,11 +103,7 @@ Prometheus 서버가 이미 있는 경우 원격 쓰기 통합을 시작하는
* Prometheus 샤드의 상태와 수집된 메트릭의 카디널리티를 모니터링합니다.
* 다양한 [스크래핑 간격](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent#target-scrape-interval) , [메트릭 필터](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent/#drop-keep-metrics) 및 [레이블 관리](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent/#filter-metric-labels) 를 지원하여 데이터 수집을 완벽하게 제어합니다.
-
+
## Docker용 Prometheus OpenMetrics 통합 [#OpenMetrics]
@@ -148,11 +116,7 @@ Docker용 New Relic의 Prometheus OpenMetrics 통합을 통해 [Prometheus](http
* New Relic UI에서 이 데이터를 쿼리하고 시각화하세요.
* [Grafana 대시보드](/docs/integrations/grafana-integrations/get-started/grafana-support-prometheus-promql) 를 연결합니다(선택 사항).
-
+
Kubernetes OpenMetrics 대시보드
@@ -168,7 +132,7 @@ Prometheus OpenMetrics 통합은 모든 데이터를 한 곳에서 수집하고
## Prometheus 원격 쓰기 통합 [#remote-write]
-Prometheus 엔드포인트에서 데이터를 스크랩하는 [Prometheus Agent](/docs/integrations/prometheus-integrations/install-configure-prometheus-agent) 및 [Docker](/docs/integrations/prometheus-integrations/get-started/new-relic-prometheus-openmetrics-integration-docker) OpenMetrics 통합과 달리 원격 쓰기 통합을 사용하면 기존 Prometheus 서버에서 New Relic으로 [원격 측정 데이터를](/docs/telemetry-data-platform/get-started/capabilities/get-know-telemetry-data-platform) 전달할 수 있습니다. 원시 데이터에서 쿼리, 대시보드 등에 이르기까지 설정 및 관리를 위한 모든 옵션을 활용할 수 있습니다.
+Prometheus 엔드포인트에서 데이터를 스크랩하는 [Prometheus 에이전트](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/install-prometheus-agent/) 및 [도커](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic/#OpenMetrics) OpenMetrics 통합과 달리, 원격 쓰기 통합을 사용하면 기존 Prometheus 서버의 [텔리메트리 데이터를](/docs/telemetry-data-platform/get-started/capabilities/get-know-telemetry-data-platform) 뉴렐릭으로 전달할 수 있습니다. 원시 데이터부터 쿼리, 대시보드 등 설정 및 관리를 위한 다양한 옵션을 활용할 수 있습니다.
### 데이터를 확장하고 빠르게 이동하십시오. [#remote-write-scale]
@@ -179,11 +143,7 @@ Prometheus 원격 쓰기 통합을 통해 다음을 수행할 수 있습니다.
* 소프트웨어 스택에 대한 데이터와 모니터링 중인 동작 및 결과 간의 관계에 대해 완전히 연결된 보기를 가져옵니다.
* [Grafana 대시보드](/docs/integrations/grafana-integrations/get-started/grafana-support-prometheus-promql) 를 연결합니다(선택 사항).
-
+
Prometheus 원격 쓰기 대시보드.
@@ -194,19 +154,11 @@ Prometheus 원격 쓰기 통합을 통해 다음을 수행할 수 있습니다.
[New Relic 가입](https://newrelic.com/signup) 은 빠르고 무료입니다. 신용 카드 번호도 묻지 않습니다. 로그인하면 몇 가지 간단한 단계를 거쳐 데이터 흐름을 얻을 수 있습니다.
-
+
설정 문서 읽기
-
+
프로메테우스 데이터 추가
@@ -220,4 +172,4 @@ Prometheus 원격 쓰기 통합을 통해 다음을 수행할 수 있습니다.
* [원격 쓰기 통합](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration) 을 완료하는 방법을 읽어보십시오.
* 원격 쓰기 및 Prometheus OpenMetrics 통합 옵션은 [Metric API](/docs/telemetry-data-platform/ingest-apis/introduction-metric-api) 에 설명된 동일한 속도 제한이 적용되는 차원 메트릭을 생성합니다.
* [Grafana에서 Prometheus 데이터 소스를 구성하는 방법](/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana) 을 포함하여 [Grafana 지원 옵션에](/docs/integrations/grafana-integrations/get-started/grafana-support-prometheus-promql) 대해 알아보십시오.
-* 오픈 소스 커뮤니티에서 생성한 모든 가능한 [내보내기](https://prometheus.io/docs/instrumenting/exporters/) 목록에 대한 Prometheus 설명서입니다.
+* 오픈 소스 커뮤니티에서 생성한 모든 가능한 [내보내기](https://prometheus.io/docs/instrumenting/exporters/) 목록에 대한 Prometheus 설명서입니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx b/src/i18n/content/kr/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
index 6b4687c4afc..e0c2380ea4c 100644
--- a/src/i18n/content/kr/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
+++ b/src/i18n/content/kr/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
@@ -23,5 +23,5 @@ translationType: machine
* [루비](/docs.newrelic.com/docs/apm/agents/ruby-agent/configuration/ruby-agent-configuration/) 에이전트 버전 9.16.0 이상.
* 이동: 곧 출시
* 자바: 곧 출시
-* Node.js: 곧 출시
+* [Node.js](/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration): 에이전트 버전 12.8.0 이상.
* [Python](/docs/apm/agents/python-agent/configuration/python-agent-configuration) 에이전트 버전 10.3.0 이상.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx
index e4c6a55d5d3..c705cacf19d 100644
--- a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx
+++ b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx
@@ -93,7 +93,7 @@ Android 에이전트를 설치하려면 안내 설치를 따르는 것이 좋습
resolutionStrategy {
eachPlugin {
// not required if using `classpath dependency` above
- if (requested.id.id.startsWith("newrelic") || requested.id.id.startsWith("com.newrelic.agent.android"))) {
+ if (requested.id.id.startsWith("newrelic") || requested.id.id.startsWith("com.newrelic.agent.android")) {
useModule("com.newrelic.agent.android:agent-gradle-plugin:${AGENT_VERSION}")
}
}
diff --git a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx
new file mode 100644
index 00000000000..a8799b40182
--- /dev/null
+++ b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx
@@ -0,0 +1,35 @@
+---
+title: iOS 에이전트로 로깅
+tags:
+ - Mobile logging
+ - New Relic Mobile iOS
+metaDescription: Suggestions for setting up the logging in your app with the New Relic agent
+freshnessValidatedDate: never
+translationType: machine
+---
+
+프로젝트 전체에 걸쳐 일관되고 포괄적인 로깅을 보장하기 위해 iOS 에이전트는 로깅 API를 제공합니다. 에이전트의 로깅 API 사용하여 모바일 앱 로그를 뉴렐릭으로 보내세요. 이렇게 하면 분석을 위해 로그를 한곳에 모아둘 수 있습니다. 자세한 내용은 [모바일 로깅 API를](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-logs/#ios) 참조하세요.
+
+## 로그 레벨 구성
+
+에이전트 및 원격 로깅을 위해 iOS 에이전트 로그 레벨을 구성할 수 있습니다.
+
+### 에이전트 로그 레벨
+
+에이전트 로그 레벨은 뉴렐릭 에이전트에서 구성되며 어떤 로그 메시지가 장치 콘솔에 기록되는지 결정합니다. 여기에는 뉴렐릭 에이전트 로그도 포함됩니다. 모든 뉴렐릭 에이전트 로그를 보려면 로그 레벨을 `NRLogLevelDebug` 으로 설정하세요.
+
+### 원격 로그 레벨
+
+뉴렐릭 플랫폼에서는 원격 로그인 레벨이 기기에서 뉴렐릭으로 전송되는 로그의 자세한 정도를 제어합니다. 이를 통해 데이터 볼륨을 관리하고 관련 정보에 집중할 수 있습니다.
+
+**설정**: 뉴렐릭 대시보드의 **Application** 탭에서 원격 로그인 레벨을 설정할 수 있습니다. 원격 로그인 레벨 설정에 대한 자세한 내용은 [모바일 로그인을](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-logs) 참고하세요.
+
+## 자동 로그 수집
+
+뉴렐릭 플랫폼에서 원격 로깅이 활성화되면 iOS 에이전트는 앱에서 `stdout` 및 `stderr` 에 작성된 모든 로그를 수집합니다. `NSLog()`, 스위프트 `print()` 및 기타 인쇄 패밀리 기능에 대한 모든 호출을 캡처합니다. 이 방법으로 수집된 로그는 `NRLogLevelInfo` 로 설정됩니다. 이 기능은 기본적으로 비활성화되어 있습니다. 이를 활성화하려면 `NRFeatureFlag_AutoCollectLogs` 기능 플래그를 사용하세요.
+
+에이전트는 `'\n\n'` 구분 기호를 사용하여 로그 메시지를 구분합니다. 타임스탬프는 애플리케이션이 로그를 작성한 시점이 아니라 에이전트가 로그를 수집한 시점을 반영합니다. 에이전트가 로그 메시지를 수집하기 전에 버퍼링했기 때문에 밀리초 차이가 발생할 수 있습니다.
+
+
+ 이 기능은 Xcode의 내장 콘솔과 충돌하므로 디버거가 연결되어 있는 동안에는 활성화할 수 없습니다.
+
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
index 9569d79878a..70f0a143ccb 100644
--- a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
+++ b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
@@ -145,7 +145,7 @@ translationType: machine
myMap.put("Key", "Value");
Integer stringVar =
(Integer) myMap.get("Key"); // throws ClassCastException
- } catch (Exception e) {
+ } catch(Exception e) {
NewRelic.recordHandledException(e, myMap);
}
}
@@ -166,8 +166,8 @@ translationType: machine
Snackbar.make(view, "Replace with your own action", Snackbar.LENGTH_LONG)
.setAnchorView(R.id.fab)
.setAction("Action", null).show()
- }catch (exception:Exception) {
- NewRelic.recordHandledException(exception,myMap)
+ } catch(exception:Exception) {
+ NewRelic.recordHandledException(exception,myMap)
}
}
...
@@ -259,7 +259,7 @@ translationType: machine
@throw [NSException exceptionWithName:@"versionException"
reason:@"App version no longer supported"
userInfo:nil];
- } @catch (NSException* e) {
+ } @catch(NSException* e) {
[NewRelic recordHandledException:e];
}
```
@@ -333,8 +333,8 @@ translationType: machine
```dart
try {
some_code_that_throws_error();
- } catch (ex) {
- NewrelicMobile.instance
+ } catch(ex) {
+ NewrelicMobile.instance
.recordError(error, StackTrace.current, attributes: attributes);
}
```
@@ -396,7 +396,7 @@ translationType: machine
```csharp
try {
some_code_that_throws_error();
- } catch (Exception ex) {
+ } catch(Exception ex) {
CrossNewRelic.Current.RecordException(ex);
}
```
@@ -458,7 +458,7 @@ translationType: machine
```csharp
try {
some_code_that_throws_error();
- } catch (Exception ex) {
+ } catch(Exception ex) {
NewRelicAgent.RecordException(e);
}
```
diff --git a/src/i18n/content/kr/docs/network-performance-monitoring/advanced/advanced-config.mdx b/src/i18n/content/kr/docs/network-performance-monitoring/advanced/advanced-config.mdx
index e4f20fbe3f6..63c18164267 100644
--- a/src/i18n/content/kr/docs/network-performance-monitoring/advanced/advanced-config.mdx
+++ b/src/i18n/content/kr/docs/network-performance-monitoring/advanced/advanced-config.mdx
@@ -386,7 +386,7 @@ global:
- New Relic의 엔티티 합성 시 사용되는 값입니다. 이는 일치하는 `mib_profile` 을 기반으로 자동 생성되며 엔터티가 생성되려면 [엔터티 정의](https://github.com/newrelic/entity-definitions/search?q=%22attribute%3A+provider%22+filename%3Adefinition.yml) 저장소의 규칙 중 하나와 일치해야 합니다. 장치를 수동으로 추가하는 경우 이 값이 유효한지 주의해야 합니다.
+ 뉴렐릭의 부분 합성 중에 사용되는 값입니다. 이는 일치된 `mib_profile` 기반으로 자동으로 생성되며, 문서가 생성되려면 [문서 정의](https://github.com/search?q=repo%3Anewrelic/entity-definitions%20path%3Adefinition.yml&type=code) 의 규칙 중 하나와 일치해야 합니다. 수동으로 장치를 추가하는 경우 이 값이 유효한지 확인해야 합니다.
|
diff --git a/src/i18n/content/kr/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx b/src/i18n/content/kr/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
index 2cf2390333a..69470ee7610 100644
--- a/src/i18n/content/kr/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
+++ b/src/i18n/content/kr/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
@@ -11,24 +11,15 @@ translationType: machine
New Relic은 [모든 소스에서 데이터를 가져오고](/docs/data-apis/custom-data/intro-custom-data) 사용자 지정 [차트](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) 와 [대시보드](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) 를 만드는 다양한 옵션을 제공합니다. 그러나 이러한 옵션을 넘어 New Relic에서 자신만의 경험을 만들고 싶다면 플랫폼에서 앱을 빌드하는 데 사용하는 것과 동일한 도구에 액세스할 수 있습니다.
-
+
New Relic 애플리케이션은 다음을 수행하는 React JavaScript 애플리케이션입니다.
-* 다른
-
-
-
- 및 데이터와 함께 [뉴렐릭 플랫폼](/docs/new-relic-one/use-new-relic-one/get-started/introduction-new-relic-one) 에 상주하세요.
-
+* 다른 및 데이터와 함께 [뉴렐릭 플랫폼](/docs/new-relic-one/use-new-relic-one/get-started/introduction-new-relic-one) 에 상주하세요.
* 조직에 특별히 맞춤화된 시각화 기능을 제공합니다.
-
* New Relic이 모니터링하는 엔터티 또는 다른 서비스나 API의 데이터 등 원하는 모든 소스의 데이터를 표시합니다.
-New Relic 앱으로 할 수 있는 작업에 대해 자세히 알아보려면 계속 읽으십시오. 또는 건너뛰고 자신의 앱 빌드를 시작하려면 먼저 [개발자 사이트의 요구 사항을](https://developer.newrelic.com/build-apps/permission-manage-apps) 읽으십시오.
+계속 읽어서 뉴렐릭 앱으로 무엇을 할 수 있는지 자세히 알아보세요. 또는, 바로 넘어가서 직접 앱을 만들고 싶다면 [개발 환경 설정 가이드](/docs/new-relic-solutions/new-relic-one/build-nr-apps/set-up-dev-env/) 로 이동하세요.
## New Relic: 프로그래밍 가능한 플랫폼 [#what-is-it]
@@ -36,12 +27,9 @@ New Relic 앱으로 할 수 있는 작업에 대해 자세히 알아보려면
이제 플랫폼의 기본 빌딩 블록을 제어할 수 있습니다. 엔지니어들이 New Relic 플랫폼을 구축하는 데 사용하는 것과 동일한 도구를 사용하여 고유한 조직 구조 및 비즈니스 요구 사항에 맞는 맞춤형 애플리케이션을 구축할 수 있습니다. React, GraphQL 및 NRQL(쿼리 언어) 사용법을 알고 있다면 애플리케이션을 구축하는 데 몇 분 밖에 걸리지 않습니다.
-맞춤형 애플리케이션 구축에 대한 도움말은 [개발자 사이트에서 가이드를](https://developer.newrelic.com/build-apps) 확인하세요. 또는 나만의 앱 구축을 시작하는 방법에 대한 간략한 개요를 보려면 이 짧은 YouTube 동영상(약 3분 15초)을 시청하세요.
+사용자 정의 애플리케이션을 만드는 데 도움이 되는 [개발자 가이드를](/docs/new-relic-solutions/tutorials/build-hello-world-app/) 확인하세요. 또는, 앱 구축을 시작하는 방법에 대한 빠른 개요를 보려면 이 짧은 YouTube 동영상을 시청하세요(약 2시간) 3분 15초).
-
+
## 시작하다 [#get-started]
@@ -50,18 +38,14 @@ New Relic을 사용하면 아무리 복잡하더라도 데이터 기반 문제
* API를 사용 [하여 모든 소스에서 New Relic으로 데이터를 가져옵니다](/docs/data-apis/custom-data/intro-custom-data) .
* [맞춤형 애플리케이션에서 해당 데이터를 시각화합니다](https://developer.newrelic.com/build-apps) .
-
+
- **[one.newrelic.com](https://one.newrelic.com/all-capabilities):** 다음은 뉴쿨릭을 기반으로 구축된 맞춤 제작의 예입니다. 이 애플리케이션은 에서 보고된 PageView 이벤트를 사용하여 웹사이트에 대한 매우 상세한 분석을 제공합니다.
+ **[one.newrelic.com](https://one.newrelic.com/all-capabilities):** 다음은 뉴쿨릭을 기반으로 구축된 맞춤 제작의 예입니다. 이 애플리케이션은 에서 보고된 PageView 이벤트를 사용하여 웹사이트에 대한 매우 상세한 분석을 제공합니다.
시각화 요구 사항이 비교적 간단한 경우 [사용자 지정 차트](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder) 및 [사용자 지정 대시보드](/docs/dashboards/new-relic-one-dashboards/get-started/introduction-new-relic-one-dashboards) 사용을 고려하십시오.
-이제 [개발자 사이트](http://developer.newrelic.com) 를 방문하여 빌드를 시작하세요!
+이제 [Hello World 예제를](/docs/new-relic-solutions/tutorials/build-hello-world-app/) 방문하여 빌드를 시작해보세요!
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx b/src/i18n/content/kr/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
index 9112dafed6d..ae1739e24e8 100644
--- a/src/i18n/content/kr/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
+++ b/src/i18n/content/kr/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
@@ -12,9 +12,7 @@ translationType: machine
Pathpoint는 관련 내부 프로세스와 외부 의존성/종속성을 포함하여 여정의 모든 단계에서 상태와 성과를 모니터링하고 분석함으로써 기업이 여정에 영향을 미치는 문제를 쉽게 식별하여 해결하고, 내부 프로세스를 최적화하고, 전반적인 고객 경험을 개선할 수 있도록 지원합니다.
-Pathpoint는 뉴렐릭 연구소 팀이 개발한 오픈 소스 카탈로그 프로젝트입니다. [GitHub Pathpoint 저장소를](https://github.com/newrelic/nr-labs-pathpoint) 참조하세요.
-
-Pathpoint의 이점을 개괄적으로 알아보고 싶으신가요? [Pathpoint 제품 페이지를](https://newrelic.com/platform/pathpoint) 참조하세요.
+[뉴롤릭 피규어](https://onenr.io/0bRm7rdJZQy) 에서 직접 앱을 설치하세요. [GitHub 저장소](https://github.com/newrelic/nr-labs-pathpoint) 도 탐색해 볼 수 있습니다.
diff --git a/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx b/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
index d2cdfd0eb6f..b25fad44d73 100644
--- a/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
+++ b/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
@@ -9,9 +9,9 @@ freshnessValidatedDate: never
translationType: machine
---
-당사의 합성 모니터링 작업 관리자는 [개인 위치](/docs/synthetics/synthetic-monitoring/private-locations/private-locations-overview-monitor-internal-sites-add-new-locations) 에 할당된 [합성 모니터](/docs/synthetics/synthetic-monitoring/getting-started/types-synthetics-monitors) 를 수락하고 실행하는 [Docker 컨테이너](https://www.docker.com/resources/what-container) 기반 리소스입니다.
+우리의 합성 모니터링 작업 관리자는 배치 위치 에 [할당된 합성 모니터를](/docs/synthetics/synthetic-monitoring/using-monitors/intro-synthetic-monitoring/#types-of-synthetic-monitors)수락하고 실행하는 [도커](https://www.docker.com/resources/what-container) [컨테이너 기반](/docs/synthetics/synthetic-monitoring/private-locations/private-locations-overview-monitor-internal-sites-add-new-locations) 리소스입니다.
-작업 관리자는 Docker 컨테이너 시스템 환경 또는 Kubernetes 컨테이너 오케스트레이션 시스템 환경에서 작동할 수 있습니다. 작업 관리자는 환경을 자동 감지하여 적절한 작동 모드를 선택합니다.
+작업 관리자는 도커 컨테이너 시스템 환경, Podman 컨테이너 시스템 환경 또는 Kubernetes 컨테이너 오케스트레이션 시스템 환경에서 작동할 수 있습니다. 작업 관리자는 자동으로 환경을 감지하여 적절한 작동 모드를 선택합니다.
## 합성 작업 관리자 기능 [#enhancements]
@@ -19,7 +19,7 @@ translationType: machine
* Linux, [macOS](https://docs.docker.com/docker-for-mac/) 및 [Windows](https://docs.docker.com/docker-for-windows/) 와 호환됩니다.
* [루트가 아닌](#run-as-non-root) 사용자 실행에 대한 [보안](#security) 및 지원이 향상되었습니다.
-* Docker 컨테이너를 [샌드박스](#sandboxing-and-docker-deps) 환경으로 활용하는 기능.
+* 도커 컨테이너를 [샌드박스](#docker-dependencies) 환경으로 활용하는 기능.
## Kubernetes 관련 기능 [#kubernetes-enhancements]
@@ -50,7 +50,7 @@ translationType: machine
-
+ |
호환성
|
@@ -69,7 +69,7 @@ translationType: machine
**Linux kernel:** 3.10 이상 **macOS:** 10.11 이상 **Windows:** Windows 10 64비트 이상
- *또한 합성 작업 관리자가 Windows 시스템에서 작동하려면 Linux 컨테이너를 실행하도록 Docker를 구성해야 합니다.*
+ 또한 합성 작업 관리자가 Windows 시스템에서 작동하려면 Linux 컨테이너를 실행하도록 Docker를 구성해야 합니다.
|
@@ -136,7 +136,103 @@ translationType: machine
- Docker 합성 작업 관리자는 AWS ECS, Docker Swarm, Apache Mesos, Azure Container Instances 등과 같은 컨테이너 오케스트레이터와 함께 사용하도록 설계되지 않았습니다. 컨테이너 오케스트레이터에서 Docker 합성 작업 관리자를 실행하면 그 자체가 컨테이너 오케스트레이터이기 때문에 예기치 않은 문제가 발생합니다. 컨테이너 오케스트레이션을 사용하는 경우 [Kubernetes 합성 작업 관리자 요구 사항](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements) 을 참조하세요.
+ 도커 신세틱스 작업 관리자는 AWS ECS, 도커 Swarm, 아파치 Mesos, Azure 컨테이너 외부 등과 같은 컨테이너 오케스트레이터와 함께 사용하도록 설계되지 않았습니다. 컨테이너 오케스트레이터에서 도커 신세틱스 작업 관리자를 실행하면 오케스트레이터 자체로 작동하므로 예상치 못한 문제가 발생합니다. 컨테이너 오케스트레이션을 사용하는 경우 [Kubernetes 신세틱스 작업 관리자 요구 사항을](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements) 참조하세요.
+
+
+
+ >
+ }
+ >
+
+
+
+
+ 호환성
+ |
+
+
+ 요구 사항
+ |
+
+
+
+
+
+
+ 운영 체제
+ |
+
+
+ **Linux kernel:** 3.10 이상
+ |
+
+
+
+
+ 프로세서
+ |
+
+
+ 최신의 멀티코어 AMD64 또는 x86\_64 CPU
+ |
+
+
+
+
+ 메모리
+ |
+
+
+ CPU 코어당 3.256GiB RAM(전용)
+ |
+
+
+
+
+ 디스크 크기
+ |
+
+
+ 호스트당 최소 50GiB
+ |
+
+
+
+
+ 디스크 파일 시스템
+ |
+
+
+ NFSv4.1 이상(NFS를 사용하는 경우)
+ |
+
+
+
+
+ [포드만 버전](https://github.com/containers/podman/releases)
+ |
+
+
+ Podman [5.0.0-ce](https://github.com/containers/podman/releases/tag/v5.0.0) 이상
+ |
+
+
+
+
+ 개인 위치 키
+ |
+
+
+ [개인 위치 키](#private-location-key) 가 있어야 합니다.
+ |
+
+
+
+
+
+ Podman 신세틱스 작업 관리자는 AWS ECS, 도커 Swarm, 아파치 Mesos, Azure 컨테이너 외부 등과 같은 컨테이너 오케스트레이터와 함께 사용하도록 설계되지 않았습니다. 컨테이너 오케스트레이터에서 도커 신세틱스 작업 관리자를 실행하면 오케스트레이터 자체로 작동하므로 예상치 못한 문제가 발생합니다. 컨테이너 오케스트레이션을 사용하는 경우 [Kubernetes 신세틱스 작업 관리자 요구 사항을](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements) 참조하세요.
@@ -148,7 +244,7 @@ translationType: machine
-
+ |
호환성
|
@@ -316,7 +412,7 @@ translationType: machine
## 합성 작업 관리자 설치, 업데이트 및 구성 [#install]
-동일한 호스트에서 둘 이상의 Docker 개인 위치 컨테이너를 실행하는 경우 포트 충돌이 발생합니다. 이 포트 경합을 피하려면 작업 관리자 설정을 시작할 때 다음을 수행해야 합니다.
+동일한 호스트에서 둘 이상의 도커 또는 Podman 로케이션 컨테이너를 실행하는 경우 포트 충돌이 발생합니다. 이러한 포트 경합을 방지하려면 작업 관리자를 설정할 때 다음을 수행해야 합니다.
* 다른 호스트에서 작업 관리자 및 CPM을 실행하십시오.
* 별도의 호스트에서 각 작업 관리자를 실행하십시오.
@@ -324,13 +420,13 @@ translationType: machine
Synthetics 작업 관리자 이미지는 [Docker Hub](https://hub.docker.com/) 에서 호스팅됩니다. [hub.docker.com/r/newrelic/synthetics-job-manager/tags](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags) 로 이동합니다. 모든 릴리스 목록을 보려면
-로컬 이미지 저장소에서 이미지를 호스팅하지 않는 한 Docker가 합성 작업 관리자 및 합성 런타임 이미지를 가져올 수 있도록 방화벽을 통해 `docker.io` 에 대한 연결을 허용해야 합니다. 합성 작업 관리자가 시작되면 런타임 이미지가 자동으로 가져옵니다. 로컬 리포지토리 및 러너 레지스트리 끝점을 설정하는 방법에 대한 자세한 내용은 [Docker 환경 구성](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#docker-env-config) 및 [Kubernetes 환경 구성](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#kubernetes-env-config) 을 참조하세요.
+로컬 이미지에서 이미지를 호스팅하지 않는 한, 도커 또는 Podman이 신세틱스 작업 관리자 및 신세틱스 따로 이미지를 가져올 수 있도록 소속을 통해 `docker.io` 에 대한 연결을 허용해야 합니다. 신세틱스 작업 관리자가 시작되면 런타임 이미지가 자동으로 가져옵니다. 로컬 및 러너 레지스트리 엔드포인트를 설정하는 방법에 대한 자세한 내용은 [도커 환경 설정](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#docker-env-config), [Podman 환경 설정](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#podman-env-config) 및 [Kubernetes 환경 설정을](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#kubernetes-env-config) 참조하세요.
고급 구성 설정에 대한 자세한 내용은 [합성 작업 관리자 구성](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration) 을 참조하십시오.
## 합성 작업 관리자 시작 [#start]
-다음은 작업 관리자를 시작하기 위한 해당 Docker 또는 Kubernetes 지침입니다.
+다음은 작업 관리자를 시작하기 위한 적용 가능한 Docker, Podman 또는 Kubernetes 지침입니다.
1. [개인 위치 키](#private-location-key) 를 찾습니다.
- 2. 샌드박싱에 대한 [Docker 종속성](#sandboxing-and-docker-deps) 을 활성화하고 시스템에 합성 작업 관리자를 [설치](#install-update) 했는지 확인합니다.
+ 2. 샌드박싱을 위해 [도커 의존성/종속성을](#docker-dependencies) 활성화하고 시스템에 신세틱스 작업 관리자를 [설치했는지](#install-update) 확인하세요.
3. 시스템에 적합한 스크립트를 실행하십시오. 다음 예에서 공통 기본 `/var/run/docker.sock` 을 시스템에 맞게 조정합니다.
@@ -375,6 +471,43 @@ Synthetics 작업 관리자 이미지는 [Docker Hub](https://hub.docker.com/)
```
+ >
+ }
+ >
+ 1. [개인 위치 키](#private-location-key) 를 찾습니다.
+ 2. 샌드박싱을 위해 [Podman 의존성/종속성을](#podman-dependencies) 활성화하고 시스템에 신세틱스 작업 관리자를 [설치했는지](#install-update) 확인하세요.
+ 3. 시스템에서 아래 스크립트를 실행하세요.
+
+ Linux에서 탭을 생성하고 호스트 머신의 IP 주소를 추가하려면:
+
+ ```
+ podman pod create --name YOUR_POD_NAME --add-host=podman.service:IP_ADDRESS
+ ```
+
+ 작업 관리자를 시작하려면:
+
+ ```
+ podman run \
+ --name YOUR_CONTAINER_NAME \
+ --pod YOUR_POD_NAME \
+ -e "PRIVATE_LOCATION_KEY=YOUR_PRIVATE_LOCATION_KEY" \
+ -e "CONTAINER_ENGINE=PODMAN" \
+ -e "PODMAN_API_SERVICE_PORT=YOUR_PODMAN_API_SERVICE_PORT" \
+ -e "PODMAN_POD_NAME=YOUR_POD_NAME" \
+ -d \
+ --restart unless-stopped \
+ newrelic/synthetics-job-manager:latest
+ ```
+
+ 미니언 컨테이너의 로그를 보려면:
+
+ ```
+ podman logs --follow YOUR_CONTAINER_NAME
+ ```
+
+
Kubernetes 시작 절차>
@@ -385,7 +518,7 @@ Synthetics 작업 관리자 이미지는 [Docker Hub](https://hub.docker.com/)
2. Kubernetes 클러스터에서 합성 작업 관리자의 네임스페이스를 설정합니다.
```shell
- kubectl create namespace YOUR_NAMESPACE
+ kubectl create namespace YOUR_NAMESPACE
```
3. New Relic Helm 저장소에서 Helm 차트를 복사합니다.
@@ -428,7 +561,7 @@ Synthetics 작업 관리자 이미지는 [Docker Hub](https://hub.docker.com/)
## 합성 작업 관리자 중지 또는 삭제 [#stop]
-Docker 컨테이너 시스템 환경에서 Docker `stop` 프로시저를 사용하여 합성 작업 관리자의 실행을 중지합니다. Kubernetes 컨테이너 오케스트레이션 시스템 환경에서 Kubernetes `delete` 절차를 사용하여 합성 작업 관리자 실행을 중지합니다.
+도커 또는 Podman 컨테이너 시스템 환경에서는 해당 `stop` 프로시저를 사용하여 신세틱스 작업 관리자를 중지합니다. Kubernetes Container 오케스트레이션 시스템 환경에서 Kubernetes `delete` 프로시저를 사용하여 신세틱스 작업 관리자 실행을 중지합니다.
+ >
+ }
+ >
+ 컨테이너 이름이나 컨테이너 ID를 사용하여 [Podman 컨테이너를 중지](https://docs.podman.io/en/stable/markdown/podman-stop.1.html) 할 수 있습니다.
+
+ * Linux용 컨테이너 이름 중지:
+
+ ```
+ podman stop YOUR_CONTAINER_NAME
+ podman rm YOUR_CONTAINER_NAME
+ ```
+
+ * Linux용 컨테이너 ID 중지:
+
+ 예제에서 컨테이너가 중지되고 제거됩니다. 컨테이너만 중지하려면 `podman rm $CONTAINER_ID` 을 생략합니다.
+
+ ```
+ CONTAINER_ID=$(podman ps -aqf name=YOUR_CONTAINER_NAME)
+ podman stop $CONTAINER_ID
+ podman rm $CONTAINER_ID
+ ```
+
+
Kubernetes 삭제 절차>
@@ -491,9 +649,9 @@ Docker 컨테이너 시스템 환경에서 Docker `stop` 프로시저를 사용
-## 샌드박싱 및 Docker 종속성 [#sandboxing-and-docker-deps]
+## 샌드박싱과 의존성/종속성 [#sandboxing-and-deps]
-샌드박싱 및 Docker 종속성은 Docker 컨테이너 시스템 환경의 합성 작업 관리자에 적용할 수 있습니다.
+Sandboxing 및 의존성/종속성은 도커 또는 Podman 컨테이너 시스템 환경의 신세틱스 작업 관리자에 적용 가능합니다.
+
+ >
+ }
+ >
+ 신세틱스 작업 관리자는 Podman에서 실행되며 Podman을 샌드박싱 기술로 활용할 수 있습니다. 이를 통해 모니터 실행이 완전히 격리되어 보안, 안정성 및 반복성이 향상됩니다. 스크립트 또는 브라우저 모니터가 실행될 때마다 신세틱스 작업 관리자는 일치하는 런타임을 사용하여 이를 실행할 새로운 Podman 컨테이너를 생성합니다.
+
+ 추가 런타임 컨테이너를 생성하려면 Podman 엔진과 통신하도록 신세틱스 작업 관리자 컨테이너를 구성해야 합니다. 그런 다음 생성된 각 컨테이너는 신세틱스 작업 관리자 터미널과 연결된 구역 위치에서 실행되는 [합성 모니터](/docs/synthetics/new-relic-synthetics/using-monitors/add-edit-monitors) 와 관련된 검사를 실행하는 데 전용입니다.
+
+ 등장에는 결정적인 의존성/종속성이 있습니다. 샌드박싱을 활성화하려면 다음이 필요합니다.
+
+ 1. Podman [5.0.0-ce](https://github.com/containers/podman/releases/tag/v5.0.0) 이상을 설치했습니다.
+
+ 2. Rootless 실행을 활성화했습니다.
+
+ * 루트 권한이 없어도 컨테이너를 실행하도록 Podman을 설정합니다.
+ ```
+ mkdir -p ~/.config/containers
+ touch ~/.config/containers/containers.conf
+ vi ~/.config/containers/containers.conf
+ ```
+ * `containers.conf` 파일을 편집하여 Podman이 `crun` 및 `systemd` 사용하도록 구성합니다.
+ ```
+ [engine]
+ runtime = "crun"
+ cgroup_manager = "systemd"
+ ```
+
+ 3. cgroups v2 활성화(RHEL 전용):
+ * GRUB를 편집하여 cgroups v2를 활성화하면 RHEL의 최신 컨테이너 런타임과의 호환성이 보장됩니다.
+ ```
+ sudo sed -i 's/GRUB_CMDLINE_LINUX="/&systemd.unified_cgroup_hierarchy=1 /' /etc/default/grub
+ sudo grub2-mkconfig -o /boot/grub2/grub.cfg
+ sudo reboot
+ ```
+
+ 4. Podman 서비스에 대한 `cgroups` 위임을 허용하기 위해 시스템 전체 위임을 활성화했습니다.
+ ```
+ sudo mkdir -p /etc/systemd/system/user@.service.d/
+ echo -e "[Service]\nDelegate=yes" | sudo tee /etc/systemd/system/user@.service.d/delegate.conf > /dev/null
+ ```
+
+ 5. 사용자 수준 `systemd` 서비스를 설정합니다.
+
+ * 사용자 수준 `systemd` 서비스에 대한 디렉토리를 만듭니다.
+ ```
+ mkdir -p ~/.config/systemd/user/podman.service.d
+ ```
+ * 사용자 수준 `systemd` 서비스에 대리인 설정을 추가합니다.
+ ```
+ echo -e "[Service]\nDelegate=yes" > ~/.config/systemd/user/podman.service.d/override.conf
+ ```
+
+ 6. Podman 소켓을 활성화하고 시작했습니다.
+ ```
+ systemctl --user enable podman.socket
+ systemctl --user start podman.socket
+ systemctl --user status podman.socket
+ ```
+
+ 7. Podman API 서비스를 생성하고 구성했습니다.
+
+ * Podman API 서비스를 생성하고 Podman을 설정하여 HTTP API 액세스를 제공합니다.
+ ```
+ mkdir -p ~/.config/systemd/user
+ touch ~/.config/systemd/user/podman-api.service
+ vi ~/.config/systemd/user/podman-api.service
+ ```
+ * 포트 8000에서 Podman의 API를 공개하는 서비스를 정의합니다.
+ ```
+ [Unit]
+ Description=Podman API Service
+ After=default.target
+
+ [Service]
+ Type=simple
+ ExecStart=/usr/bin/podman system service -t 0 tcp:0.0.0.0:8000
+ Restart=on-failure
+
+ [Install]
+ WantedBy=default.target
+ ```
+
+ 8. Podman API 서비스를 활성화하고 시작했습니다.
+ ```
+ systemctl --user daemon-reload
+ systemctl --user enable podman-api.service
+ systemctl --user start podman-api.service
+ systemctl --user status podman-api.service
+ ```
+
+
+ 호스트의 코어 수는 호스트에서 동시에 실행할 수 있는 런타임 컨테이너 신세틱스 작업 수를 결정합니다. 메모리 요구 사항은 예상되는 런타임 컨테이너 수에 따라 확장되므로 리소스 경합을 방지하려면 **not running multiple synthetics job managers on the same host** 사용하는 것이 좋습니다.
+
+
+
+
## 보안, 샌드박싱 및 루트가 아닌 사용자로 실행 [#security]
기본적으로 합성 작업 관리자 내에서 실행되는 소프트웨어는 `root` 사용자 권한으로 실행됩니다. 실행이 샌드박스 처리되므로 대부분의 시나리오에 적합합니다.
@@ -559,7 +815,7 @@ Docker 컨테이너 시스템 환경에서 Docker `stop` 프로시저를 사용
-## Docker 또는 Kubernetes 환경 이해 [#understand]
+## Docker, Podman 또는 Kubernetes 환경을 이해하세요 [#understand]
다음은 작업 관리자의 컨테이너 환경 유지 관리 및 이해에 대한 추가 정보입니다. 라이선스 정보를 보고, 작업 관리자의 네트워크 설정을 이해하고, Docker 이미지 리포지토리를 확인하세요.
@@ -567,7 +823,7 @@ Docker 컨테이너 시스템 환경에서 Docker `stop` 프로시저를 사용
해당하는 경우 다음 옵션을 사용하십시오.
- * Docker 로그를 추적하고 모니터의 상태를 확인하려면 [합성 작업 관리자 유지 관리 및 모니터링](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring) 을 참조하세요.
+ * 도커 또는 Podman 로그를 추적하고 모니터 상태를 확인하려면 [신세틱스 작업 관리자 유지 관리 및 모니터링을](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring) 참조하세요.
* Kubernetes 컨테이너 조정 시스템 환경의 합성 작업 관리자의 경우 다음 Helm `show` 명령을 사용하여 각각 `chart.yaml` 및 `values.yaml` 를 볼 수 있습니다.
@@ -590,10 +846,12 @@ Docker 컨테이너 시스템 환경에서 Docker `stop` 프로시저를 사용
합성 작업 관리자와 런타임 컨테이너 간의 통신을 위해 브리지 네트워크가 생성됩니다. 즉, 실행 시 합성 작업 관리자 컨테이너에 전달된 `--network` 및 `--dns` 과 같은 네트워킹 명령 옵션(예: Docker 컨테이너 시스템 환경에서 Docker 실행 명령을 통해)은 런타임 컨테이너에서 상속되거나 사용되지 않습니다.
이러한 네트워크는 생성될 때 데몬에 대해 구성된 기본 IP 주소 풀에서 가져옵니다. Docker 컨테이너 시스템 환경에서의 이에 대한 예는 [Docker 사이트](https://docs.docker.com/engine/reference/commandline/dockerd/#daemon-configuration-file) 를 참조하십시오.
+
+ Podman의 경우 신세틱스 작업 관리자와 런타임 컨테이너 간의 통신을 위해 브리지 네트워크를 사용하지 않고 대신 Podman Pad를 사용합니다. Podman 파드의 모든 컨테이너는 동일한 네트워크 지우스페이스를 공유합니다. 즉, 해당 파드 내에서는 동일한 IP 주소를 공유한다는 뜻입니다. 이 경우 컨테이너가 동일한 IP를 공유하더라도 서비스는 서로 다른 포트에 노출됩니다.
- 단일 합성 작업 관리자 Docker 이미지는 Docker 컨테이너 시스템 환경과 Kubernetes 컨테이너 오케스트레이션 시스템 환경을 모두 제공합니다. Docker 이미지는 Docker Hub에서 호스팅됩니다. Docker 이미지가 최신 상태인지 확인하려면 [Docker Hub newrelic/synthetics-job-manager 리포지토리](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags) 를 참조하십시오.
+ 단일 신세틱스 작업 관리자 도커 이미지는 도커, Podman 및 Kubernetes 컨테이너 오케스트레이션 시스템 환경을 제공합니다. docker 이미지는 docker Hub에 호스팅됩니다. docker 이미지가 최신 상태인지 확인하려면 [docker Hub newrelic/synthetics-job-manager 저장소를](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags) 참조하세요.
@@ -639,7 +897,7 @@ Docker 컨테이너 시스템 환경에서 Docker `stop` 프로시저를 사용
- 이는 Docker 컨테이너 환경에만 적용됩니다. 실행 시 합성 작업 관리자 컨테이너에 전달된 인수는 합성 작업 관리자가 생성한 런타임 컨테이너로 전달되지 않습니다. Docker에는 컨테이너의 "상속" 또는 "계층" 개념이 없으며 합성 작업 관리자에서 런타임 컨테이너로 전달되는 구성을 복사하지 않습니다. 그들 사이의 유일한 공유 구성은 [Docker 데몬](https://docs.docker.com/config/daemon/) 수준에서 설정된 구성입니다.
+ 이는 도커 및 Podman 컨테이너 환경에만 적용됩니다. 신세틱스 작업 관리자 터미널에 전달된 인수는 신세틱스 작업 관리자가 생성한 런타임 컨테이너로 전달되지 않습니다. 도커와 Podman에는 컨테이너의 "상속" 또는 "계층 구조"에 대한 개념이 없으며 신세틱스 작업 관리자에서 런타임 컨테이너로 전달된 설정을 복사하지 않습니다. 그러나 파드 수준에서 전달된 Podman 인수의 경우 파드에서 신세틱스 작업 관리자와 런타임 컨테이너 간에 공유됩니다. 그들 사이에서 공유되는 유일한 설정은 [도커 데몬](https://docs.docker.com/config/daemon/) 레벨에서 설정된 설정입니다.
|
diff --git a/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx b/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
index e2c0fd69fd4..c2ec4fb0fc0 100644
--- a/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
+++ b/src/i18n/content/kr/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
@@ -13,7 +13,7 @@ translationType: machine
* 합성 작업 관리자가 정상이고 [합성 작업 관리자 상태 엔드포인트](#sjm-status) 와 함께 작동하는지 확인하십시오.
* 개인 위치가 제대로 프로비저닝되지 않고 [더 많은 합성 작업 관리자가 필요한지 확인합니다](#more-jobmanagers) .
-* [Docker 로그](#monitor-docker-logs) 또는 [Kubernetes 로그](#monitor-docker-logs) 를 검토하십시오.
+* [도커 로그인](#monitor-docker-logs), [Podman 로그인](#monitor-podman-logs) 또는 [Kubernetes 로그인 을](#monitor-docker-logs) 검토하세요.
[New Relic의 경고](/docs/synthetics/synthetic-monitors/using-monitors/alerts-synthetic-monitoring) 로 모니터 실패에 대한 알림을 받을 수도 있습니다.
@@ -57,6 +57,18 @@ HTTP를 사용하여 실행 중인 합성 작업 관리자에 연결하는 것
```
+ >
+ }
+ >
+ 다음은 신세틱스 작업 관리자가 Podman 컨테이너 시스템 환경에서 제대로 작동하고 있음을 나타내는 신세틱스 작업 관리자 로그의 예입니다.
+
+ ```
+ $podman logs [YOUR_CONTAINER_NAME]
+ ```
+
+
>
@@ -109,6 +121,22 @@ HTTP를 사용하여 실행 중인 합성 작업 관리자에 연결하는 것
```
+ >
+ }
+ >
+
+ `Podman logs` 에 `-f` 를 추가하면 명령이 로그를 따릅니다.
+
+
+ ```
+ podman run ... -e LOG_LEVEL=DEBUG ...
+ podman logs -f YOUR_CONTAINER_NAME
+ ... verbose logging continues ...
+ ```
+
+
>
diff --git a/src/i18n/content/pt/docs/accounts/original-accounts-billing/original-product-based-pricing/original-pricing-plan-queries.mdx b/src/i18n/content/pt/docs/accounts/original-accounts-billing/original-product-based-pricing/original-pricing-plan-queries.mdx
index 2ae91b153b9..ad104cd9d3c 100644
--- a/src/i18n/content/pt/docs/accounts/original-accounts-billing/original-product-based-pricing/original-pricing-plan-queries.mdx
+++ b/src/i18n/content/pt/docs/accounts/original-accounts-billing/original-product-based-pricing/original-pricing-plan-queries.mdx
@@ -39,9 +39,9 @@ Daremos alguns exemplos de consulta de uso abaixo para diferentes categorias de
- Para obter detalhes sobre como funcionam os preços baseados em CU, consulte [Preços baseados em host e CU](#cu-vs-host).
+ Para obter detalhes sobre como funcionam os preços baseados em UC, consulte [Preços baseados em host e UC](#cu-vs-host).
### Consulta de visão geral
@@ -97,7 +97,7 @@ Daremos alguns exemplos de consulta de uso abaixo para diferentes categorias de
id="apm-host"
title="Consulta de uso de APM baseado em host"
>
- Para obter detalhes sobre como funcionam os preços baseados em host, consulte [Preços baseados em host e CU](#cu-vs-host).
+ Para obter detalhes sobre como funcionam os preços baseados em host, consulte [Preços baseados em host e UC](#cu-vs-host).
### Consulta de visão geral
@@ -262,7 +262,7 @@ Daremos alguns exemplos de consulta de uso abaixo para diferentes categorias de
id="infra"
title="Consulta de uso de monitoramento de infraestrutura"
>
- Para obter detalhes sobre como funcionam os preços baseados em CU de infraestrutura, consulte [Preços baseados em host e CU](#cu-vs-host).
+ Para obter detalhes sobre como funcionam os preços baseados em UC de infraestrutura, consulte [Preços baseados em host e UC](#cu-vs-host).
### Consulta de visão geral
@@ -632,28 +632,28 @@ Daremos alguns exemplos de consulta de uso abaixo para diferentes categorias de
## APM e infraestrutura: preços baseados em unidade de computação versus host [#cu-vs-host]
-O APM oferece uma escolha entre dois modelos de precificação: [precificação baseada em unidade de computação (CU)](#compute-unit) e precificação [baseada em host](#host-based) . A New Relic Infrastructure oferece apenas [preços baseados em CU](#compute-unit). Esta seção mostra como ambas as opções são calculadas e explica o que "host" significa nestes contextos de preços:
+O APM oferece uma escolha entre dois modelos de precificação: [precificação baseada em unidade de computação (UC)](#compute-unit) e precificação [baseada em host](#host-based) . A New Relic Infrastructure oferece apenas [preços baseados em UC](#compute-unit). Esta seção mostra como ambas as opções são calculadas e explica o que "host" significa nestes contextos de preços:
- Em nosso modelo de preços original, os preços baseados em CU estão disponíveis para estes produtos New Relic:
+ Em nosso modelo de preços original, os preços baseados em UC estão disponíveis para estes produtos New Relic:
- * APM (escolha entre preços baseados em CU ou [preços baseados em host](#host-based))
+ * APM (escolha entre preços baseados em UC ou [preços baseados em host](#host-based))
- * Infraestrutura: apenas preços baseados em CU
+ * Infraestrutura: apenas preços baseados em UC
- Com preços baseados em CU, seu preço mensal é determinado pelo tamanho do [host](#understand) (capacidade de computação e memória) que executa o New Relic e pelo número de horas que ele se conecta ao New Relic durante o mês. Se um host estiver conectado ao New Relic a qualquer momento durante uma hora, essa hora contará para o cálculo da UC.
+ Com preços baseados em UC, seu preço mensal é determinado pelo tamanho do [host](#understand) (capacidade de computação e memória) que executa o New Relic e pelo número de horas que ele se conecta ao New Relic durante o mês. Se um host estiver conectado ao New Relic a qualquer momento durante uma hora, essa hora contará para o cálculo da UC.
Cada host é contado separadamente para cada conta New Relic para a qual o host reporta dados. Por exemplo, se você tiver uma conta pai com duas contas filhas, cada uma executando o aplicativo no mesmo host por 3.000 UCs em um determinado mês, o uso da conta pai será de 6.000 UCs.
- Para APM, o preço baseado em CU é a melhor escolha se você tiver muitos recursos de computação dinâmica baseados em nuvem. Por esse motivo, o preço baseado em CU às vezes é chamado de **cloud pricing**.
+ Para APM, o preço baseado em UC é a melhor escolha se você tiver muitos recursos de computação dinâmica baseados em nuvem. Por esse motivo, o preço baseado em UC às vezes é chamado de **cloud pricing**.
As UCs são calculadas da seguinte forma:
- `CUs = (# of CPUs + GBs of RAM) x hours used`
+ `UCs = (# of CPUs + GBs of RAM) x hours used`
O tamanho máximo de um determinado host (CPUs + GB de RAM) é limitado a 16.
@@ -663,7 +663,7 @@ O APM oferece uma escolha entre dois modelos de precificação: [precificação
* Se um host tiver 2 núcleos de CPU, 2 GB de RAM e se conectar ao New Relic por um mês inteiro (750 horas usadas como tamanho mensal padrão), ele consumirá 3.000 UCs.
- Você pode adquirir blocos de UCs para consumir mensalmente. O número total de CUs adquiridas mensalmente é calculado somando o consumo estimado de UCs para todos os hosts no mês. Não há renovação mensal de UCs não utilizadas. Além disso, o New Relic não cobra por JVMs, contêiner (como docker ou Cloud Foundry) ou instância de aplicativo – ele cobra pelos hosts que executam esses contêiner ou instância de aplicativo.
+ Você pode adquirir blocos de UCs para consumir mensalmente. O número total de UCs adquiridas mensalmente é calculado somando o consumo estimado de UCs para todos os hosts no mês. Não há renovação mensal de UCs não utilizadas. Além disso, o New Relic não cobra por JVMs, contêiner (como docker ou Cloud Foundry) ou instância de aplicativo – ele cobra pelos hosts que executam esses contêiner ou instância de aplicativo.
Os preços variam dependendo do produto New Relic e do nível de assinatura.
@@ -673,7 +673,7 @@ O APM oferece uma escolha entre dois modelos de precificação: [precificação
title="Preços baseados em host"
>
- Para nosso modelo de preços original, os preços do APM podem ser baseados em CU ou em host, enquanto a New Relic Infrastructure usa apenas [preços baseados em CU](#compute-unit).
+ Para nosso modelo de preços original, os preços do APM podem ser baseados em UC ou em host, enquanto a New Relic Infrastructure usa apenas [preços baseados em UC](#compute-unit).
Com preços baseados em host, a New Relic cobra com base no número de **equivalent hosts** usados em um mês. Um **equivalent host** é definido como: um [host](#understand) conectado ao New Relic por 750 horas (750 horas usadas como tamanho mensal padrão). Se um host estiver conectado ao New Relic a qualquer momento durante uma hora, essa hora contará para o cálculo do host.
@@ -684,14 +684,14 @@ O APM oferece uma escolha entre dois modelos de precificação: [precificação
Uma vez conectados ao New Relic, os hosts são diferenciados por seu nome de host exclusivo. Um host é conectado ao New Relic quando o agente de idioma está ativo e implantado no host. A New Relic não cobra por contêiner (como docker ou Cloud Foundry), JVMs ou instância de aplicativo; ele cobra pelos hosts que executam esse contêiner ou aplicativo instância.
- O New Relic APM oferece uma escolha entre preços baseados em host e [preços baseados em CU](#compute-unit). O preço baseado em host é ideal se você tiver ambientes principalmente estáticos, consistindo de hosts gerenciados em seu próprio data center.
+ O New Relic APM oferece uma escolha entre preços baseados em host e [preços baseados em UC](#compute-unit). O preço baseado em host é ideal se você tiver ambientes principalmente estáticos, consistindo de hosts gerenciados em seu próprio data center.
- Para entender como o New Relic Compute tanto [os preços baseados em host](#host-based) quanto [os preços baseados em CU](#compute-unit), é importante entender como a palavra **host** é usada. Um host pode ser um dos seguintes:
+ Para entender como o New Relic Compute tanto [os preços baseados em host](#host-based) quanto [os preços baseados em UC](#compute-unit), é importante entender como a palavra **host** é usada. Um host pode ser um dos seguintes:
* Um **physical machine** é um dispositivo baseado em hardware com recursos físicos dedicados, incluindo memória, processamento e armazenamento. Cada máquina tem seu próprio sistema operacional no qual o aplicativo é executado.
diff --git a/src/i18n/content/pt/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx b/src/i18n/content/pt/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx
index f248b1aa23b..3efdf0b4ef5 100644
--- a/src/i18n/content/pt/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx
+++ b/src/i18n/content/pt/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx
@@ -229,7 +229,7 @@ O agente automaticamente utiliza estes frameworks e bibliotecas:
* SqsClient 2.1.0 para o mais recente
- * Struts 2.0 até o mais recente
+ * Suportes 2.0 a 6.6.1
* Economia 0.8.0 até o mais recente
diff --git a/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx b/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx
index a5e0885cf55..8b6cc034167 100644
--- a/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx
+++ b/src/i18n/content/pt/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx
@@ -251,7 +251,7 @@ Após a instalação, o agente automaticamente instrumento com nosso catálogo d
**Nota**: A versão suportada mais recente pode não refletir a versão suportada mais recente.
-| Nome do pacote | Versão mínima suportada | Última versão suportada | Introduzido em\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.9.3 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.11.2 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.696.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.696.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.16.1 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.12.2 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.12 | 9.0.0 | | `@koa/router` | 11.0.2 | 13.1.0 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.3.18 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.8 | 10.1.0 | | `@prisma/client` | 5.0.0 | 5.22.0 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.4.4 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.4 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1692.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.21.1 | 2.6.0 | | `fastify` | 2.0.0 | 5.1.0 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 13.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.10.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.4 | 1.32.0 | | `next` | 13.4.19 | 15.0.3 | 12.0.0 | | `openai` | 4.0.0 | 4.73.0 | 11.13.0 | | `pg` | 8.2.0 | 8.13.1 | 9.0.0 | | `pg-native` | 3.0.0 | 3.2.0 | 9.0.0 | | `pino` | 7.0.0 | 9.5.0 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.1.1 | 4.9.0 | | `undici` | 5.0.0 | 6.21.0 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.17.0 | 8.11.0 |
+| Nome do pacote | Versão mínima suportada | Última versão suportada | Introduzido em\* | | --- | --- | --- | --- | | `@apollo/gateway` | 2.3.0 | 2.9.3 | `@newrelic/apollo-server-plugin@1.0.0` | | `@apollo/server` | 4.0.0 | 4.11.2 | `@newrelic/apollo-server-plugin@2.1.0` | | `@aws-sdk/client-bedrock-runtime` | 3.474.0 | 3.705.0 | 11.13.0 | | `@aws-sdk/client-dynamodb` | 3.0.0 | 3.705.0 | 8.7.1 | | `@aws-sdk/client-sns` | 3.0.0 | 3.699.0 | 8.7.1 | | `@aws-sdk/client-sqs` | 3.0.0 | 3.699.0 | 8.7.1 | | `@aws-sdk/lib-dynamodb` | 3.377.0 | 3.705.0 | 8.7.1 | | `@aws-sdk/smithy-client` | 3.47.0 | 3.374.0 | 8.7.1 | | `@elastic/elasticsearch` | 7.16.0 | 8.16.2 | 11.9.0 | | `@grpc/grpc-js` | 1.4.0 | 1.12.4 | 8.17.0 | | `@hapi/hapi` | 20.1.2 | 21.3.12 | 9.0.0 | | `@koa/router` | 11.0.2 | 13.1.0 | 3.2.0 | | `@langchain/core` | 0.1.17 | 0.3.20 | 11.13.0 | | `@nestjs/cli` | 9.0.0 | 10.4.8 | 10.1.0 | | `@prisma/client` | 5.0.0 | 6.0.1 | 11.0.0 | | `@smithy/smithy-client` | 2.0.0 | 3.4.5 | 11.0.0 | | `amqplib` | 0.5.0 | 0.10.5 | 2.0.0 | | `apollo-server` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `apollo-server-express` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | | `aws-sdk` | 2.2.48 | 2.1692.0 | 6.2.0 | | `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | | `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | | `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | | `connect` | 3.0.0 | 3.7.0 | 2.6.0 | | `express` | 4.6.0 | 4.21.1 | 2.6.0 | | `fastify` | 2.0.0 | 5.1.0 | 8.5.0 | | `generic-pool` | 3.0.0 | 3.9.0 | 0.9.0 | | `ioredis` | 4.0.0 | 5.4.1 | 1.26.2 | | `kafkajs` | 2.0.0 | 2.2.4 | 11.19.0 | | `koa` | 2.0.0 | 2.15.3 | 3.2.0 | | `koa-route` | 3.0.0 | 4.0.1 | 3.2.0 | | `koa-router` | 11.0.2 | 13.0.1 | 3.2.0 | | `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | | `mongodb` | 4.1.4 | 6.11.0 | 1.32.0 | | `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | | `mysql2` | 2.0.0 | 3.11.5 | 1.32.0 | | `next` | 13.4.19 | 15.0.3 | 12.0.0 | | `openai` | 4.0.0 | 4.75.0 | 11.13.0 | | `pg` | 8.2.0 | 8.13.1 | 9.0.0 | | `pg-native` | 3.0.0 | 3.2.0 | 9.0.0 | | `pino` | 7.0.0 | 9.5.0 | 8.11.0 | | `q` | 1.3.0 | 1.5.1 | 1.26.2 | | `redis` | 3.1.0 | 4.7.0 | 1.31.0 | | `restify` | 11.0.0 | 11.1.0 | 2.6.0 | | `superagent` | 3.0.0 | 10.1.1 | 4.9.0 | | `undici` | 5.0.0 | 7.1.0 | 11.1.0 | | `when` | 3.7.0 | 3.7.8 | 1.26.2 | | `winston` | 3.0.0 | 3.17.0 | 8.11.0 |
\*Quando o pacote não é especificado, o suporte está dentro do pacote `newrelic` .
diff --git a/src/i18n/content/pt/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx b/src/i18n/content/pt/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx
index 166419637fe..5e81695c2bf 100644
--- a/src/i18n/content/pt/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx
+++ b/src/i18n/content/pt/docs/apm/agents/ruby-agent/getting-started/ruby-agent-requirements-supported-frameworks.mdx
@@ -480,10 +480,6 @@ O agente Ruby da New Relic [versão 3.17.0 ou superior](/docs/release-notes/agen
-
- ORM
- |
-
Banco de dados
|
@@ -500,10 +496,6 @@ O agente Ruby da New Relic [versão 3.17.0 ou superior](/docs/release-notes/agen
-
- Registro Ativo 5 ou superior
- |
-
[PostgreSQL](https://www.postgresql.org/)
|
@@ -531,53 +523,19 @@ O agente Ruby da New Relic [versão 3.17.0 ou superior](/docs/release-notes/agen
-
-
- Registro Ativo 2.1 a 4
- |
-
-
- [PostgreSQL](https://www.postgresql.org/)
- |
-
-
- [pg](https://rubygems.org/gems/pg)
- |
-
-
- 3.17.0
- |
-
-
[MySQL](https://www.mysql.com/)
|
- [mysql](https://rubygems.org/gems/mysql)
+ [Trilogy](https://rubygems.org/gems/trilogy)
|
- 3.17.0
+ 9.16.1
|
-
-
-
- [MySQL](https://www.mysql.com/)
- |
-
-
- [mysql2](https://rubygems.org/gems/mysql2)
- |
-
-
- 3.17.0
- |
-
- |
-
@@ -776,13 +734,12 @@ Os clientes HTTP suportados pelo agente Ruby incluem:
## Enfileiramento de mensagens [#http\_clients][#http_clients]
-[A instrumentação da fila de mensagens](/docs/agents/ruby-agent/features/message-queues) está disponível apenas com o [agente Ruby versão 4.3.0 ou superior](/docs/release-notes/agent-release-notes/ruby-release-notes). Corretores de mensagens atualmente suportados:
-
-* RabbitMQ
-
-Gems atualmente suportadas que facilitam os corretores de mensagens:
+Gemas atualmente suportadas que são [instrumentado](/docs/agents/ruby-agent/features/message-queues):
-* [Bunny](/docs/agents/ruby-agent/features/message-queues): 2.0 ou superior (versões 2.0.x - 2.6.x suportadas pela última vez na versão 8.16.0 do agente)
+* Bunny: 2.0 ou superior (versões 2.0.x - 2.6.x suportadas pela última vez na versão 8.16.0 do agente)
+* AWS SQS
+* rdkafka
+* rubi-kafka
## Outro
diff --git a/src/i18n/content/pt/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx b/src/i18n/content/pt/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx
index 4a3888a7979..d839972846f 100644
--- a/src/i18n/content/pt/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx
+++ b/src/i18n/content/pt/docs/browser/browser-monitoring/browser-pro-features/session-replay.mdx
@@ -195,7 +195,7 @@ Para obter mais detalhes sobre Session Replay, consulte as seções a seguir:
* Versão do agente v1.260.0 ou superior. Recomendamos [atualizar para a versão mais recente do agente](/docs/release-notes/new-relic-browser-release-notes/browser-agent-release-notes) à medida que continuamos fazendo melhorias.
* Tipo de agente: Pro ou Pro+SPA. Session Replay não funciona com o agente browser Lite.
- * [O rastreamento de sessão](/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking/#settings) e o rastreamento de sessão estão habilitados.
+ * [O rastreamento de sessão](/docs/browser/browser-monitoring/browser-pro-features/session-traces-explore-webpages-life-cycle/#requirements) está habilitado.
* O navegador do seu usuário final suporta a API de nível de navegador necessária para gravar um Session Replay (verifique a compatibilidade em [MutationObserver](https://caniuse.com/mutationobserver)).
diff --git a/src/i18n/content/pt/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx b/src/i18n/content/pt/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx
index 8b999639b09..fd70cb9e6a9 100644
--- a/src/i18n/content/pt/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx
+++ b/src/i18n/content/pt/docs/browser/browser-monitoring/page-load-timing-resources/cookie-collection-session-tracking.mdx
@@ -34,11 +34,4 @@ Aqui está o processo básico para rastreamento de sessão:
* Se o usuário tiver o DOM Storage desabilitado em seu browser.
* Se o browser ou página estiver configurado para **não** permitir o carregamento e execução de scripts de origem de terceiros por meio de políticas de segurança ou outros meios (o que naturalmente significa que o agente como um todo não funcionará).
- * API de armazenamento do browser, como localStorage, são apagadas durante uma sessão ativa.
-
-## Ativar ou desativar o rastreamento [#settings]
-
-Na New Relic, levamos a privacidade dos dados a sério. Por padrão, não retemos nenhum dado pessoal coletado pelo nosso browser agente e você pode controlar o rastreamento da sessão. Se você deseja ativar ou desativar o rastreamento de sessão no browser dos visitantes do seu site:
-
-1. Vá para **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Browser > (select an app) > Settings > Application settings**.
-2. Nas configurações **Privacy** do seu aplicativo, alterne **Session tracking**.
\ No newline at end of file
+ * API de armazenamento do browser, como localStorage, são apagadas durante uma sessão ativa.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx b/src/i18n/content/pt/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx
index 183120ce232..49679572588 100644
--- a/src/i18n/content/pt/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx
+++ b/src/i18n/content/pt/docs/browser/browser-monitoring/troubleshooting/troubleshoot-your-browser-monitoring-installation.mdx
@@ -176,7 +176,7 @@ Estas etapas de resolução de problemas se aplicam a problemas quando o agente
- Se o seu aplicativo for carregado principalmente em uma rede local segura, certifique-se de que seu usuário possa alcançar o ponto de extremidade de rede necessário para relatar dados do browser. Isso inclui [CDNs e beacon](/docs/browser/new-relic-browser/performance-quality/security-new-relic-browser#cdn) da New Relic.
+ Se seu aplicativo for carregado principalmente em uma rede local segura, certifique-se de que seu usuário possa alcançar o endpoint de rede necessário para relatar os dados do browser. Isso inclui [CDNs e beacon](/docs/browser/new-relic-browser/performance-quality/security-new-relic-browser#cdn) da New Relic.
diff --git a/src/i18n/content/pt/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx b/src/i18n/content/pt/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx
index 195b4543913..615c167f27c 100644
--- a/src/i18n/content/pt/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx
+++ b/src/i18n/content/pt/docs/browser/new-relic-browser/browser-apis/wraplogger.mdx
@@ -44,7 +44,7 @@ Para obter mais informações, consulte a [documentação de instalação do bro
Depois de fornecer a esse método um contêiner pai válido e um nome de função filho, o agente do browser registrará um novo evento de log toda vez que a função encapsulada for invocada. O primeiro argumento é passado para a função invocada como a mensagem do log. Veja a [interface de log](/docs/logs/ui-data/use-logs-ui/) para mais informações sobre evento de log.
-A configuração opcional pode ser transmitida junto com esses logs capturados com o argumento `options` . Qualquer atributo personalizado fornecido à chamada de API no argumento `options` (`options.customAttributes`) será anexado como atributo de nível superior em cada evento de log criado por este wrapper. Você pode controlar o `level` do log capturado fornecendo um `level` ao argumento `options` (`options.level`), cujo padrão é `info`. Observe que, uma vez encapsulado com sucesso, a detecção de log da função não pode ser alterada.
+Você pode passar a configuração opcional junto com esses logs capturados usando o argumento `options` . Qualquer atributo personalizado fornecido à chamada de API no argumento `options` (`options.customAttributes`) é anexado como atributo de nível superior em cada evento de log criado por este wrapper. Forneça um `level` ao argumento `options` (`options.level`) para controlar o `level` do log capturado. Por padrão, o nível de log é definido como `info`.
## Parâmetro [#wrap-parameters]
diff --git a/src/i18n/content/pt/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx b/src/i18n/content/pt/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx
index c0713924d5b..bf81afe14e3 100644
--- a/src/i18n/content/pt/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx
+++ b/src/i18n/content/pt/docs/browser/new-relic-browser/performance-quality/security-browser-monitoring.mdx
@@ -115,7 +115,7 @@ Browser determina o tipo de browser a partir do cabeçalho `User-Agent` e a loca
Essas informações aparecem na [página**Geography** ](/docs/browser/new-relic-browser/additional-standard-features/geography-webpage-performance-location)do aplicativo selecionado. Além disso, detalhes sobre tipos específicos de browser aparecem na [página**Browsers** ](/docs/browser/new-relic-browser/additional-standard-features/browsers-problem-patterns-type-or-location)do aplicativo selecionado.
-## Acesso CDN [#traces]
+## Acesso CDN [#cdn]
O tempo de carregamento da página requer acesso à rede de entrega de conteúdo (CDN), onde o arquivo JavaScript do utilitário New Relic (`nr.js`) está hospedado. O nome de domínio do arquivo (`js-agent.newrelic.com`) permanece estático, mas o número no caminho (versão) pode mudar periodicamente.
@@ -125,7 +125,7 @@ Uma tag `script` é injetada pelo agente New Relic (ou colada na página da Web
Se o seu usuário final estiver atrás de um firewall ou proxy e não tiver acesso ao CDN ou às [redes](/docs/apm/new-relic-apm/getting-started/networks) da New Relic (incluindo `bam.nr-data.net` e `bam-cell.nr-data.net`), o monitoramento do browser não funcionará.
-## Biscoitos
+## Biscoitos [#cookies]
Para o agente atual (versão 1220 e superior), o uso de cookies de terceiros foi descontinuado.
diff --git a/src/i18n/content/pt/docs/codestream/observability/code-level-metrics.mdx b/src/i18n/content/pt/docs/codestream/observability/code-level-metrics.mdx
index fe74c5717fa..3ea758771e5 100644
--- a/src/i18n/content/pt/docs/codestream/observability/code-level-metrics.mdx
+++ b/src/i18n/content/pt/docs/codestream/observability/code-level-metrics.mdx
@@ -1,7 +1,7 @@
---
title: Métrica al nível do código
metaDescription: See performance data at the method level.
-freshnessValidatedDate: '2024-03-14T00:00:00.000Z'
+freshnessValidatedDate: '2024-12-04T00:00:00.000Z'
translationType: machine
---
@@ -36,12 +36,11 @@ SINCE 30 minutes ago LIMIT MAX
Para ver os dados de desempenho no editor, seu serviço deve atender aos requisitos listados abaixo e deve ter coletado dados nos últimos 30 minutos.
* [distributed tracing](/docs/distributed-tracing/enable-configure/language-agents-enable-distributed-tracing) deve estar ativado. distributed tracing está ativado por padrão nas versões recentes de todos os agentes, portanto, você só precisa se preocupar com isso se tiver desabilitado distributed tracing.
-* **Go:** Requer agente Go versão 3.24.0 ou superior. Se estiver usando o VS Code, você também deverá ter a extensão [Go for VS Code](https://marketplace.visualstudio.com/items?itemName=golang.go) instalada com o servidor de idioma habilitado.
-* **Java:** Requer agente Java versão 7.11.0 ou superior. nível do código métrico estão disponíveis apenas para projetos implementados com um [frameworkJava suportado](/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent/#frameworks). Se estiver usando o VS Code, você também deverá ter a extensão [Language Support for Java by Red Hat](https://marketplace.visualstudio.com/items?itemName=redhat.java) instalada. Observe que o suporte Kotlin está disponível apenas no IntelliJ.
-* **.NET:** Requer agente .NET versão 10.2.0 ou superior. Se você estiver usando o Visual Studio, verifique se o CodeLenses está ativado acessando **Tools > Options > Text Editor > All Languages > CodeLens** e verificando se "Ativar CodeLens" e "Mostrar nível do código métrico do CodeStream" estão marcados. Se estiver usando o VS Code, você deverá ter a extensão [C#](https://marketplace.visualstudio.com/items?itemName=ms-dotnettools.csharp) instalada.
-* **Node.js:** Requer agente Node.js versão 10.5.0 ou superior. Se sua base de código incluir funções anônimas, você precisará usar [o Monitoramento de Alterações](/docs/change-tracking/change-tracking-introduction/) para enviar informações de implantação para o New Relic ou [enviar seu SHA de build por meio de uma variável de ambiente](/docs/codestream/observability/error-investigation/#buildsha) em seu pipeline de build.
-* **PHP:** Requer agente PHP versão 10.6.0 ou superior. Se estiver usando o VS Code, você também deve ter a extensão [PHP Intelephense](https://marketplace.visualstudio.com/items?itemName=bmewburn.vscode-intelephense-client) instalada.
-* **Python:** Requer agente Python versão 7.10.0.175 ou superior. nível do código métrico estão disponíveis apenas para projetos implementados com [framework Python suportado](/docs/apm/agents/python-agent/getting-started/instrumented-python-packages) e para PHP versão 7.0 ou superior. Se estiver usando o VS Code, você também deverá ter a extensão [Python](https://marketplace.visualstudio.com/items?itemName=ms-python.python) instalada com o servidor de linguagem habilitado.
-* **Ruby:** Requer o agente Ruby versão 8.10.0 ou superior. O nível do código métrico está disponível apenas para aplicativos Rails e métodos Ruby com rastreamento manual ([saiba mais sobre métodos Ruby e CodeStream](/docs/apm/agents/ruby-agent/features/ruby-codestream-integration)). Se você estiver usando o VS Code, também deverá ter a extensão [Ruby LSP](https://marketplace.visualstudio.com/items?itemName=Shopify.ruby-lsp) instalada.
+* Se estiver usando o VS Code, você precisa ter uma extensão instalada para ter suporte às linguagens [Java](https://marketplace.visualstudio.com/items?itemName=redhat.java), [C#](https://marketplace.visualstudio.com/items?itemName=ms-dotnettools.csharp), [PHP](https://marketplace.visualstudio.com/items?itemName=bmewburn.vscode-intelephense-client), [Python](https://marketplace.visualstudio.com/items?itemName=ms-python.python), [Go](https://marketplace.visualstudio.com/items?itemName=golang.go) ou [Ruby](https://marketplace.visualstudio.com/items?itemName=Shopify.ruby-lsp).
+* **Java:** nível do código métrico estão disponíveis apenas para projetos implementados com um [suportado Java framework](/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent/#frameworks). Observe que o suporte ao Kotlin está disponível apenas no IntelliJ.
+* **.NET:** Se estiver usando o Visual Studio, certifique-se de que o CodeLenses esteja habilitado em **Tools > Options > Text Editor > All Languages > CodeLens** e que as opções **Enable CodeLens** e **Show CodeStream Code-Level Metrics** estejam marcadas.
+* **Node.js:** Se sua base de código incluir funções anônimas, você pode usar [o Monitoramento de Alterações](/docs/change-tracking/change-tracking-introduction/) para enviar informações de implantação para o New Relic ou enviar seu [SHA de compilação usando uma variável de ambiente](/docs/codestream/observability/error-investigation/#buildsha) em seu pipeline de compilação.
+* **Python:** O nível do código métrico está disponível apenas para projetos implementados com um [suportado Python framework](/docs/apm/agents/python-agent/getting-started/instrumented-python-packages) e para PHP versão 7.0 ou superior.
+* **Ruby:** O nível do código métrico está disponível apenas para aplicativos Rails e métodos Ruby com rastreamento manual ([saiba mais sobre métodos Ruby e CodeStream](/docs/apm/agents/ruby-agent/features/ruby-codestream-integration)).
Você pode desativar o CodeLenses acessando a seção CodeStream das configurações do seu IDE e desmarcando a configuração **CodeStream: Show Golden Signals In Editor** .
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/codestream/start-here/install-codestream.mdx b/src/i18n/content/pt/docs/codestream/start-here/install-codestream.mdx
index fb4f53dfd89..98a909f9c37 100644
--- a/src/i18n/content/pt/docs/codestream/start-here/install-codestream.mdx
+++ b/src/i18n/content/pt/docs/codestream/start-here/install-codestream.mdx
@@ -1,44 +1,30 @@
---
title: Instale CodeStream e inscreva-se
metaDescription: How to install CodeStream and integrate it with your New Relic account.
-freshnessValidatedDate: never
+freshnessValidatedDate: '2024-12-04T00:00:00.000Z'
translationType: machine
---
Você pode instalar a extensão CodeStream para seu IDE específico.
-
+
Baixe e instale o CodeStream para [Visual Studio Code](https://marketplace.visualstudio.com/items?itemName=CodeStream.codestream). Você também pode instalá-lo diretamente no Visual Studio Code por meio do mercado de extensões.
-
+
Baixe e instale o CodeStream para [Visual Studio 2022](https://marketplace.visualstudio.com/items?itemName=CodeStream.codestream-vs-22). Você também pode instalá-lo diretamente no Visual Studio por meio do mercado de extensões.
-
+
Baixe e instale CodeStream para [JetBrains](https://plugins.jetbrains.com/plugin/12206-codestream). Você também pode instalá-lo no menu do plug-in JetBrains.
+Se você estiver usando o VS Code, alguns recursos CodeStream exigem a instalação de uma extensão para ter suporte a linguagens como [Java](https://marketplace.visualstudio.com/items?itemName=redhat.java), [C#](https://marketplace.visualstudio.com/items?itemName=ms-dotnettools.csharp), [PHP](https://marketplace.visualstudio.com/items?itemName=bmewburn.vscode-intelephense-client), [Python](https://marketplace.visualstudio.com/items?itemName=ms-python.python), [Go](https://marketplace.visualstudio.com/items?itemName=golang.go) ou [Ruby](https://marketplace.visualstudio.com/items?itemName=Shopify.ruby-lsp).
+
## Entrar [#signin]
Depois de instalar a extensão CodeStream em seu IDE, faça login com suas credenciais do New Relic.
-
+
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/metric-data-type.mdx b/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/metric-data-type.mdx
index 95d37f59eab..1ccd45cfc86 100644
--- a/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/metric-data-type.mdx
+++ b/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/metric-data-type.mdx
@@ -62,13 +62,15 @@ A métrica `type` determina como os dados são agregados em janelas de tempo mai
O valor deve ser um duplo positivo.
- Geralmente, você deseja calcular a taxa da soma:
+ Geralmente, você deseja pegar o `rate` do `sum`:
- `From Metric select rate(sum(myMetric), 1 minute`). . .
+ ```sql
+ FROM Metric SELECT rate(sum(myMetric), 1 minute`) . . .
+ ```
- * [sum](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-sum)
+ * [`sum`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-sum)
|
@@ -125,13 +127,13 @@ A métrica `type` determina como os dados são agregados em janelas de tempo mai
- * percentil
- * histogram
- * min
- * máx.
- * sum
- * count
- * média
+ * `percentile`
+ * `histogram`
+ * `min`
+ * `max`
+ * `sum`
+ * `count`
+ * `average`
|
@@ -159,12 +161,12 @@ A métrica `type` determina como os dados são agregados em janelas de tempo mai
- * mais recente
- * min
- * máx.
- * sum
- * count
- * média
+ * `latest`
+ * `min`
+ * `max`
+ * `sum`
+ * `count`
+ * `average`
|
@@ -190,11 +192,11 @@ A métrica `type` determina como os dados são agregados em janelas de tempo mai
- * min
- * máx.
- * sum
- * count
- * média
+ * `min`
+ * `max`
+ * `sum`
+ * `count`
+ * `average`
|
@@ -220,7 +222,7 @@ A métrica `type` determina como os dados são agregados em janelas de tempo mai
- * [uniqueCount](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-uniqueCount)
+ * [`uniqueCount`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#func-uniqueCount)
|
diff --git a/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx b/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx
index c046ee56916..6d95528d238 100644
--- a/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx
+++ b/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-apm-metric-timeslice-data-nrql.mdx
@@ -9,9 +9,9 @@ O APM reporta dados métricos na forma de [dados métricos de frações de tempo
## Por que consultar dados métricos de fração de tempo? [#why]
-A New Relic reporta [métricas de diversas maneiras](/docs/using-new-relic/data/understand-data/new-relic-data-types#metrics). Uma variedade de dados métricos que chamamos de **metric timeslice data**; este é o tipo de dados usado para gerar muitos dos gráficos em APM, e browser (para mais detalhes, veja [métrica de fração de tempo data](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data)).
+A New Relic reporta [métricas de diversas maneiras](/docs/using-new-relic/data/understand-data/new-relic-data-types#metrics). Uma variedade de dados métricos que chamamos de **metric timeslice data**; este é o tipo de dados usado para gerar muitos dos gráficos em APM, e browser (para mais detalhes, veja [métrica de fração de tempo data](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data)).
-métrica são automaticamente convertidas de dados métricos de fração de tempo para dados métricos dimensionais mais detalhados, o que os abre para consulta via NRQL e por meio de nossa [API NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-nrql-tutorial). Esse recurso permite criar visualizações personalizadas poderosas e detalhadas dessas importantes métricas de APM. E isto inclui poder consultar a sua [métrica personalizada](/docs/agents/manage-apm-agents/agent-data/collect-custom-metrics).
+métrica são automaticamente convertidas de dados métricos de fração de tempo para dados métricos dimensionais mais detalhados, o que os abre para consulta via NRQL e por meio de nossa [API NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-nrql-tutorial). Esse recurso permite criar visualizações personalizadas poderosas e detalhadas dessas importantes métricas de APM. E isto inclui poder consultar a sua [métrica personalizada](/docs/agents/manage-apm-agents/agent-data/collect-custom-metrics).
Não é possível consultar métricas de timelice em conjunto com métricas dimensionais ou dados de eventos. Qualquer consulta envolvendo métrica `newrelic.timeslice.value` ou `apm.*` só pode retornar métricas de APM.
@@ -28,14 +28,14 @@ Você também pode:
## Como construir uma consulta [#form-query]
-No APM, alguns gráficos têm a opção de [visualizar a consulta NRQL que gerou aquele gráfico](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language#what-is-nrql). Este é um bom ponto de partida para entender como consultar métricas. A consulta NRQL abaixo foi ligeiramente modificada em relação ao gráfico de taxa de erros na página de resumo .
+No APM, alguns gráficos têm a opção de [visualizar a consulta NRQL que gerou aquele gráfico](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language#what-is-nrql). Este é um bom ponto de partida para entender como consultar métricas. A consulta NRQL abaixo foi ligeiramente modificada em relação ao gráfico de taxa de erros na página de resumo .
```sql
FROM Metric
- SELECT count(apm.service.error.count) / count(apm.service.transaction.duration)
- WHERE (entity.guid = 'AN_ENTITY_GUID')
- AND (transactionType = 'Web')
- SINCE 1 day ago TIMESERIES
+SELECT count(apm.service.error.count) / count(apm.service.transaction.duration)
+WHERE (entity.guid = 'AN_ENTITY_GUID')
+AND (transactionType = 'Web')
+SINCE 1 day ago TIMESERIES
```
Aqui está um detalhamento de como as partes desta consulta funcionam:
@@ -124,7 +124,7 @@ Para mais dúvidas, veja [exemplos de consulta](#query-examples).
## Como os dados de métrica de fração de tempo são convertidos [#timeslice-conversion]
-A conversão da métrica de fatia de tempo original em métrica dimensional que está disponível para consulta é um processo contínuo e não está completo. Se você não encontrar a métrica que procura nesta seção, consulte [Consulta genérica](#generic-queries).
+A conversão da métrica de fatia de tempo original em métrica dimensional que está disponível para consulta é um processo contínuo e não está completo. Se você não encontrar a métrica que procura nesta seção, consulte [Consulta genérica](#generic-queries).
Veja como as [métricas de intervalo de tempo APM](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data) originais são convertidas em métricas dimensionais:
@@ -141,7 +141,7 @@ Veja como as [métricas de intervalo de tempo APM](/docs/using-new-relic/data/un
-
+
@@ -154,13 +154,13 @@ Veja como as [métricas de intervalo de tempo APM](/docs/using-new-relic/data/un
Uma métrica unidimensional chamada `apm.service.datastore.operation.duration` representa todo o grupo de métricas do armazenamento de dados.
- Esta métrica possui três atributos que representam os valores dos dados codificados no nome da métrica, datastoreType, tabela e operação:
+ Esta métrica tem três atributos que representam os valores de dados codificados no nome da métrica, `datastoreType`, `table` e `operation`:
- `datastoreType = ‘MySQL’`
+ `datastoreType = 'MySQL'`
- `table = ‘users’`
+ `table = 'users'`
- `operation = ‘select’`
+ `operation = 'select'`
|
@@ -200,7 +200,7 @@ Algumas das métricas APM disponibilizadas como métrica dimensional:
- percentage
+ `percentage`
|
@@ -271,7 +271,7 @@ Algumas das métricas APM disponibilizadas como métrica dimensional:
Contagem do número de instância do agente
|
- |
+ |
count
@@ -287,7 +287,7 @@ Algumas das métricas APM disponibilizadas como métrica dimensional:
Processar memória em MB
|
- |
+ |
megabytes
@@ -372,16 +372,16 @@ Saiba como [ver todas as métricas disponíveis para você](#get-list). Para obt
```sql
FROM Metric
- SELECT unit
- WHERE appName = 'YOUR_APP_NAME'
- AND metricName = 'METRIC_NAME'
+SELECT unit
+WHERE appName = 'YOUR_APP_NAME'
+AND metricName = 'METRIC_NAME'
```
Para entender mais sobre a estrutura geral dos dados de métrica de frações de tempo, incluindo alguns exemplos comuns, consulte [dados de métrica de frações de tempo](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data).
### Atributo
-Esses atributos estão disponíveis além dos atributos específicos da métrica listados na tabela de métricas acima.
+Esses atributos estão disponíveis além dos atributos específicos da métrica listados na tabela de métricas acima.
@@ -463,7 +463,7 @@ Esses atributos estão disponíveis além dos atributos específicos da métrica
- Para agente Java , `host : port`
+ Para agente Java , `host : port`
|
@@ -493,7 +493,7 @@ Esses atributos estão disponíveis além dos atributos específicos da métrica
- (Opcional) O nome do intervalo de tempo da métrica herdada para a qual esta métrica tem "escopo". As métricas com escopo pertencem a ele. Suas medidas se aplicam ao contexto da métrica nomeada no atributo `scope` . Veja abaixo exemplos.
+ (Opcional) O nome do intervalo de tempo da métrica herdada para a qual esta métrica tem "escopo". As métricas com escopo pertencem a ele. Suas medidas se aplicam ao contexto da métrica nomeada no atributo `scope` . Veja abaixo exemplos.
|
@@ -613,13 +613,13 @@ Para obter uma lista de métricas disponíveis para uma aplicação, você pode
```sql
SELECT uniques(metricTimesliceName)
-FROM Metric WHERE appName='YOUR_APP_NAME'
+FROM Metric WHERE appName = 'YOUR_APP_NAME'
AND newrelic.timeslice.value IS NOT NULL
```
## Faceta em um segmento de nome de métrica curinga [#wildcard]
-Alguns nomes de métrica de fração de tempo incluem valores de atributo como segmentos do nome da métrica. Por exemplo, nossa métrica de relatório de agente rastreia a duração das chamadas externas usando este formato:
+Alguns nomes de métrica de fração de tempo incluem valores de atributo como segmentos do nome da métrica. Por exemplo, nossa métrica de relatório de agente rastreia a duração das chamadas externas usando este formato:
```
External/{externalHost}/all
@@ -631,9 +631,9 @@ Aqui está um exemplo de uma [consulta `newrelic.timeslice.value` genérica](#ge
```sql
FROM Metric SELECT count(newrelic.timeslice.value)
- WHERE appName = 'MY APP'
- WITH METRIC_FORMAT 'Custom/Labels/{action}'
- TIMESERIES FACET action
+WHERE appName = 'MY APP'
+WITH METRIC_FORMAT 'Custom/Labels/{action}'
+TIMESERIES FACET action
```
Nesta consulta, `{action}` cria um atributo temporário, `action`, que é então usado por `FACET action`. Você pode usar qualquer nome que desejar, porque é apenas um atributo que existe durante a consulta. Você deve escolher um nome que não entre em conflito com um nome de atributo existente.
@@ -654,85 +654,70 @@ Nesta consulta, `{action}` cria um atributo temporário, `action`, que é então
Alguns exemplos de consulta de dados de métrica de fração de tempo:
-
+
Esta consulta usa [`WHERE… IN`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#sel-where) para especificar dois aplicativos e depois facetá-los:
```sql
FROM Metric
- SELECT rate(count(apm.service.transaction.duration), 1 minute) as 'Web throughput'
- WHERE appName IN ('MY_APPLICATION', 'MY_OTHER_APPLICATION')
- AND (transactionType = 'Web')
- FACET appName
- TIMESERIES
+ SELECT rate(count(apm.service.transaction.duration), 1 minute) AS 'Web throughput'
+ WHERE appName IN ('MY_APPLICATION', 'MY_OTHER_APPLICATION')
+ AND (transactionType = 'Web')
+ FACET appName
+ TIMESERIES
```
-
+
Esta consulta exibe o gráfico de solicitações por minuto usando a função [`rate`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#func-rate) :
```sql
FROM Metric
- SELECT rate(count(apm.service.transaction.duration), 1 minute) as 'HttpDispatcher requests_per_minute'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 days ago
+ SELECT rate(count(apm.service.transaction.duration), 1 minute) AS 'HttpDispatcher requests_per_minute'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 days ago
```
-
+
Esta consulta exibe um gráfico de solicitações por minuto facetado pelo nome do host:
```sql
FROM Metric
- SELECT count(apm.service.transaction.duration) as 'HttpDispatcher requests_per_minute'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 hours ago
- FACET host
- LIMIT 20
+ SELECT count(apm.service.transaction.duration) AS 'HttpDispatcher requests_per_minute'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 hours ago
+ FACET host
+ LIMIT 20
```
Em vez de usar `host`, você pode facetar por outro [atributo relacionado ao host](/node/36916/revisions/402556/view#infrastructure-attributes), como `host.bootId`.
-
+
Isso consulta a duração média de uma métrica usando [`average`](/docs/query-data/nrql-new-relic-query-language/getting-started/nrql-syntax-clauses-functions#func-average):
```sql
FROM Metric
- SELECT average(apm.service.transaction.duration) as 'HttpDispatcher average duration'
- WHERE appName = 'MY_APPLICATION'
- AND (transactionType = 'Web')
- TIMESERIES SINCE 3 days ago
+ SELECT average(apm.service.transaction.duration) AS 'HttpDispatcher average duration'
+ WHERE appName = 'MY_APPLICATION'
+ AND (transactionType = 'Web')
+ TIMESERIES SINCE 3 days ago
```
-
+
Esta consulta divide a duração média de uma única transação (neste caso, a ação `show` no `UsersController` de um aplicativo Rails chamado `MY_APPLICATION`) pelos 20 principais segmentos individuais (consulta ao banco de dados, chamadas de serviço externas , horário de coleta de lixo, etc.). Ele reproduz grande parte do gráfico "Detalhamento do aplicativo", conforme visto na página de transação do APM para uma entidade de serviço:
```sql
FROM Metric
- SELECT average(newrelic.timeslice.value, exclusiveTime: true) as 'duration, seconds'
- WHERE appName = 'MY_APPLICATION'
- AND scope = 'Controller/users/show'
- LIMIT 20
- FACET metricTimesliceName
- TIMESERIES SINCE 3 days ago
+ SELECT average(newrelic.timeslice.value, exclusiveTime: true) AS 'duration, seconds'
+ WHERE appName = 'MY_APPLICATION'
+ AND scope = 'Controller/users/show'
+ LIMIT 20
+ FACET metricTimesliceName
+ TIMESERIES SINCE 3 days ago
```
-
+
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx b/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
index e6f6c299961..7babf1da0df 100644
--- a/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
+++ b/src/i18n/content/pt/docs/data-apis/understand-data/metric-data/query-metric-data-type.mdx
@@ -30,7 +30,7 @@ Você pode utilizar [o NRQL](/docs/query-data/nrql-new-relic-query-language/gett
Para consultar uma métrica, você pode usar o seguinte formato de consulta:
-```
+```sql
FROM Metric SELECT function(metric_name) WHERE attribute=value FACET attribute TIMESERIES
```
@@ -40,20 +40,20 @@ Adicione os nomes da métrica que você deseja representar no gráfico com a fun
Este exemplo demonstra como você pode representar graficamente o uso da CPU em segundos para o cluster `foo` . Esta consulta divide o uso da CPU por contêiner, dada uma métrica `count` chamada `container_cpu_usage_seconds_total` com o atributo `containerName` e `clusterName`:
-```
-FROM Metric select sum(container_cpu_usage_seconds_total)
- WHERE clusterName = 'foo'
- FACET containerName
- TIMESERIES
+```sql
+FROM Metric SELECT sum(container_cpu_usage_seconds_total)
+WHERE clusterName = 'foo'
+FACET containerName
+TIMESERIES
```
Se você quiser o uso da CPU por minuto (a taxa de alteração), poderá adicionar a função de taxa à consulta acima.
-```
-FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
- WHERE clusterName = 'foo'
- FACET containerName
- TIMESERIES
+```sql
+FROM Metric SELECT rate(sum(container_cpu_usage_seconds_total), 1 minute)
+WHERE clusterName = 'foo'
+FACET containerName
+TIMESERIES
```
## Veja exemplo de consulta métrica [#example-metric-queries]
@@ -61,76 +61,62 @@ FROM Metric select rate(sum(container_cpu_usage_seconds_total), 1 minute)
Os exemplos anteriores demonstram formas básicas de consulta métrica, mas o NRQL também pode ser usado para mapear, explorar e analisar dados métricos.
-
+
Faça um gráfico de múltiplas métricas usando uma única consulta, fornecendo uma lista de métricas separadas por vírgula na cláusula `SELECT` . Por exemplo, para traçar um gráfico do uso de memória de um contêiner junto com a métrica de limite de memória, use a seguinte consulta:
- ```
+ ```sql
FROM Metric
- SELECT latest(container_memory_usage_bytes), latest(container_spec_memory_limit_bytes)
- WHERE containerName = 'inventory'
- TIMESERIES
+ SELECT latest(container_memory_usage_bytes), latest(container_spec_memory_limit_bytes)
+ WHERE containerName = 'inventory'
+ TIMESERIES
```
Você também pode fazer isso usando [curingas](#query-multiple-metrics-wildcards), conforme explicado abaixo.
-
+
Execute operações matemáticas em uma ou mais métricas para calcular uma nova métrica derivada. Para monitor a memória disponível, você pode calcular a porcentagem de memória disponível a partir das duas métricas utilizadas no exemplo anterior:
- ```
+ ```sql
FROM Metric
- SELECT (latest(container_spec_memory_limit_bytes) - latest(container_memory_usage_bytes))
- / latest(container_spec_memory_limit_bytes)
- * 100
- AS '% Memory Available'
- WHERE containerName = 'inventory'
- TIMESERIES
+ SELECT (latest(container_spec_memory_limit_bytes) - latest(container_memory_usage_bytes))
+ / latest(container_spec_memory_limit_bytes)
+ * 100
+ AS '% Memory Available'
+ WHERE containerName = 'inventory'
+ TIMESERIES
```
Você também pode fazer isso usando [curingas](#query-multiple-metrics-wildcards), conforme explicado abaixo.
-
+
Além de usar uma cláusula `WHERE` que se aplica a tudo em `SELECT`, o NRQL fornece outra função de agregação chamada `filter` que pode ser usada para selecionar uma série temporal específica a ser mapeada ou operada.
O exemplo a seguir traça uma métrica de uso de memória rotulada `"Total (k8s)"` que é calculada somando o uso de memória de dois contêineres específicos dentro de um pod:
- ```
+ ```sql
FROM Metric
- SELECT filter(
- latest(
- container_memory_usage_bytes),
- WHERE containerName = 'discovery')
- + filter(
- latest(
- container_memory_usage_bytes),
- WHERE containerName = 'my-proxy')
- AS 'Total (k8s)'
- WHERE clusterName = 'my-cluster' AND podName LIKE 'my-pilot-%'
- TIMESERIES
+ SELECT filter(
+ latest(container_memory_usage_bytes),
+ WHERE containerName = 'discovery')
+ + filter(
+ latest(container_memory_usage_bytes),
+ WHERE containerName = 'my-proxy')
+ AS 'Total (k8s)'
+ WHERE clusterName = 'my-cluster' AND podName LIKE 'my-pilot-%'
+ TIMESERIES
```
-
+
Ao consultar dados de métrica usando `FROM Metric`, o New Relic seleciona automaticamente o agregado específico a ser usado na consulta, dependendo do comprimento da janela de consulta e de qualquer tamanho de bucket especificado como argumento para a palavra-chave `TIMESERIES` . Isso garante consultas eficientes e resolução de gráficos. Se desejar substituir esse comportamento para visualizar ou operar nos pontos de dados de métrica bruta, use a palavra-chave opcional `RAW` em sua consulta.
Ao consultar esses pontos de dados métricos brutos, há um limite de tempo de consulta de 48 horas. Qualquer consulta que tente acessar mais de 48 horas de dados métricos brutos resultará em um erro de consulta.
Este exemplo mostra como listar os últimos 20 pontos de dados recebidos para uma métrica específica:
- ```
+ ```sql
FROM Metric SELECT * WHERE metricName = 'container_fs_usage_bytes' LIMIT 20 RAW
```
@@ -157,35 +143,31 @@ Digamos que você tenha vários algoritmos que executam uma tarefa semelhante. V
Se usado em uma consulta, `myNeatProcess.%.duration` retornará resultados para todos os três algoritmos acima. Se posteriormente você criar novos algoritmos chamados `algorithm4`, `algorithm5` e `algorithm6`, a mesma consulta retornará resultados para todos os seis algoritmos.
-
+
Você pode traçar múltiplas métricas usando uma única consulta usando curingas (`%`) na cláusula `SELECT` . Por exemplo, para consultar todos os algoritmos do exemplo acima e traçar uma linha no gráfico para a duração média de cada algoritmo, utilize a seguinte consulta:
- ```
+ ```sql
FROM Metric
- SELECT average(myNeatProcess.%.duration)
- FACET metricName TIMESERIES
+ SELECT average(myNeatProcess.%.duration)
+ FACET metricName TIMESERIES
```
-
+
Você também pode usar curingas para realizar operações matemáticas em diversas métricas e calcular uma nova métrica. Você pode calcular a duração média para todos os algoritmos listados no exemplo acima:
- ```
+ ```sql
FROM Metric
- SELECT average(myNeatProcess.%.duration) TIMESERIES
+ SELECT average(myNeatProcess.%.duration)
+ TIMESERIES
```
Você pode calcular qual porcentagem do tempo de execução geral um único algoritmo ocupa:
- ```
+ ```sql
FROM Metric
- SELECT myNeatProcess.algorithm1.duration / sum(myNeatProcess.%.duration) TIMESERIES
+ SELECT myNeatProcess.algorithm1.duration / sum(myNeatProcess.%.duration)
+ TIMESERIES
```
@@ -197,13 +179,10 @@ Existem [vários tipos de dados `Metric` ](/docs/data-apis/understand-data/metri
Você pode usar `getField()` para extrair esses campos. Por exemplo, se quiser usar um único valor em uma métrica para fazer uma comparação em uma cláusula `WHERE` , você pode usar `getField(metricName, field)` ou a sintaxe abreviada `metricName[field]`.
-
+
O valor médio de uma métrica é calculado como `total` sobre `count`, portanto, a consulta a seguir retorna dados de métrica onde o resultado da função de valor `average()` é maior que 2.
- ```
+ ```sql
FROM Metric
SELECT average(apm.service.transaction.duration)
WHERE appName = 'MyApp'
@@ -212,7 +191,7 @@ Você pode usar `getField()` para extrair esses campos. Por exemplo, se quiser u
Ou você pode usar a abreviação:
- ```
+ ```sql
FROM Metric
SELECT average(apm.service.transaction.duration)
WHERE appName = 'MyApp'
@@ -220,13 +199,10 @@ Você pode usar `getField()` para extrair esses campos. Por exemplo, se quiser u
```
-
+
Este exemplo de consulta retorna uma lista de métricas de medidor:
- ```
+ ```sql
FROM Metric
SELECT uniques(metricName)
WHERE getField(%, type) = 'gauge'
@@ -234,7 +210,7 @@ Você pode usar `getField()` para extrair esses campos. Por exemplo, se quiser u
Ou você pode usar a abreviação:
- ```
+ ```sql
FROM Metric
SELECT uniques(metricName)
WHERE %[type] = 'gauge'
@@ -249,30 +225,21 @@ Você pode usar `getField()` para extrair esses campos. Por exemplo, se quiser u
As funções NRQL `keyset` e `uniques` podem ser utilizadas em conjunto com o atributo `metricName` (disponível em todas as métricas) para realizar tarefas como listar todas as métricas disponíveis em sua conta ou descobrir os atributos disponíveis em uma determinada métrica.
-
- ```
+
+ ```sql
FROM Metric SELECT uniques(metricName)
```
-
- ```
+
+ ```sql
FROM Metric SELECT uniques(metricName) WHERE hostname = 'host1.mycompany.com'
```
-
- ```
+
+ ```sql
FROM Metric SELECT keyset() WHERE metricName = METRIC_NAME
```
-
+
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/data-apis/understand-data/new-relic-data-types.mdx b/src/i18n/content/pt/docs/data-apis/understand-data/new-relic-data-types.mdx
index 7efcc422b0c..88d94968737 100644
--- a/src/i18n/content/pt/docs/data-apis/understand-data/new-relic-data-types.mdx
+++ b/src/i18n/content/pt/docs/data-apis/understand-data/new-relic-data-types.mdx
@@ -35,17 +35,13 @@ Métrica são uma solução forte para armazenar dados a longo prazo e compreend
### Métrica na New Relic [#metrics-new-relic]
-Conceitualmente, “métrica” é uma categoria ampla e geral. Existem várias maneiras pelas quais o New Relic mede e relata métricas, mas, na prática, ao usar a UI do New Relic, você geralmente não precisa entender exatamente como isso acontece. Em nossa documentação, normalmente nos referiremos apenas a "métrica", independentemente de como esses dados são relatados, a menos que haja um motivo pelo qual você precise saber mais (como entender [como consultar seus dados](/docs/using-new-relic/data/understand-data/query-new-relic-data)).
+Conceitualmente, “métrica” é uma categoria ampla e geral. Existem várias maneiras pelas quais o New Relic mede e relata métricas, mas, na prática, ao usar a UI do New Relic, você geralmente não precisa entender exatamente como isso acontece. Em nossa documentação, normalmente nos referiremos apenas a "métrica", independentemente de como esses dados são relatados, a menos que haja um motivo pelo qual você precise saber mais (como entender [como consultar seus dados](/docs/using-new-relic/data/understand-data/query-new-relic-data)).
Aqui estão algumas das maneiras como as métricas são relatadas e armazenadas na plataforma New Relic:
-
- Na indústria de monitoramento, métrica "dimensional" refere-se a dados métricos que possuem uma variedade de [atributo](/docs/using-new-relic/welcome-new-relic/get-started/glossary#attribute) (dimensões) anexados, como atributo relacionado à duração (horário de início, horário de término), ID da entidade, região, host e muito mais. Este nível de detalhe permite análises e consultas aprofundadas.
+
+ Na indústria de monitoramento, métrica "dimensional" refere-se a dados métricos que possuem uma variedade de [atributo](/docs/using-new-relic/welcome-new-relic/get-started/glossary#attribute) (dimensões) anexados, como atributo relacionado à duração (horário de início, horário de término), ID da entidade, região, host e muito mais. Este nível de detalhe permite análises e consultas aprofundadas.
Na New Relic, esses dados de métrica são anexados ao nosso tipo de dados [`Metric`](/docs/data-apis/understand-data/metric-data/metric-data-type) . Este é nosso principal tipo de dados métricos e é usado por muitas de nossas ferramentas, incluindo:
@@ -72,14 +68,10 @@ Aqui estão algumas das maneiras como as métricas são relatadas e armazenadas
* [Alguns dados de infraestrutura](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql)
-
- O APM, o browser e da New Relic relatam e exibem métricas em um formato de dados simples que chamamos de **metric timeslice data**. Uma métrica de fração de tempo consiste em três partes: um nome da métrica, o segmento de tempo que a métrica representa (a "fatia de tempo") e um valor numérico (a medida).
+
+ O APM, o browser e da New Relic relatam e exibem métricas em um formato de dados simples que chamamos de **metric timeslice data**. Uma métrica de fração de tempo consiste em três partes: um nome da métrica, o segmento de tempo que a métrica representa (a "fatia de tempo") e um valor numérico (a medida).
- Por exemplo: uma métrica de fração de tempo para o tempo gasto em uma determinada transação é denominada `WebTransaction/URI/foo` e pode ter um tempo de resposta de 0,793 para uma janela de tempo de um minuto, das 10h20 às 10h21. Essas métricas geralmente seguem um padrão como `//`.
+ Por exemplo: uma métrica de fração de tempo para o tempo gasto em uma determinada transação é denominada `WebTransaction/URI/foo` e pode ter um tempo de resposta de 0,793 para uma janela de tempo de um minuto, das 10h20 às 10h21. Essas métricas geralmente seguem um padrão como `//`.
Nosso agente (APM, browser e mobile) pode coletar milhares de intervalos de tempo métricos por minuto para uma variedade de métricas de desempenho. Por exemplo: taxa de erros, uso de largura de banda e tempo de coleta de lixo. Você também tem a possibilidade de criar [métricas personalizadas](/docs/agents/manage-apm-agents/agent-data/collect-custom-metrics).
@@ -88,15 +80,13 @@ Aqui estão algumas das maneiras como as métricas são relatadas e armazenadas
Formas de explorar e consultar dados de métrica de fração de tempo:
* Para APM: os dados da métrica de fração de tempo são convertidos em métrica dimensional e podem ser [consultados via NRQL](/docs/query-metric-timeslice-data-dimensional-metrics)
+
* Utilize a [API REST](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2)
Se você quiser saber mais sobre a estrutura dos dados de métrica de fração de tempo e ver alguns exemplos, expanda o colapsador abaixo.
-
+
Aqui estão alguns exemplos comuns de dados de métricas de fração de tempo, com foco nos mais comuns usados pelo aplicativo Ruby.
@@ -132,7 +122,7 @@ Aqui estão algumas das maneiras como as métricas são relatadas e armazenadas
`ActiveMerchant/PayJunctionGateway`
- |
+ |
@@ -348,7 +338,7 @@ Aqui estão algumas das maneiras como as métricas são relatadas e armazenadas
`Errors/all`
- |
+ |
@@ -403,7 +393,7 @@ Aqui estão algumas das maneiras como as métricas são relatadas e armazenadas
|
- Net::Http::POST\[host.aws.com]
+ Net::Http::POST\[host.aws.com]
|
@@ -666,30 +656,23 @@ Aqui estão algumas das maneiras como as métricas são relatadas e armazenadas
-
+
Como [os dados do tipo de evento](#event-data) podem ter qualquer tipo de par de valores principais anexados a eles, uma forma de reportar a métrica é como [um atributo](/docs/using-new-relic/welcome-new-relic/get-started/glossary#attribute) anexado a um evento.
Alguns exemplos disso na New Relic:
* Nosso monitoramento de infraestrutura reporta diversas métricas que estão anexadas ao evento. Por exemplo, relatamos um evento `ProcessSample` , que possui várias métricas baseadas em amostra anexadas a ele, como porcentagem de CPU. Para saber mais sobre dados de monitoramento de infraestrutura, consulte [Dados de infraestrutura](/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-events).
+
* No APM, o evento `Transaction` possui diversas métricas anexadas, incluindo `databaseDuration`.
Para saber mais sobre esses dados e como consultá-los, veja [evento](#events-new-relic).
-
+
A métrica pode ser formada contando [os eventos New Relic](#event-data) ou fazendo algum outro cálculo matemático nesses eventos. Por exemplo, se você quiser medir o número total de eventos `Transaction` na última meia hora, poderá executar esta consulta NRQL:
```sql
- Select count(*) from Transaction since 30 minutes ago
+ SELECT count(*) FROM Transaction SINCE 30 minutes ago
```
Outro exemplo: se você quiser calcular o tempo médio de resposta do seu serviço, poderá executar uma consulta como:
@@ -723,7 +706,7 @@ Na New Relic, reportamos eventos para objetos de dados também chamados **e
Um exemplo de evento: o APM relata um tipo de evento denominado [`Transaction`](/attribute-dictionary/?event=Transaction), que representa uma unidade lógica de trabalho em um aplicativo. Para ver o [atributo](/docs/using-new-relic/welcome-new-relic/get-started/glossary#attribute) anexado a este evento, você poderia usar uma consulta [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) como:
```sql
-Select * from Transaction
+SELECT * FROM Transaction
```
Para obter exemplos de consulta de dados de eventos, consulte [Introdução ao NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql#examples).
@@ -746,12 +729,12 @@ Um log é uma mensagem sobre um sistema usada para compreender a atividade do si
### Logs em New Relic [#logs-new-relic]
-Nossos recursos [](/docs/logs/get-started/get-started-log-management)oferecem uma plataforma centralizada que conecta seus dados de registro a outros dados do monitor New Relic. Por exemplo, você pode [ver o log junto com os dados do APM](/docs/logs/logs-context/logs-in-context).
+Nossos recursos [](/docs/logs/get-started/get-started-log-management)oferecem uma plataforma centralizada que conecta seus dados de registro a outros dados do monitor New Relic. Por exemplo, você pode [ver o log junto com os dados do APM](/docs/logs/logs-context/logs-in-context).
No New Relic Logs, os dados são relatados com múltiplos [atributo](/docs/using-new-relic/welcome-new-relic/get-started/glossary#attribute) (dados de valor principal) anexados. Para consultar seus dados de log, você pode usar uma consulta NRQL como:
```sql
-Select * from Log
+SELECT * FROM Log
```
Para relatar dados log personalizados, consulte [Log API](/docs/introduction-new-relic-logs-api).
@@ -773,7 +756,7 @@ O New Relic oferece um [recursodistributed tracing ](/docs/understand-dependenci
Para consultar seus dados de rastreamento, você pode usar uma consulta NRQL como:
```sql
-Select * from Span
+SELECT * FROM Span
```
Para saber mais sobre como funciona distributed tracing , consulte [Compreender distributed tracing](/docs/understand-dependencies/distributed-tracing/get-started/how-new-relic-distributed-tracing-works).
@@ -785,4 +768,4 @@ Para relatar dados distributed tracing personalizados, consulte a [API Trace](/d
Compreender os tipos de dados da New Relic pode ajudá-lo a:
* [Consultar dados em New Relic](/docs/query-new-relic-data)
-* [Enviar dados para New Relic](/docs/new-relic-solutions/new-relic-one/install-configure/install-new-relic)
+* [Enviar dados para New Relic](/docs/new-relic-solutions/new-relic-one/install-configure/install-new-relic)
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx b/src/i18n/content/pt/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx
index 0400c643738..08d33185491 100644
--- a/src/i18n/content/pt/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations.mdx
@@ -9,11 +9,11 @@ freshnessValidatedDate: '2024-09-20T00:00:00.000Z'
translationType: machine
---
-A New Relic oferece vários métodos para coletar dados de desempenho sobre seu ambiente Amazon Web Services (AWS). Depois de conectar o New Relic à AWS, você pode acessar a AWS telemetria do seu sistema, permitindo monitorar de perto a integridade da sua AWS stack. Nossa solução de observabilidade AWS oferece suporte [à integração do Amazon CloudWatch Metric Streams ](/docs/infrastructure/amazon-integrations/get-started/introduction-aws-integrations/#monitor-aws)para obter métricas e [encaminhar serviços de logs da AWS para o New Relic](/install/aws-logs/) para obter logs no New Relic. Este documento descreve como começar a usar o monitoramento da AWS e fornece uma visão geral sobre os custos da AWS.
+A New Relic oferece vários métodos para coletar dados de desempenho sobre seu ambiente Amazon Web Services (AWS). Depois de conectar New Relic à AWS, você pode acessar a AWS telemetria do seu sistema, permitindo de perto monitor a integridade da sua AWS stack. Este documento descreve como começar a usar o monitoramento da AWS e fornece uma visão geral sobre os custos da AWS.
## Comece com a integração do CloudWatch Metric Streams [#monitor-aws]
-A integração do Amazon CloudWatch Metric Streams coleta dados sobre toda a sua AWS stack com [o Amazon CloudWatch Metric Streams](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Metric-Streams.html). Para a maioria dos casos de uso, você começa AWS stack [a monitorar sua instalando nossa integração Amazon CloudWatch Metric Streams ](/install/aws-cloudwatch).
+Nossa AWS solução de observabilidade é a integração do Amazon CloudWatch Metric Streams , que coleta dados sobre AWS stack [todo o CloudWatch Metric Streams](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Metric-Streams.html) seu com o Amazon . Para a maioria dos casos de uso, você começa AWS stack [a monitorar sua instalando nossa integração Amazon CloudWatch Metric Streams ](/install/aws-cloudwatch).
Nossa CloudWatch Metric Streams integração fornece os melhores dados sobre sua AWS stack, mas se você usar [uma integração não suportada pelo CloudWatch Metric Streams](/docs/infrastructure/amazon-integrations/connect/connect-aws-new-relic-infrastructure-monitoring/#integrations-not-replaced-streams), talvez seja necessário usar nossa API solução de pesquisa lendária. Se você estiver usando atualmente a sondagem API para integração compatível, recomendamos [migrar seus dados para o Amazon CloudWatch Metric Streams](/install/aws-cloudwatch/?task=migrate).
diff --git a/src/i18n/content/pt/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx b/src/i18n/content/pt/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
index 9c9877a64d5..9c81d6bff21 100644
--- a/src/i18n/content/pt/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/infrastructure-agent/windows-installation/windows-zip-assisted.mdx
@@ -31,7 +31,7 @@ Para instalar o agente:
5. Atualize seu .
-6. Opcional: atualize qualquer outro [parâmetro](#parameters).
+6. Opcional: Atualize qualquer outro [parâmetro](#parameters). Para especificar um caminho de instalação diferente da unidade padrão, defina a variável de ambiente `SYSTEMDRIVE` para a unidade desejada antes de iniciar o instalador. Além disso, configure esta variável de ambiente para o `newrelic-infra service` depois de criá-lo.
7. Execute `installer.ps1` com direitos de administrador.
@@ -170,7 +170,7 @@ Você pode configurar o seguinte parâmetro durante a instalação assistida par
Padrão:
```
- C:\Program Files\NewRelic\newrelic-infra\inregrations.d
+ C:\Program Files\New Relic\newrelic-infra\integrations.d
```
diff --git a/src/i18n/content/pt/docs/infrastructure/infrastructure-data/default-infra-data.mdx b/src/i18n/content/pt/docs/infrastructure/infrastructure-data/default-infra-data.mdx
index f0dc8b2a4b0..dae47adac1e 100644
--- a/src/i18n/content/pt/docs/infrastructure/infrastructure-data/default-infra-data.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/infrastructure-data/default-infra-data.mdx
@@ -184,7 +184,7 @@ Você também pode [consultar infraestrutura usando métricas dimensionais](/doc
Para verificar se seus dados estão usando o formato de medidor, execute uma consulta como esta:
- ```
+ ```sql
FROM SystemSample SELECT cpuPercent SINCE 90 minutes ago
```
diff --git a/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
index d805feed5c3..f616e35b556 100644
--- a/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
@@ -10,7 +10,7 @@ Monitor e relate dados sobre seus serviços Microsoft Azure para a New Relic com
Nossa integração Azure Monitor monitora todas as suas métricas dos serviços Azure suportados. Uma vez habilitado, consultamos os serviços da plataforma Azure de acordo com o intervalo de sondagem definido. Quando isso acontece, você obtém:
-* Ingestão métrica de [todos os serviços do Azure com suporte do Azure Monitor](https://learn.microsoft.com/en-us/azure/azure-monitor/essentials/metrics-supported).
+* Ingestão métrica de [muitos serviços Azure suportados pelo Azure Monitor](https://learn.microsoft.com/en-us/azure/azure-monitor/essentials/metrics-supported).
* Experiência [métrica dimensional](/docs/data-apis/understand-data/new-relic-data-types/#metrics-new-relic) nativa para consultas, alertas e explorador de dados.
* Azure [entidade](/docs/new-relic-solutions/new-relic-one/core-concepts/what-entity-new-relic) em nosso [explorador de entidades](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) com métricas clássicas e painel integrado.
* Métrica decorada com tag personalizada definida nos recursos do Azure.
diff --git a/src/i18n/content/pt/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx b/src/i18n/content/pt/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
index c2c09932e9c..22a2bc22349 100644
--- a/src/i18n/content/pt/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/other-infrastructure-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx
@@ -69,7 +69,7 @@ A tabela a seguir fornece informações de versão e suporte de versão sobre o
- 1.12.34
+ 1.12.36
|
@@ -79,7 +79,7 @@ A tabela a seguir fornece informações de versão e suporte de versão sobre o
- 25 de janeiro de 2024
+ 09 de dezembro de 2024
|
@@ -89,7 +89,7 @@ A tabela a seguir fornece informações de versão e suporte de versão sobre o
- Corretor de serviços New Relic 1.12.34
+ Novo corretor de serviços Relic 1.12.36
|
@@ -109,7 +109,7 @@ A tabela a seguir fornece informações de versão e suporte de versão sobre o
- 2.10.x, 2.11.x, 2.12.x, 2.13.x, 3.x, 4.x e 5.x
+ 2.10.x, 2.11.x, 2.12.x, 2.13.x, 3.x, 4.x, 5.x e 6.x
|
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx
index a702f179fc5..e064ecde6de 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx
@@ -11,7 +11,7 @@ translationType: machine
Esta página fornece uma visão geral das opções de integração Prometheus da New Relic e como elas funcionam. As informações aqui ajudarão você a escolher entre nossas opções com base na que melhor se adapta às suas necessidades comerciais exclusivas.
-## Prometheus OpenMetrics, agente Prometheus ou integração de gravação remota? [#pomi-remote_write]
+## Prometheus OpenMetrics, agente Prometheus ou integração de gravação remota? [#pomi-remote\_write][#pomi-remote_write]
Atualmente oferecemos três alternativas para enviar métricas do Prometheus para a New Relic.
@@ -24,79 +24,51 @@ Se você já possui um servidor Prometheus, recomendamos começar com a integra
Examine os benefícios, lembretes e recomendações para cada opção abaixo.
-
+
Benefícios:
* Instrumente facilmente a carga de trabalho em execução no seu cluster do Kubernetes.
-
- * Conjunto predefinido de
-
-
-
- e alerta.
-
+ * Conjunto predefinido de e alerta.
* Controle total dos dados de telemetria ingeridos.
-
* Não há necessidade de gerenciar nenhum servidor Prometheus por conta própria.
- Recomendações:
+ Recomendações:
* O [intervalo de raspagem](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent#target-scrape-interval) é o maior fator que influencia os volumes de dados: selecione-o com base nas suas necessidades de observabilidade. Por exemplo, alterar o valor padrão de 30s para 1m pode reduzir os volumes de dados em 50%.
-
* Defina seus filtros e configure os dados de destino. Veja como [filtrar a métrica do Prometheus](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent/#drop-keep-metrics).
-
* Controle a integridade de sua instância e fragmentos do Prometheus instalando o início rápido do agente Prometheus.
-
+
Benefícios:
* Melhor para uma alternativa aos servidores Prometheus.
-
* Armazene todas as suas métricas diretamente no New Relic.
-
* Não há necessidade de gerenciar nenhum servidor Prometheus por conta própria.
-
* Não há necessidade de armazenamento local.
- Lembretes:
+ Lembretes:
* Configuração um pouco mais complexa.
-
* Não há suporte para réplicas de alta disponibilidade.
-
* O operador Kubernetes não está disponível para automação aprimorada de operações.
-
+
Benefícios:
* Fácil acesso à sua métrica combinada no New Relic se você já possui servidores Prometheus. O acesso leva apenas uma linha de yaml na configuração do Prometheus.
-
* Acesse sua métrica através do New Relic e do Prometheus sem fazer ajustes adicionais no Prometheus.
-
* Federação: permite combinar dados de vários servidores em uma única fonte.
-
* [Suporte de alta disponibilidade](/docs/integrations/prometheus-integrations/install-configure/prometheus-high-availability-ha) do Prometheus: eliminamos a duplicação de dados de pares HA na ingestão.
- Lembretes:
+ Lembretes:
* Você precisará gerenciar seus servidores Prometheus.
-
* Você pode reduzir sua retenção de armazenamento.
-
* Menos cargas de consulta no servidor.
- Recomendações:
+ Recomendações:
* Avalie suas necessidades de observabilidade para gerenciar melhor seus volumes de dados:
@@ -115,7 +87,7 @@ Independentemente da opção que você escolheu, com nossa integração Promethe
## Agente Prometheus para Kubernetes [#Agent]
-O Agente Prometheus do New Relic permite que você extraia facilmente a métrica do Prometheus de um cluster do Kubernetes. Ao aproveitar a descoberta de serviços e os rótulos do Kubernetes, você terá acesso instantâneo a métricas, painéis e da carga de trabalho mais popular.
+O Agente Prometheus do New Relic permite que você extraia facilmente a métrica do Prometheus de um cluster do Kubernetes. Ao aproveitar a descoberta de serviços e os rótulos do Kubernetes, você terá acesso instantâneo a métricas, painéis e da carga de trabalho mais popular.
É possível instalar o agente Prometheus em dois modos:
@@ -131,11 +103,7 @@ Com esta integração você pode:
* monitor a integridade de seus fragmentos do Prometheus e a cardinalidade da métrica ingerida.
* Controle total da ingestão de dados, suportando diferentes [intervalos de raspagem](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent#target-scrape-interval), [filtros métricos](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent/#drop-keep-metrics) e [gerenciamento de rótulos](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent/#filter-metric-labels).
-
+
## Integração Prometheus OpenMetrics para docker [#OpenMetrics]
@@ -148,11 +116,7 @@ Com esta integração você pode:
* consulte e visualize esses dados na interface do New Relic.
* Conecte seu [painel Grafana](/docs/integrations/grafana-integrations/get-started/grafana-support-prometheus-promql) (opcional).
-
+
Dashboard Kubernetes OpenMetrics
@@ -168,7 +132,7 @@ Para saber mais sobre como dimensionar seus dados sem as dificuldades de gerenci
## Integração de gravação remota Prometheus [#remote-write]
-Ao contrário do [agente Prometheus](/docs/integrations/prometheus-integrations/install-configure-prometheus-agent) e das integrações [Docker](/docs/integrations/prometheus-integrations/get-started/new-relic-prometheus-openmetrics-integration-docker) OpenMetrics, que coletam dados do endpoint Prometheus, a integração de gravação remota permite encaminhar [dados de telemetria](/docs/telemetry-data-platform/get-started/capabilities/get-know-telemetry-data-platform) de seus servidores Prometheus existentes para o New Relic. Você pode aproveitar toda a gama de opções de configuração e gerenciamento, desde dados brutos até consulta, painel e muito mais.
+Ao contrário da integração do [agente Prometheus](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/install-prometheus-agent/) e [Docker](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic/#OpenMetrics) OpenMetrics, que coletam dados do endpoint do Prometheus, a integração de gravação remota permite que você encaminhe [dados de telemetria](/docs/telemetry-data-platform/get-started/capabilities/get-know-telemetry-data-platform) dos seus servidores Prometheus existentes para o New Relic. Você pode aproveitar toda a gama de opções de configuração e gerenciamento, desde dados brutos até consulta, painel e muito mais.
### Dimensione seus dados e avance rapidamente [#remote-write-scale]
@@ -179,11 +143,7 @@ Com a integração de gravação remota do Prometheus, você pode:
* Obtenha uma visão totalmente conectada da relação entre os dados sobre sua stack de software e os comportamentos e resultados que você está monitorando.
* Conecte seu [painel Grafana](/docs/integrations/grafana-integrations/get-started/grafana-support-prometheus-promql) (opcional).
-
+
dashboard de gravação remota do Prometheus.
@@ -194,19 +154,11 @@ Com a integração de gravação remota do Prometheus, você pode:
[Inscrever-se no New Relic](https://newrelic.com/signup) é rápido e gratuito – nem solicitamos o número do cartão de crédito. Depois de fazer login, você pode fazer com que os dados fluam com algumas etapas simples.
-
+
Leia os documentos de configuração
-
+
Adicionar dados do Prometheus
@@ -220,4 +172,4 @@ Pronto para começar? Aqui estão algumas sugestões de próximos passos:
* Leia as instruções para concluir a [integração de gravação remota](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration).
* As opções de gravação remota e integração do Prometheus OpenMetrics geram métricas dimensionais que estão sujeitas aos mesmos limites de taxa descritos na [API métrica](/docs/telemetry-data-platform/ingest-apis/introduction-metric-api).
* Saiba mais sobre [as opções de suporte do Grafana](/docs/integrations/grafana-integrations/get-started/grafana-support-prometheus-promql), incluindo [como configurar uma fonte de dados do Prometheus no Grafana](/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana).
-* Documentação do Prometheus para a lista de todos os possíveis [exportadores](https://prometheus.io/docs/instrumenting/exporters/) criada pela comunidade de código aberto.
+* Documentação do Prometheus para a lista de todos os possíveis [exportadores](https://prometheus.io/docs/instrumenting/exporters/) criada pela comunidade de código aberto.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx b/src/i18n/content/pt/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
index 11f911a118f..90e39138a0e 100644
--- a/src/i18n/content/pt/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
+++ b/src/i18n/content/pt/docs/logs/logs-context/custom-tags-agent-forwarder-logs.mdx
@@ -23,5 +23,5 @@ Idiomas suportados:
* Versões do agente [Ruby](/docs.newrelic.com/docs/apm/agents/ruby-agent/configuration/ruby-agent-configuration/) 9.16.0 ou superiores.
* Go: em breve
* Java: em breve
-* Node.js: em breve
+* [Node.js](/docs/apm/agents/nodejs-agent/installation-configuration/nodejs-agent-configuration): versão do agente 12.8.0 ou superior.
* Versões do agente [Python](/docs/apm/agents/python-agent/configuration/python-agent-configuration) 10.3.0 ou superiores.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx b/src/i18n/content/pt/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx
new file mode 100644
index 00000000000..ff6ff757259
--- /dev/null
+++ b/src/i18n/content/pt/docs/mobile-monitoring/new-relic-mobile-ios/configuration/ios-remote-logging.mdx
@@ -0,0 +1,35 @@
+---
+title: Logging com o agente iOS
+tags:
+ - Mobile logging
+ - New Relic Mobile iOS
+metaDescription: Suggestions for setting up the logging in your app with the New Relic agent
+freshnessValidatedDate: never
+translationType: machine
+---
+
+Para garantir um logging consistente e abrangente durante todo o projeto, o agente iOS fornece API de logging. Use a API de logging do agente para enviar os logs dos seus aplicativos móveis para o New Relic. Isso garante que seus logs estejam em um só lugar para sua análise. Para mais informações, consulte nossa [API de logging móvel](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-logs/#ios).
+
+## Configurando nível de log
+
+Você pode configurar o nível de log do agente iOS para o agente e registro remoto.
+
+### Nível de log de agente
+
+O nível de log do agente é configurado no agente New Relic e determina quais mensagens de log são gravadas no console do dispositivo. Isso também inclui os logs do agente do New Relic. Para visualizar todos os logs do agente New Relic, defina o nível de log como `NRLogLevelDebug`.
+
+### Nível de log remoto
+
+Na plataforma New Relic, o nível de log remoto controla a verbosidade dos logs enviados de um dispositivo para o New Relic. Isso ajuda a gerenciar o volume de dados e mantém o foco nas informações relevantes.
+
+**Configuração**: No dashboard do New Relic, você pode configurar o nível de login remoto na aba **Application**. Para obter mais informações sobre como definir o nível de log remoto, consulte [logs móveis](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-logs).
+
+## Coleta automática de logs
+
+Na plataforma New Relic, quando o logging remoto está habilitado, o agente iOS coleta todos os logs gravados em `stdout` e `stderr` do aplicativo. Ele captura todas as chamadas para `NSLog()`, Swift `print()` e outras funções print-family. Os logs coletados dessa maneira são definidos como `NRLogLevelInfo`. Este recurso está desabilitado por padrão. Para habilitá-lo, use o sinalizador de recurso `NRFeatureFlag_AutoCollectLogs` .
+
+O agente separa a mensagem do log usando um delimitador `'\n\n'` . O timestamp reflete quando o agente coletou o log, não quando o aplicativo o escreveu. Isso pode causar uma diferença de milissegundos, pois a mensagem do log foi armazenada em buffer antes de ser coletada pelo agente.
+
+
+ Esse recurso interfere no console integrado do Xcode, portanto, não pode ser habilitado enquanto o depurador estiver conectado.
+
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx b/src/i18n/content/pt/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
index e48fdb118e2..c1cf216df33 100644
--- a/src/i18n/content/pt/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
+++ b/src/i18n/content/pt/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/record-handled-exceptions.mdx
@@ -145,7 +145,7 @@ translationType: machine
myMap.put("Key", "Value");
Integer stringVar =
(Integer) myMap.get("Key"); // throws ClassCastException
- } catch (Exception e) {
+ } catch(Exception e) {
NewRelic.recordHandledException(e, myMap);
}
}
@@ -166,8 +166,8 @@ translationType: machine
Snackbar.make(view, "Replace with your own action", Snackbar.LENGTH_LONG)
.setAnchorView(R.id.fab)
.setAction("Action", null).show()
- }catch (exception:Exception) {
- NewRelic.recordHandledException(exception,myMap)
+ } catch(exception:Exception) {
+ NewRelic.recordHandledException(exception,myMap)
}
}
...
@@ -259,7 +259,7 @@ translationType: machine
@throw [NSException exceptionWithName:@"versionException"
reason:@"App version no longer supported"
userInfo:nil];
- } @catch (NSException* e) {
+ } @catch(NSException* e) {
[NewRelic recordHandledException:e];
}
```
@@ -333,8 +333,8 @@ translationType: machine
```dart
try {
some_code_that_throws_error();
- } catch (ex) {
- NewrelicMobile.instance
+ } catch(ex) {
+ NewrelicMobile.instance
.recordError(error, StackTrace.current, attributes: attributes);
}
```
@@ -396,7 +396,7 @@ translationType: machine
```csharp
try {
some_code_that_throws_error();
- } catch (Exception ex) {
+ } catch(Exception ex) {
CrossNewRelic.Current.RecordException(ex);
}
```
@@ -458,7 +458,7 @@ translationType: machine
```csharp
try {
some_code_that_throws_error();
- } catch (Exception ex) {
+ } catch(Exception ex) {
NewRelicAgent.RecordException(e);
}
```
diff --git a/src/i18n/content/pt/docs/network-performance-monitoring/advanced/advanced-config.mdx b/src/i18n/content/pt/docs/network-performance-monitoring/advanced/advanced-config.mdx
index d25ccdd8fc1..2fc1b8a0ce9 100644
--- a/src/i18n/content/pt/docs/network-performance-monitoring/advanced/advanced-config.mdx
+++ b/src/i18n/content/pt/docs/network-performance-monitoring/advanced/advanced-config.mdx
@@ -386,7 +386,7 @@ global:
- Valor usado durante a síntese da entidade para New Relic. Isso é criado automaticamente com base no `mib_profile` correspondente e deve corresponder a uma das regras no repositório [de definições de entidade](https://github.com/newrelic/entity-definitions/search?q=%22attribute%3A+provider%22+filename%3Adefinition.yml) para que uma entidade seja criada. Se estiver adicionando dispositivos manualmente, você precisará tomar cuidado para garantir que esse valor seja válido.
+ Valor usado durante a síntese de entidade para New Relic. Isso é criado automaticamente com base no `mib_profile` correspondente e deve corresponder a uma das regras no repositório [de definições de entidade](https://github.com/search?q=repo%3Anewrelic/entity-definitions%20path%3Adefinition.yml&type=code) para que uma entidade seja criada. Se você estiver adicionando dispositivos manualmente, precisará ter cuidado para garantir que esse valor seja válido.
|
diff --git a/src/i18n/content/pt/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx b/src/i18n/content/pt/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
index 800750b2a5a..e8b9fc2806e 100644
--- a/src/i18n/content/pt/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
+++ b/src/i18n/content/pt/docs/new-relic-solutions/build-nr-ui/build-nr-app.mdx
@@ -11,24 +11,15 @@ translationType: machine
O New Relic oferece muitas opções para [trazer dados de qualquer fonte](/docs/data-apis/custom-data/intro-custom-data) e criar [gráficos](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) e [painéis](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) personalizados. Mas se você quiser ir além dessas opções e criar suas próprias experiências no New Relic, daremos acesso às mesmas ferramentas que usamos para criar aplicativos em nossa plataforma.
-
+
Os aplicativos New Relic são aplicativos React JavaScript que:
-* Residir na [plataforma New Relic](/docs/new-relic-one/use-new-relic-one/get-started/introduction-new-relic-one), junto com seus outros
-
-
-
- e dados.
-
+* Residir na [plataforma New Relic](/docs/new-relic-one/use-new-relic-one/get-started/introduction-new-relic-one), junto com seus outros e dados.
* Visualizações de recursos que você adaptou especificamente para sua organização.
-
* Exiba dados de qualquer fonte desejada, seja de uma entidade monitoradora New Relic ou dados de outro serviço ou API.
-Continue lendo para saber mais sobre o que você pode fazer com os aplicativos New Relic. Ou, se quiser avançar e começar a criar seus próprios aplicativos, primeiro leia os [requisitos em nosso site para desenvolvedores](https://developer.newrelic.com/build-apps/permission-manage-apps).
+Continue lendo para saber mais sobre o que você pode fazer com os aplicativos do New Relic. Ou, se você quiser pular e começar a criar seus próprios aplicativos, vá para o [guia de configuração do ambiente de desenvolvimento](/docs/new-relic-solutions/new-relic-one/build-nr-apps/set-up-dev-env/).
## New Relic: uma plataforma programável [#what-is-it]
@@ -36,12 +27,9 @@ Nós nos esforçamos para ter uma experiência do usuário automatizada que forn
Agora, damos a você controle sobre os blocos de construção fundamentais da nossa plataforma. Usando as mesmas ferramentas que nosso engenheiro usa para construir a plataforma New Relic, você pode construir um aplicativo personalizado que se alinhe à sua estrutura organizacional e necessidades de negócios exclusivas. Se você sabe usar React, GraphQL e NRQL (nossa linguagem de consulta), construir um aplicativo levará apenas alguns minutos.
-Confira os [guias em nosso site de desenvolvedores](https://developer.newrelic.com/build-apps) para obter ajuda na criação de aplicativos personalizados. Ou, para uma rápida visão geral de como começar a criar seu próprio aplicativo, assista a este pequeno vídeo no YouTube (aprox. 3:15 minutos).
+Confira o [guia do desenvolvedor](/docs/new-relic-solutions/tutorials/build-hello-world-app/) para obter ajuda na criação de um aplicativo personalizado. Ou, para uma rápida visão geral de como começar a criar seu próprio aplicativo, assista a este breve vídeo do YouTube (aprox. 3:15 minutos).
-
+
## Iniciar [#get-started]
@@ -50,18 +38,14 @@ Com o New Relic, você pode resolver qualquer desafio orientado por dados, por m
* Use nossa API para [obter dados de qualquer fonte no New Relic](/docs/data-apis/custom-data/intro-custom-data).
* [Visualize esses dados em seu aplicativo personalizado](https://developer.newrelic.com/build-apps).
-
+
- **[one.newrelic.com](https://one.newrelic.com/all-capabilities):** Aqui está um exemplo de aplicativo personalizado criado no New Relic. Este aplicativo fornece uma análise altamente detalhada de um site, usando o evento PageView relatado em nosso .
+ **[one.newrelic.com](https://one.newrelic.com/all-capabilities):** Aqui está um exemplo de aplicativo personalizado criado no New Relic. Este aplicativo fornece uma análise altamente detalhada de um site, usando o evento PageView relatado em nosso .
Se suas necessidades de visualização forem relativamente simples, considere usar [gráficos customizados](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder) e [dashboards personalizados](/docs/dashboards/new-relic-one-dashboards/get-started/introduction-new-relic-one-dashboards).
-Agora, visite nosso [site de desenvolvedores](http://developer.newrelic.com) e comece a construir!
+Agora, visite o [exemplo Hello World](/docs/new-relic-solutions/tutorials/build-hello-world-app/) e comece a construir!
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx b/src/i18n/content/pt/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
index ad29ac8e659..fc6ed123b13 100644
--- a/src/i18n/content/pt/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
+++ b/src/i18n/content/pt/docs/new-relic-solutions/business-observability/intro-pathpoint.mdx
@@ -12,9 +12,7 @@ New Relic Pathpoint é um aplicativo de visualização que oferece uma abordagem
Ao monitorar e analisar a saúde e o desempenho de todas as fases da jornada, incluindo processos internos relevantes e dependências externas, o Pathpoint permite que a organização identifique e resolva facilmente problemas que impactam a jornada, otimize processos internos e melhore a experiência geral do cliente.
-Pathpoint é um projeto de catálogo de código aberto desenvolvido pela equipe dos laboratórios New Relic. Consulte o [repositório GitHub Pathpoint](https://github.com/newrelic/nr-labs-pathpoint).
-
-Quer entender os benefícios do Pathpoint em alto nível? Veja a [página do produto Pathpoint](https://newrelic.com/platform/pathpoint).
+Instale o aplicativo diretamente do [New Relic catalog](https://onenr.io/0bRm7rdJZQy). Você também pode explorar o [repositório do GitHub](https://github.com/newrelic/nr-labs-pathpoint).
diff --git a/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx b/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
index 1198c09d5a2..6f29ed6d7c6 100644
--- a/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
+++ b/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager.mdx
@@ -9,9 +9,9 @@ freshnessValidatedDate: never
translationType: machine
---
-Nossos gerenciadores de trabalho de monitoramento sintético são recursos baseados em [contêiner Docker](https://www.docker.com/resources/what-container)que aceitam e executam [monitores Sintético](/docs/synthetics/synthetic-monitoring/getting-started/types-synthetics-monitors) atribuídos a [localização privada](/docs/synthetics/synthetic-monitoring/private-locations/private-locations-overview-monitor-internal-sites-add-new-locations).
+Nossos gerenciadores de tarefas de monitoramento Sintético são recursos baseados em [contêineresDocker ](https://www.docker.com/resources/what-container)que aceitam e executam [monitores Sintético](/docs/synthetics/synthetic-monitoring/using-monitors/intro-synthetic-monitoring/#types-of-synthetic-monitors) atribuídos a [localização privada](/docs/synthetics/synthetic-monitoring/private-locations/private-locations-overview-monitor-internal-sites-add-new-locations).
-O gerenciador de tarefas pode operar em um ambiente de sistema de contêiner Docker ou em um ambiente de sistema de orquestração de contêiner Kubernetes. O gerenciador de tarefas detectará automaticamente seu ambiente para selecionar o modo operacional apropriado.
+O gerenciador de tarefas pode operar em um ambiente de sistema de contêiner Docker, um ambiente de sistema de contêiner Podman ou um ambiente de sistema de orquestração de contêiner Kubernetes. O gerenciador de tarefas detectará automaticamente seu ambiente para selecionar o modo de operação apropriado.
## Recurso sintético do gerenciador de tarefas [#enhancements]
@@ -19,7 +19,7 @@ Como o gerenciador de tarefas Sintético opera como um contêiner em vez de uma
* Compatível com Linux, [macOS](https://docs.docker.com/docker-for-mac/) e [Windows](https://docs.docker.com/docker-for-windows/).
* [Segurança](#security) aprimorada e suporte para execução de usuário [não root](#run-as-non-root) .
-* Capacidade de aproveitar um contêiner Docker como ambiente [sandbox](#sandboxing-and-docker-deps) .
+* Capacidade de aproveitar um contêiner Docker como um ambiente [sandbox](#docker-dependencies) .
## Recurso específico do Kubernetes [#kubernetes-enhancements]
@@ -50,7 +50,7 @@ Para hospedar gerenciadores de tarefas Sintético, seu sistema deve atender aos
-
+ |
Compatibilidade para
|
@@ -69,7 +69,7 @@ Para hospedar gerenciadores de tarefas Sintético, seu sistema deve atender aos
**Linux kernel:** 3.10 ou superior **macOS:** 10.11 ou superior **Windows:** Windows 10 de 64 bits ou superior
- *Você também deve configurar Docker para executar o contêiner Linux para que os gerenciadores de tarefas Sintético funcionem em sistemas Windows.*
+ Você também deve configurar Docker para executar o contêiner Linux para que os gerenciadores de tarefas Sintético funcionem em sistemas Windows.
|
@@ -136,7 +136,103 @@ Para hospedar gerenciadores de tarefas Sintético, seu sistema deve atender aos
- O gerenciador de tarefas Docker Sintético não foi projetado para uso com orquestradores de contêineres como AWS ECS, Docker Swarm, Apache Mesos, Azure contêiner instância, etc. Executar o gerenciador de tarefas Docker Sintético em um orquestrador de contêiner resultará em problemas inesperados porque ele próprio é um orquestrador de contêiner. Se você estiver usando orquestração de contêineres, consulte nossos [requisitos do gerenciador de tarefas Kubernetes Sintético](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements).
+ O gerenciador de tarefas Docker Sintéticos não foi projetado para uso com orquestradores de contêineres, como AWS ECS, Docker Swarm, Apache Mesos, instância de contêiner Azure , etc. Executar o gerenciador de tarefas Docker Sintéticos em um orquestrador de contêineres resulta em problemas inesperados, pois ele próprio funciona como um orquestrador. Se você estiver usando a orquestração de contêineres, consulte nossos [requisitos do gerenciador de tarefasKubernetes Sintéticos](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements).
+
+
+
+ >
+ }
+ >
+
+
+
+
+ Compatibilidade para
+ |
+
+
+ Requisitos
+ |
+
+
+
+
+
+
+ Sistema operacional
+ |
+
+
+ **Linux kernel:** 3.10 ou superior
+ |
+
+
+
+
+ Processador
+ |
+
+
+ Uma CPU AMD64 ou x86\_64 moderna e multi-core
+ |
+
+
+
+
+ Memória
+ |
+
+
+ 3.256 GiB de RAM por núcleo de CPU (dedicado)
+ |
+
+
+
+
+ Tamanho do disco
+ |
+
+
+ Um mínimo de 50 GiB por host
+ |
+
+
+
+
+ Sistema de arquivos em disco
+ |
+
+
+ NFSv4.1 ou superior (se estiver usando NFS)
+ |
+
+
+
+
+ [Versão Podman](https://github.com/containers/podman/releases)
+ |
+
+
+ Podman [5.0.0-ce](https://github.com/containers/podman/releases/tag/v5.0.0) ou superior
+ |
+
+
+
+
+ Chave de localização privada
+ |
+
+
+ Você deve ter uma [chave de localização privada](#private-location-key)
+ |
+
+
+
+
+
+ O gerenciador de tarefas Podman Sintéticos não foi projetado para uso com orquestradores de contêineres, como AWS ECS, Docker Swarm, Apache Mesos, Azure contêiner instância, etc. Executar o gerenciador de tarefas Docker Sintéticos em um orquestrador de contêineres resulta em problemas inesperados, pois ele próprio funciona como um orquestrador. Se você estiver usando a orquestração de contêineres, consulte nossos [requisitos do gerenciador de tarefasKubernetes Sintéticos](/docs/synthetics/synthetic-monitoring/private-locations/install-job-manager/#kubernetes-requirements).
@@ -148,7 +244,7 @@ Para hospedar gerenciadores de tarefas Sintético, seu sistema deve atender aos
-
+ |
Compatibilidade para
|
@@ -316,7 +412,7 @@ Para encontrar a chave da localização privada existente:
## Instalar, atualizar e configurar o gerenciador de tarefas Sintético [#install]
-Se você estiver executando mais de um contêiner Docker localização privada no mesmo host, você terá conflitos de porta. Para evitar essa contenção de porta, certifique-se de fazer o seguinte ao iniciar a configuração dos gerenciadores de tarefas:
+Se você estiver executando mais de um Docker ou Podman no mesmo host, você terá conflitos de porta. Para evitar essa contenção de porta, certifique-se de fazer o seguinte ao começar a configurar os gerenciadores de tarefas:
* Execute gerenciadores de tarefas e chamadas por minuto em hosts diferentes.
* Execute cada gerenciador de tarefas em um host separado.
@@ -324,13 +420,13 @@ Se você estiver executando mais de um contêiner Docker localização privada n
As imagens do gerenciador de tarefas Sintético são hospedadas no [Docker Hub](https://hub.docker.com/). Acesse [hub.docker.com/r/newrelic/synthetics-job-manager/tags](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags) para obter uma lista de todos os lançamentos.
-A menos que hospede as imagens em um repositório de imagens local, você precisa permitir conexões com `docker.io` por meio de seu firewall para que docker possa extrair o gerenciador de tarefas Sintético e o tempo de execução das imagens Synthetics. Quando o gerenciador de tarefas Sintético é iniciado, as imagens de tempo de execução são extraídas automaticamente. Consulte [Configuração do ambiente Docker](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#docker-env-config) e [Configuração do ambiente Kubernetes](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#kubernetes-env-config) para obter detalhes sobre como definir um repositório local e o endpoint de registro do executor.
+A menos que você esteja hospedando as imagens em um repositório de imagens local, você precisa permitir conexões com `docker.io` através do seu firewall para que Docker ou o Podman possam extrair o gerenciador de tarefas do Sintéticos e o tempo de execução das imagens do Synthetics. Quando o gerenciador de tarefas do Sintéticos é iniciado, as imagens de tempo de execução são extraídas automaticamente. Consulte [Configuração do ambienteDocker ](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#docker-env-config), [Configuração do ambiente Podman](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#podman-env-config) e [Configuração do ambienteKubernetes ](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration/#kubernetes-env-config)para obter detalhes sobre como definir um repositório local e o endpoint de registro do executor.
Para obter mais detalhes sobre definições de configuração avançadas, consulte [Configuração do gerenciador de tarefas Sintético](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration).
## Inicie o gerenciador de tarefas Sintético [#start]
-Abaixo estão as instruções aplicáveis Docker ou do Kubernetes para iniciar o gerenciador de tarefas.
+A seguir estão as instruções aplicáveis do Docker, Podman ou Kubernetes para iniciar o gerenciador de tarefas.
1. Localize sua [chave de localização privada](#private-location-key).
- 2. Certifique-se de ter habilitado [a dependência do Docker](#sandboxing-and-docker-deps) para sandbox e [instalado](#install-update) o gerenciador de tarefas Sintético em seu sistema.
+ 2. Certifique-se de ter habilitado [a dependênciaDocker ](#docker-dependencies)para sandbox e [instalado](#install-update) o gerenciador de tarefas Sintéticos no seu sistema.
3. Execute o script apropriado para o seu sistema. Adapte o padrão comum `/var/run/docker.sock` nos exemplos a seguir para corresponder ao seu sistema.
@@ -375,6 +471,43 @@ Abaixo estão as instruções aplicáveis Docker ou do Kubernetes para iniciar o
```
+ >
+ }
+ >
+ 1. Localize sua [chave de localização privada](#private-location-key).
+ 2. Certifique-se de ter habilitado [o Podman dependência](#podman-dependencies) para sandbox e [instalado](#install-update) o gerenciador de tarefas Sintéticos no seu sistema.
+ 3. Execute o script abaixo para seu sistema.
+
+ Para criar um pod no Linux e adicionar o endereço IP da máquina host:
+
+ ```
+ podman pod create --name YOUR_POD_NAME --add-host=podman.service:IP_ADDRESS
+ ```
+
+ Para iniciar o Gerenciador de Tarefas:
+
+ ```
+ podman run \
+ --name YOUR_CONTAINER_NAME \
+ --pod YOUR_POD_NAME \
+ -e "PRIVATE_LOCATION_KEY=YOUR_PRIVATE_LOCATION_KEY" \
+ -e "CONTAINER_ENGINE=PODMAN" \
+ -e "PODMAN_API_SERVICE_PORT=YOUR_PODMAN_API_SERVICE_PORT" \
+ -e "PODMAN_POD_NAME=YOUR_POD_NAME" \
+ -d \
+ --restart unless-stopped \
+ newrelic/synthetics-job-manager:latest
+ ```
+
+ Para visualizar os logs do seu contêiner minion:
+
+ ```
+ podman logs --follow YOUR_CONTAINER_NAME
+ ```
+
+
Procedimento de inicialização do Kubernetes>
@@ -385,7 +518,7 @@ Abaixo estão as instruções aplicáveis Docker ou do Kubernetes para iniciar o
2. Configure um namespace para o gerenciador de tarefas Sintético em seu cluster do Kubernetes:
```shell
- kubectl create namespace YOUR_NAMESPACE
+ kubectl create namespace YOUR_NAMESPACE
```
3. Copie os gráficos do Helm do repositório do Helm do New Relic.
@@ -428,7 +561,7 @@ Abaixo estão as instruções aplicáveis Docker ou do Kubernetes para iniciar o
## Pare ou exclua o gerenciador de tarefas Sintético [#stop]
-Em um ambiente de sistema de contêiner Docker , use o procedimento Docker `stop` para interromper a execução do gerenciador de tarefas Sintético. Em um ambiente de sistema de orquestração de contêiner Kubernetes, use o procedimento `delete` do Kubernetes para interromper a execução do gerenciador de tarefa Sintético.
+Em um ambiente de sistema de contêiner Docker ou Podman, use o respectivo procedimento `stop` para parar o gerenciador de tarefas do Sintéticos. Em um ambiente de sistema de orquestração de contêineres Kubernetes , use o procedimento `delete` Kubernetes para interromper a execução do gerenciador de tarefas do Sintéticos.
+ >
+ }
+ >
+ Você pode [parar um contêiner Podman](https://docs.podman.io/en/stable/markdown/podman-stop.1.html) pelo nome do contêiner ou pelo ID do contêiner.
+
+ * Nome do contêiner stop para Linux:
+
+ ```
+ podman stop YOUR_CONTAINER_NAME
+ podman rm YOUR_CONTAINER_NAME
+ ```
+
+ * Parada de ID do contêiner para Linux:
+
+ Nos exemplos o contêiner é parado e removido. Para parar apenas o contêiner, omita `podman rm $CONTAINER_ID`.
+
+ ```
+ CONTAINER_ID=$(podman ps -aqf name=YOUR_CONTAINER_NAME)
+ podman stop $CONTAINER_ID
+ podman rm $CONTAINER_ID
+ ```
+
+
Procedimento de exclusão do Kubernetes>
@@ -491,9 +649,9 @@ Em um ambiente de sistema de contêiner Docker , use o procedimento Docker `stop
-## Dependência de sandbox e Docker [#sandboxing-and-docker-deps]
+## Sandbox e dependência [#sandboxing-and-deps]
-Sandboxing e Docker dependência são aplicáveis ao gerenciador de tarefas Sintético em um ambiente de sistema de contêiner Docker .
+Sandboxing e dependência são aplicáveis ao gerenciador de tarefas Sintéticos em um ambiente de sistema de contêiner Docker ou Podman.
+
+ >
+ }
+ >
+ O gerenciador de tarefas do Sintéticos é executado no Podman e consegue aproveitar o Podman como uma tecnologia de sandbox. Isso garante o isolamento completo da execução do monitor, o que melhora a segurança, a confiabilidade e a repetibilidade. Toda vez que um monitor com script ou browser é executado, o gerenciador de tarefas do Sintéticos cria um novo contêiner Podman para executá-lo usando o tempo de execução correspondente.
+
+ O contêiner do gerenciador de tarefas do Sintéticos precisa ser configurado para se comunicar com o mecanismo do Podman para gerar contêineres de tempo de execução adicionais. Cada contêiner gerado é então dedicado a executar uma verificação associada ao [monitor Sintético](/docs/synthetics/new-relic-synthetics/using-monitors/add-edit-monitors) em execução na localização privada à qual o contêiner do gerenciador de tarefas Sintéticos está associado.
+
+ Há uma dependência crucial no lançamento. Para habilitar o sandbox, certifique-se de ter:
+
+ 1. Instalou o Podman [5.0.0-ce](https://github.com/containers/podman/releases/tag/v5.0.0) ou superior.
+
+ 2. Habilitou a execução sem raiz:
+
+ * Configure o Podman para executar o contêiner sem exigir privilégios de root.
+ ```
+ mkdir -p ~/.config/containers
+ touch ~/.config/containers/containers.conf
+ vi ~/.config/containers/containers.conf
+ ```
+ * Edite o arquivo `containers.conf` para configurar o Podman para usar `crun` e `systemd`:
+ ```
+ [engine]
+ runtime = "crun"
+ cgroup_manager = "systemd"
+ ```
+
+ 3. Habilitou o cgroups v2 (somente RHEL):
+ * Edite o GRUB para habilitar o cgroups v2, o que garante compatibilidade com os tempos de execução modernos do contêiner no RHEL.
+ ```
+ sudo sed -i 's/GRUB_CMDLINE_LINUX="/&systemd.unified_cgroup_hierarchy=1 /' /etc/default/grub
+ sudo grub2-mkconfig -o /boot/grub2/grub.cfg
+ sudo reboot
+ ```
+
+ 4. Habilitou a delegação em todo o sistema para permitir a delegação `cgroups` para os serviços do Podman.
+ ```
+ sudo mkdir -p /etc/systemd/system/user@.service.d/
+ echo -e "[Service]\nDelegate=yes" | sudo tee /etc/systemd/system/user@.service.d/delegate.conf > /dev/null
+ ```
+
+ 5. Configure o serviço `systemd` em nível de usuário:
+
+ * Crie diretórios para os serviços de nível de usuário `systemd` .
+ ```
+ mkdir -p ~/.config/systemd/user/podman.service.d
+ ```
+ * Adicione a configuração de delegado ao serviço `systemd` em nível de usuário.
+ ```
+ echo -e "[Service]\nDelegate=yes" > ~/.config/systemd/user/podman.service.d/override.conf
+ ```
+
+ 6. Habilitou e iniciou o soquete Podman.
+ ```
+ systemctl --user enable podman.socket
+ systemctl --user start podman.socket
+ systemctl --user status podman.socket
+ ```
+
+ 7. Criei e configurei o serviço Podman API:
+
+ * Crie um serviço de API do Podman e configure o Podman para fornecer acesso à API HTTP.
+ ```
+ mkdir -p ~/.config/systemd/user
+ touch ~/.config/systemd/user/podman-api.service
+ vi ~/.config/systemd/user/podman-api.service
+ ```
+ * Defina o serviço para expor a API do Podman na porta 8000.
+ ```
+ [Unit]
+ Description=Podman API Service
+ After=default.target
+
+ [Service]
+ Type=simple
+ ExecStart=/usr/bin/podman system service -t 0 tcp:0.0.0.0:8000
+ Restart=on-failure
+
+ [Install]
+ WantedBy=default.target
+ ```
+
+ 8. Habilitou e iniciou o serviço da API do Podman.
+ ```
+ systemctl --user daemon-reload
+ systemctl --user enable podman-api.service
+ systemctl --user start podman-api.service
+ systemctl --user status podman-api.service
+ ```
+
+
+ A contagem de núcleos no host determina quantos contêineres de tempo de execução o gerenciador de tarefas Sintético pode executar simultaneamente no host. Como os requisitos de memória são dimensionados para a contagem esperada do contêiner de tempo de execução, recomendamos **not running multiple synthetics job managers on the same host** para evitar contenção de recursos.
+
+
+
+
## Segurança, sandbox e execução como não-root [#security]
Por padrão, o software executado dentro de um gerenciador de tarefas Sintético é executado com `root` privilégios de usuário. Isso é adequado para a maioria dos cenários, pois a execução ocorre em área restrita.
@@ -559,7 +815,7 @@ Para executar o gerenciador de tarefas Sintético como um usuário não root, s
-## Entenda seus ambientes docker ou Kubernetes [#understand]
+## Entenda seus ambientes Docker, Podman ou Kubernetes [#understand]
Abaixo estão informações adicionais sobre como manter e compreender o ambiente de contêiner do gerenciador de tarefas. Visualize informações de licença, entenda as configurações de rede do gerenciador de tarefas e confira o repositório de imagens docker .
@@ -567,7 +823,7 @@ Abaixo estão informações adicionais sobre como manter e compreender o ambient
Use estas opções conforme aplicável:
- * Para acompanhar o log docker e verificar a integridade do seu monitor, consulte [Manutenção e monitoramento do gerenciador de tarefas Sintético](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring).
+ * Para acompanhar os logs do Docker ou Podman e verificar a integridade dos seus monitores, consulte [Manutenção e monitoramento do gerenciador de tarefas da Sintéticos](/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring).
* Para um gerenciador de tarefas Sintético no ambiente do sistema de orquestração de contêineres Kubernetes, os seguintes comandos Helm `show` podem ser usados para visualizar o `chart.yaml` e o `values.yaml`, respectivamente:
@@ -590,10 +846,12 @@ Abaixo estão informações adicionais sobre como manter e compreender o ambient
Uma rede bridge é criada para comunicação entre o gerenciador de tarefas Sintético e o contêiner runtime. Isso significa que opções de comando de rede como `--network` e `--dns` passadas para o contêiner do gerenciador de tarefas Sintético no lançamento (como por meio de comandos docker run em um ambiente de sistema docker contêiner) não são herdadas ou usadas pelos contêineres de tempo de execução.
Quando essas redes são criadas, elas extraem do pool de endereços IP padrão configurado para o daemon. Para obter um exemplo disso em um ambiente de sistema de contêiner Docker , consulte o [site Docker ](https://docs.docker.com/engine/reference/commandline/dockerd/#daemon-configuration-file).
+
+ No caso do Podman, não usamos uma rede de ponte para comunicação entre o gerenciador de tarefas do Sintéticos e o contêiner de tempo de execução, em vez disso, usamos um pod Podman. Todos os contêineres em um pod Podman compartilham o mesmo namespace de rede. Isso significa que eles compartilham o mesmo endereço IP dentro desse pod. Neste caso, embora os contêineres compartilhem o mesmo IP, seus serviços são expostos em portas diferentes.
- Uma única imagem docker do gerenciador de tarefas Sintético atende tanto o ambiente do sistema de contêineres docker quanto o ambiente do sistema de orquestração de contêineres Kubernetes. A imagem docker está hospedada no docker Hub. Para garantir que sua imagem docker esteja atualizada, consulte o [repositóriodocker Hub newrelic/Sintético-job-manager](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags).
+ Uma única imagem Docker do gerenciador de tarefas Sintéticos atende ao ambiente do sistema de orquestração de contêineres Docker, Podman e Kubernetes . A imagem do Docker é hospedada no Docker Hub. Para garantir que sua imagem do Docker esteja atualizada, consulte o [repositório newrelic/synthetics-job-manager do Docker Hub](https://hub.docker.com/r/newrelic/synthetics-job-manager/tags).
@@ -639,7 +897,7 @@ Abaixo estão informações adicionais sobre como manter e compreender o ambient
- Isso se aplica apenas a um ambiente de contêiner docker . Os argumentos passados para o contêiner do gerenciador de tarefas Sintético no lançamento não são repassados para os contêineres de tempo de execução gerados pelo gerenciador de tarefas Sintético. docker não tem conceito de "herança" ou "hierarquia" de contêiner, e não copiamos a configuração que é passada do gerenciador de tarefas Sintético para o runtime contêiner. A única configuração compartilhada entre eles é aquela definida no nível do [daemon do Docker](https://docs.docker.com/config/daemon/) .
+ Isso se aplica somente ao ambiente de contêiner Docker e Podman. Os argumentos passados para o contêiner do gerenciador de tarefas Sintéticos no lançamento não são repassados para o contêiner de tempo de execução gerado pelo gerenciador de tarefas Sintéticos. Docker e o Podman não têm o conceito de "herança" ou "hierarquia" de contêiner, e não copiamos a configuração que é passada do gerenciador de tarefas do Sintéticos para o contêiner em tempo de execução. Entretanto, no caso do Podman, os argumentos passados no nível pod são compartilhados entre o gerenciador de tarefas do Sintéticos e o contêiner de tempo de execução no pod. A única configuração compartilhada entre eles é aquela definida no nível [do daemon do Docker](https://docs.docker.com/config/daemon/) .
|
diff --git a/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration.mdx b/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration.mdx
index b1517321569..85330aaf9a3 100644
--- a/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration.mdx
+++ b/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-configuration.mdx
@@ -236,6 +236,240 @@ As variáveis ambientais permitem ajustar a configuração do gerenciador de tar
+
+ As variáveis são fornecidas na inicialização usando o argumento `-e, --env` .
+
+ A tabela a seguir exibe todas as variáveis de ambiente que o gerenciador de tarefas Sintéticos suporta. `PRIVATE_LOCATION_KEY` é obrigatório e todas as outras variáveis são opcionais. Para executar o gerenciador de tarefas Sintéticos em um ambiente Podman, a versão mínima deve ser release-418 ou superior.
+
+
+
+
+
+ Nome
+ |
+
+
+ Descrição
+ |
+
+
+
+
+
+
+ `PRIVATE_LOCATION_KEY`
+ |
+
+
+ **REQUIRED.** chave de localização privada, conforme encontrada na lista entidade privada de localização.
+ |
+
+
+
+
+ `HORDE_API_ENDPOINT`
+ |
+
+
+ Para contas baseadas nos EUA, o endpoint é: `https://synthetics-horde.nr-data.net.`
+
+ Para contas [baseadas na UE](/docs/using-new-relic/welcome-new-relic/get-started/introduction-eu-region-data-center#partner-hierarchy) , o endpoint é: `https://synthetics-horde.eu01.nr-data.net/`
+
+ Certifique-se de que seu gerenciador de tarefas Sintético possa se conectar ao endpoint apropriado para atender seu monitor.
+ |
+
+
+
+
+ `PODMAN_API_SERVICE_HOST`
+ |
+
+
+ A entrada do host adicionada ao pod criado onde o SJM será executado. Use isto para substituir `podman.service` como padrão.
+ |
+
+
+
+
+ `PODMAN_API_SERVICE_PORT`
+ |
+
+
+ A porta na qual o serviço Podman LibPod RESTful API está sendo executado na instância. Use isto para substituir `8000` como padrão.
+ |
+
+
+
+
+ `PODMAN_API_VERSION`
+ |
+
+
+ A versão específica da API RESTful do Podman LibPod que está sendo usada. Use isto para substituir `v5.0.0` como padrão.
+ |
+
+
+
+
+ `PODMAN_POD_NAME`
+ |
+
+
+ O nome do pod no qual o contêiner SJM é executado. Use isto para substituir `SYNTHETICS` como padrão.
+ |
+
+
+
+
+ `DOCKER_REGISTRY`
+ |
+
+
+ O domínio Docker Registry onde as imagens de tempo de execução estão hospedadas. Use isto para substituir `docker.io` como padrão.
+ |
+
+
+
+
+ `DOCKER_REPOSITORY`
+ |
+
+
+ O docker repositório ou organização onde as imagens de tempo de execução estão hospedadas. Use isto para substituir `newrelic` como padrão.
+ |
+
+
+
+
+ `HORDE_API_PROXY_HOST`
+ |
+
+
+ Host do servidor proxy usado para comunicação da Horda. Formato: `"localhost"`.
+ |
+
+
+
+
+ `HORDE_API_PROXY_PORT`
+ |
+
+
+ Porta do servidor proxy usada para comunicação da Horda. Formato: `8888`.
+ |
+
+
+
+
+ `HORDE_API_PROXY_USERNAME`
+ |
+
+
+ Nome de usuário do servidor proxy usado para comunicação da Horda. Formato: `"username"`.
+ |
+
+
+
+
+ `HORDE_API_PROXY_PW`
+ |
+
+
+ Senha do servidor proxy usada para comunicação da Horda. Formato: `"password"`.
+ |
+
+
+
+
+ `HORDE_API_PROXY_ACCEPT_SELF_SIGNED_CERT`
+ |
+
+
+ Aceita certificados proxy autoassinados para a conexão do servidor proxy usada para comunicação do Horde? Valores aceitáveis: `true`
+ |
+
+
+
+
+ `CHECK_TIMEOUT`
+ |
+
+
+ A quantidade máxima de segundos que as verificações do seu monitor podem ser executadas. Este valor deve ser um número inteiro entre 0 segundos (excluído) e 900 segundos (incluído) (por exemplo, de 1 segundo a 15 minutos).
+
+ Padrão: 180 segundos
+ |
+
+
+
+
+ `LOG_LEVEL`
+ |
+
+
+ Padrão: `INFO.`
+
+ Opções adicionais: `WARN`, `ERROR`, `DEBUG`
+ |
+
+
+
+
+ `HEAVYWEIGHT_WORKERS`
+ |
+
+
+ O número de trabalhos pesados simultâneos (navegador/navegador com script e API com script) que podem ser executados ao mesmo tempo.
+
+ Padrão: CPUs disponíveis - 1.
+ |
+
+
+
+
+ `DESIRED_RUNTIMES`
+ |
+
+
+ Uma matriz que pode ser usada para executar imagens de tempo de execução específicas. Formato: \['newrelic/Sintético-ping-runtime:latest','newrelic/Sintético-node-API-runtime:latest','newrelic/Sintético-node-navegador-runtime:latest']
+
+ Padrão: todos os tempos de execução mais recentes.
+ |
+
+
+
+
+ `VSE_PASSPHRASE`
+ |
+
+
+ Se definido, ativa **verified script execution** e usa esse valor como **passphrase**.
+ |
+
+
+
+
+ `USER_DEFINED_VARIABLES`
+ |
+
+
+ Um conjunto hospedado localmente de pares de valores principais definidos pelo usuário.
+ |
+
+
+
+
+ `ENABLE_WASM`
+ |
+
+
+ Se definido, habilita o webassembly para o tempo de execução do navegador do nó. Para usar o webassembly, a versão mínima do seu gerenciador de tarefas Sintético deve ser release-367 ou superior e a versão do tempo de execução do navegador do nó deve ser 2.3.21 ou superior.
+ |
+
+
+
+
+
As variáveis são fornecidas na inicialização usando o argumento `--set` .
@@ -741,6 +975,14 @@ Os gerenciadores de tarefas Private Sintético permitem configurar variáveis de
docker run ... -v /variables:/var/lib/newrelic/synthetics/variables:rw ...
```
+ Exemplo de Podman:
+
+ No caso do SELinux, monte o volume adicionalmente com `:z` ou `:Z`. Para mais informações, consulte [a documentação do Podman.](https://docs.podman.io/en/latest/markdown/podman-run.1.html#volume-v-source-volume-host-dir-container-dir-options) O diretório de destino esperado é: `/var/lib/newrelic/synthetics/variables/`
+
+ ```sh
+ podman run ... -v /variables:/var/lib/newrelic/synthetics/variables:rw,z ...
+ ```
+
Exemplo de Kubernetes:
O usuário tem duas opções ao fornecer um arquivo ao pod SJM no Kubernetes. Eles podem:
@@ -778,6 +1020,14 @@ Os gerenciadores de tarefas Private Sintético permitem configurar variáveis de
docker run ... -e USER_DEFINED_VARIABLES='{"key":"value","name":"sjm"}' ...
```
+ Exemplo de Podman:
+
+ Use a sinalização `-e` para configurar uma variável de ambiente chamada `USER_DEFINED_VARIABLES` e atribua a ela o valor de uma string de mapa formatada em JSON.
+
+ ```sh
+ podman run ... -e USER_DEFINED_VARIABLES='{"key":"value","name":"sjm"}' ...
+ ```
+
Exemplo de Kubernetes:
Use a sinalização `--set-literal` para transmitir a string formatada em JSON.
@@ -830,7 +1080,7 @@ O `package.json` define `dependencies` como um módulo local (por exemplo, `coun
}
```
-### Adicione seu diretório de módulos personalizados ao SJM para Docker ou Kubernetes
+### Adicione seu diretório de módulos personalizados ao SJM para Docker, Podman ou Kubernetes
@@ -841,6 +1091,14 @@ O `package.json` define `dependencies` como um módulo local (por exemplo, `coun
```
+
+ Para podman, inicie o SJM montando o diretório em `/var/lib/newrelic/synthetics/modules`. No caso do SELinux, monte o volume adicionalmente com `:z` ou `:Z`. Para mais informações, consulte [a documentação do Podman](https://docs.podman.io/en/latest/markdown/podman-run.1.html#volume-v-source-volume-host-dir-container-dir-options). Por exemplo:
+
+ ```sh
+ podman run ... -v /example-custom-modules-dir:/var/lib/newrelic/synthetics/modules:rw,z ...
+ ```
+
+
Para Kubernetes, o diretório em `/var/lib/newrelic/synthetics/modules` precisa existir em um PV antes de iniciar o SJM com módulos customizados habilitados.
@@ -915,7 +1173,7 @@ O `package.json` define `dependencies` como um módulo local (por exemplo, `coun
kubectl get pv,pvc
[output] NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS VOLUMEATTRIBUTESCLASS REASON AGE
[output] persistentvolume/custom-modules-pvc 5Gi RWX Retain Bound newrelic/custom-modules-pvc efs-sc 4m46s
- [output]
+ [output]
[output] NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS VOLUMEATTRIBUTESCLASS AGE
[output] persistentvolumeclaim/custom-modules-pvc Bound custom-modules-pvc 5Gi RWX efs-sc 4m10s
```
@@ -1078,6 +1336,19 @@ Para definir o armazenamento permanente de dados no Docker:
docker run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw ...
```
+### Homem-Pod
+
+Para definir o armazenamento permanente de dados no Podman:
+
+1. Crie um diretório no host onde você está iniciando o Job Manager. Este é o seu diretório de origem.
+2. inicie o Job Manager, montando o diretório de origem no diretório de destino `/var/lib/newrelic/synthetics`.
+
+Exemplo:
+
+```sh
+podman run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw,z ...
+```
+
### Kubernetes
Para definir o armazenamento permanente de dados no Kubernetes, o usuário tem duas opções:
@@ -1138,11 +1409,11 @@ Tempos de execução diferentes provavelmente terão durações e taxas de traba
```sql
-- non-ping average job duration by runtime type
-FROM SyntheticCheck SELECT average(duration) AS 'avg job duration'
+FROM SyntheticCheck SELECT average(duration) AS 'avg job duration'
WHERE type != 'SIMPLE' AND location = 'YOUR_PRIVATE_LOCATION' FACET type SINCE 1 hour ago
-- non-ping jobs per minute by runtime type
-FROM SyntheticCheck SELECT rate(uniqueCount(id), 5 minutes) AS 'jobs per 5 minutes'
+FROM SyntheticCheck SELECT rate(uniqueCount(id), 5 minutes) AS 'jobs per 5 minutes'
WHERE type != 'SIMPLE' AND location = 'YOUR_PRIVATE_LOCATION' FACET type SINCE 1 hour ago
```
diff --git a/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx b/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
index c9b47fb2601..7c9c716af59 100644
--- a/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
+++ b/src/i18n/content/pt/docs/synthetics/synthetic-monitoring/private-locations/job-manager-maintenance-monitoring.mdx
@@ -13,7 +13,7 @@ Após [instalar seu gerenciador de tarefas Sintético](/docs/synthetics/syntheti
* Verifique se o gerenciador de tarefas Sintético está íntegro e funcionando com o [endpoint de status do gerenciador de tarefas Sintético](#sjm-status).
* Veja se uma localização privada está subprovisionada e [precisa de mais gerentes de trabalho Sintético](#more-jobmanagers).
-* Revise seu [log do Docker](#monitor-docker-logs) ou [log do Kubernetes](#monitor-docker-logs).
+* Revise seus [logs do Docker](#monitor-docker-logs), [logs do Podman](#monitor-podman-logs) ou [logs do Kubernetes](#monitor-docker-logs).
Você também pode ser notificado sobre falhas no monitor com [os alertas da New Relic](/docs/synthetics/synthetic-monitors/using-monitors/alerts-synthetic-monitoring).
@@ -57,6 +57,18 @@ Você pode monitor a saúde do seu minion observando o log do contêiner do gere
```
+ >
+ }
+ >
+ Este é um exemplo de um log do gerenciador de tarefas do Sintéticos indicando que o gerenciador de tarefas do Sintéticos está funcionando corretamente em um ambiente de sistema de contêiner Podman:
+
+ ```
+ $podman logs [YOUR_CONTAINER_NAME]
+ ```
+
+
Revisar log Kubernetes>
@@ -109,6 +121,22 @@ O nível padrão de registro em log é definido para informar apenas ao usuário
```
+ >
+ }
+ >
+
+ Adicionar `-f` a `Podman logs` faz com que o comando siga o log.
+
+
+ ```
+ podman run ... -e LOG_LEVEL=DEBUG ...
+ podman logs -f YOUR_CONTAINER_NAME
+ ... verbose logging continues ...
+ ```
+
+
Habilitar log de depuração Kubernetes>
diff --git a/src/install/jmx/whatsNext.mdx b/src/install/jmx/whatsNext.mdx
index 23551ed7485..3d4469b1b3b 100644
--- a/src/install/jmx/whatsNext.mdx
+++ b/src/install/jmx/whatsNext.mdx
@@ -1097,6 +1097,27 @@ Troubleshooting tips:
>
You can use the CLI interactive tool [JMXTerm](https://docs.cyclopsgroup.org/jmxterm) for troubleshooting. Find documentation for JMXTerm in our [`nrjmx` troubleshooting page](https://github.com/newrelic/nrjmx/blob/master/TROUBLESHOOT.md). As of `nrjmx` v1.7.0, JMXTerm is no longer bundled with `nrjmx`, and needs to be downloaded independently. Check the [`nrjmx` installation instructions](https://github.com/newrelic/nrjmx#installation).
+
+
+ By default the integration looks for the `java` binary into the PATH that the Infrastructure Agent has visibility on. In case `java` is not present in the PATH the `JAVA_HOME` [environment variable](https://docs.newrelic.com/docs/infrastructure/host-integrations/infrastructure-integrations-sdk/specifications/host-integrations-standard-configuration-format/#env) must be set into the nri-jmx config file.
+ ```yaml
+ integrations:
+ - name: nri-jmx
+ env:
+ COLLECTION_FILES: "/etc/newrelic-infra/integrations.d/jvm-metrics.yml"
+ JMX_HOST: jmx-host.localnet
+ JMX_PASS: admin
+ JMX_PORT: 9999
+ JMX_USER: admin
+ JAVA_HOME: "path/to/java/home"
+ interval: 15s
+ labels:
+ env: production
+ ```
+
## Check the source code [#source-code]
| |