Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.
Comment: Published by Scroll Versions from space ML1 and version 5.3
Sv translation
languageen
ALTER CLUSTER ADD 'ip' [, 'ip'] ...
    
ALTER CLUSTER SOFTFAIL nodeid [, nodeid] ...
ALTER CLUSTER UNSOFTFAIL nodeid [, nodeid] ...  
ALTER CLUSTER REFORM

ALTER CLUSTER DROP nodeid

ALTER CLUSTER RESIZE DEVICES size 

ALTER CLUSTER nodeid [, nodeid] ... ZONE zone 

ALTER CLUSTER SET MAX_FAILURES = number of simultaneous failures 
            
ALTER CLUSTER RELOAD SSL

Use ALTER CLUSTER to:

One change may be made at a time. Users must have the SUPER privilege to use ALTER CLUSTER.

Anchor
Flex_Up
Flex_Up
ALTER CLUSTER ADD (Flex Up)

ALTER CLUSTER ADD 'ip' [, 'ip'] ... 

Use ALTER CLUSTER ADD to add new node(s) to your cluster. For full instructions, see Expanding Your Cluster's Capacity - Flex Up.

Anchor
Flex_Down
Flex_Down
ALTER CLUSTER SOFTFAIL (Flex Down)

ALTER CLUSTER SOFTFAIL nodeid [, nodeid] ... 
ALTER CLUSTER UNSOFTFAIL nodeid [, nodeid] ...  
ALTER CLUSTER REFORM

ALTER CLUSTER SOFTFAIL directs the Rebalancer to move all data from the designated node(s) to active nodes in the cluster ensuring that replicas are preserved.

ALTER CLUSTER UNSOFTFAIL cancels a previous SOFTFAIL request. The node(s) are again made available for use and the Rebalancer will work to relocate data to the node(s). 

ALTER CLUSTER REFORM removes softfailed nodes from the cluster and performs a group change. For full instructions see Reducing Your Cluster's Capacity - Flex Down.

Softfailing a Zone

To softfail a zone, mark all the nodes in the zone as softfailed.  

Anchor
Drop_Node
Drop_Node
ALTER CLUSTER DROP

ALTER CLUSTER DROP nodeid  

Use ALTER CLUSTER DROP to immediately remove a node from the cluster without ensuring all data has sufficient replicas. This should only be used in emergency situations. Additional information can be found in Administering Failure and Recovery.

Warning

ALTER CLUSTER DROP should be used with caution as this operation cannot be undone. Dropping more than one node before reprotect is finished can result in permanent data loss. When possible, use the Flex Down procedure instead of ALTER CLUSTER DROP.

Anchor
Resize_Devices
Resize_Devices
ALTER CLUSTER RESIZE DEVICES  

ALTER CLUSTER RESIZE DEVICES size 

Use ALTER CLUSTER RESIZE DEVICES to expand the device1 file on all online nodes. size is the total calculated bytes or a rounded whole integer suffixed by k/m/g for kilobytes, megabytes, or gigabytes. 

sql> ALTER CLUSTER RESIZE DEVICES 50g;

All device1 files should be the same size cluster-wide and are all modified by the resize command in parallel. This command does not affect the device1-temp file that is used for sorting and grouping large query results. See Managing File Space and Database Capacity for more information.

ALTER CLUSTER RESIZE DEVICES does not support reducing the size of the device1 file. See Decreasing device1 Size for how to perform this operation. 

See Managing File Space and Database Capacity for additional information. 

Tip

Xpand recommends resizing devices during off-peak hours.

Anchor
Zone
Zone
ALTER CLUSTER ZONE  

Xpand allows nodes to be grouped into zones to improve fault tolerance, where a zone can be availability zones within the same AWS Region, different server racks, or separate servers in different data centers. Once you have determined your target zone configuration, use  ALTER CLUSTER ZONE to assign nodes of your cluster to a zone.

ALTER CLUSTER nodeid [, nodeid] ... ZONE zone 

Assigning a node to a zone allows Xpand to have more options for fault tolerance. By ensuring that replicas are placed across zones, no data is lost if a zone becomes unavailable.

After all nodes are assigned to a zone, verify that there is an equal number of nodes in each zone and that no nodes are assigned to zone 0. Xpand supports configuring a minimum of 3 and a maximum of 5 zones. 

sql> SELECT * FROM system.nodeinfo ORDER BY zone;

Changes to zone configurations do not take effect until a group change or ALTER CLUSTER REFORM . This will cause a group change and an interruption in service. See Zones for more information.

sql> ALTER CLUSTER REFORM;

If you no longer wish to use zones, simply assign all nodes to zone 0 using ALTER CLUSTER ... ZONE followed by ALTER CLUSTER REFORM;

Xpand recommends allocating enough disk space so that should a zone fail, there is sufficient space to reprotect. See Allocating Disk Space for Fault Tolerance and Availability.

Anchor
max_failures
max_failures
ALTER CLUSTER SET MAX_FAILURES

The max_failures global variable determines the number of failures that can occur simultaneously while ensuring that no data is lost. By default, this is the number of node failures that can be tolerated. If zones are in use, this is the number of node or zone failures tolerated. For example, if MAX_FAILURES = 1 (default), the cluster can lose one node or one zone, regardless of the number of nodes in that zone. The value of max_failures is also used to determine the number of replicas created by default for a table or index. If MAX_FAILURES = 1, new database entities are created with REPLICAS = 2. See MAX_FAILURES for additional information. 

max_failures is a read-only global variable that can only be set using ALTER CLUSTER.

NameDescription

Default Value

max_failuresNumber of simultaneous failures that the cluster can withstand while maintaining transaction resolution and without suffering data loss. 1

Change the Value of MAX_FAILURES

Note

Increasing the value for max_failures increases the number of replicas created, which can have a significant performance impact to writes and requires additional disk space. Due to the high performance overhead, Xpand does not recommend exceeding MAX_FAILURES = 2

To change the value of the global max_failures, perform the steps outlined below. In this sample, the number of allowable failures is modified from the default of 1 to 2. This will cause all new tables and indexes to be created with REPLICAS = 3.

Step 1: Ensure there is sufficient disk space 

Ensure that the cluster has sufficient disk space for additional replicas. See Allocating Disk Space for Fault Tolerance and Availability for more details on how to determine disk space required.

Step 2: Set the Cluster-Wide Failure Threshold

sql>  ALTER CLUSTER SET MAX_FAILURES = 2;
Note

Running this command will result in a group change and an interruption in service.

Step 3: Alter Existing Tables

Tables created after the value for max_failures has been updated will automatically have sufficient replicas. However, tables created before max_failures was updated may not have sufficient replicas and need to be altered. This query generates ALTER statements for all representations that are under-protected. 

sql> SELECT concat ('ALTER TABLE ',`database`, '.', `Table`, ' REPLICAS = MAX_FAILURES + 1;')      
     FROM system.table_replicas
     where database not in ('system', 'clustrix_dbi', 'clustrix_statd', '_replication')
     GROUP BY `table`, `database`
          having (count(1) / count(distinct slice)) < MAX_FAILURES + 1;

The resulting SQL will look like: 

sql> ALTER TABLE foo REPLICAS = 3;

Run the generated script and monitor the Rebalancer as it creates additional replicas. See Managing the Rebalancer

Log Messages

When the value for max_failures is modified, you will see an entry in clustrix.log that notes the number of failures that are configured:

INFO tm/gtm_resolve.c:168 gtm_r_validate_paxos_f(): group 1cfffe supports 2 simultaneous failures

Anchor
SSL
SSL
ALTER CLUSTER RELOAD SSL

Include Page
The content can't be resolved. The space XP is not available in your include library.
The content can't be resolved. The space XP is not available in your include library.

Sv translation
languageko
ALTER CLUSTER ADD 'ip' [, 'ip'] ... [COORDINATE]
    
ALTER CLUSTER SOFTFAIL nodeid [, nodeid] ...
ALTER CLUSTER UNSOFTFAIL nodeid [, nodeid] ...  
ALTER CLUSTER REFORM

ALTER CLUSTER DROP nodeid

ALTER CLUSTER RESIZE DEVICES size 

ALTER CLUSTER SET MAX_FAILURES = number of simultaneous node failures 

ALTER CLUSTER는 ClustrixDB 클러스터의 독립적인 특성을 변경합니다. 변경 사항은 query.log에 자동으로 기록됩니다. 다음의 경우에 ALTER CLUSTER를 사용하십시오.

한 번에 하나의 명령만 실행할 수 있습니다. ALTER CLUSTER를 사용하려면 사용자에게 루트(root) 계정이 필요합니다.

Anchor
Flex_Up
Flex_Up
ALTER CLUSTER ADD (Flex Up)

ALTER CLUSTER ADD 'ip' [, 'ip'] ... [COORDINATE]

ALTER CLUSTER ADD를 사용하여 새 노드를 클러스터에 추가합니다. 일명, Flex Up이라고 합니다. 한 번에 여러 노드를 추가하는 경우 COORDINATE(기본값)는 모든 노드가 준비 완료된 이후에 클러스터가 자동으로 새로운 그룹을 형성하도록 합니다. 자세한 내용은 Expanding Your Cluster's Capacity - Flex Up을 참조하십시오.

Anchor
Flex_Down
Flex_Down
ALTER CLUSTER SOFTFAIL (Flex Down)

ALTER CLUSTER SOFTFAIL nodeid [, nodeid] ... 
ALTER CLUSTER UNSOFTFAIL nodeid [, nodeid] ...  
ALTER CLUSTER REFORM

ALTER CLUSTER SOFTFAIL을 사용하면 Rebalancer가 지정된 노드로부터 모든 데이터를 이동시키게 합니다. 모든 데이터가 재배치 된 후에는 클러스터를 REFORM 해야 합니다.

ALTER CLUSTER UNSOFTFAIL은 이전 SOFTFAIL 명령이 완료되기 전인 경우 그 명령을 중단시킵니다. 해당 노드는 다시 사용해야 합니다. Rebalancer는 해당 노드에 데이터를 재배치합니다.

ALTER CLUSTER REFORM은 클러스터가 강제로 그룹 변경(Group Change)되도록 합니다. 이것이 Flex Down 프로세스의 마지막 단계입니다. 자세한 내용은 Reducing Your Cluster's Capacity - Flex Down을 참조하십시오.

Anchor
Drop_Node
Drop_Node
ALTER CLUSTER DROP

ALTER CLUSTER DROP nodeid  

ALTER CLUSTER DROP을 사용하면 즉시 클러스터에서 노드를 제거할 수 있습니다. 이것은 하드웨어 장애 등의 긴급 상황 시에만 사용해야 합니다. Administering Failure and Recovery에서 추가 정보를 참조하십시오.

Warning

이 작업은 취소할 수 없으므로 ALTER CLUSTER DROP을 주의해서 사용해야 합니다.

재보호(reprotect)가 완료되기 전에 한 개 이상의 노드를 제거하면 영구적인 데이터 손실을 초래할 수 있습니다.

가능하면 이 명령을 사용하여 정상적으로 동작하는 노드를 삭제하는 일은 피하십시오. 그 대신 Flex Down을 사용하는 것이 좋습니다.

Anchor
Resize_Devices
Resize_Devices
ALTER CLUSTER RESIZE DEVICES

ALTER CLUSTER RESIZE DEVICES size 

ALTER CLUSTER RESIZE DEVICES를 사용하여 모든 온라인 노드에서 device1 파일을 실시간으로 확장합니다. device1 파일의 크기는 클러스터의 모든 노드에서 동일해야 합니다. (이 명령은 대량의 쿼리 결과를 정렬하고 그룹핑 하는 데 사용되는 device1-temp 파일에는 영향을 주지 않습니다.)

일부 특수한 상황에서 전체 클러스터의 device1 파일의 크기를 줄일 필요가 있습니다. Decreasing device1 Size를 참조하십시오.

size는 바이트(byte)로 계산된 총합 또는 킬로바이트(KB), 메가바이트(MB), 기가바이트(GB)의 k/m/g 단위가 붙은 반올림된 정수입니다. 예를 들면:

sql> ALTER CLUSTER RESIZE DEVICES 50g;

자세한 내용은 Managing File Space and Database Capacity를 참조하십시오.

Tip

사용량이 낮은 시간대에 device 크기 변경을 수행하실 것을 권장합니다.

Anchor
max_failures
max_failures
ALTER CLUSTER SET MAX_FAILURES

MAX_FAILURES동시에 여러 개의 노드가 영구히 사용할 수 없게 되더라도 데이터가 손실되지 않도록 보장할 수 있는 최대 장애 가능 노드 수(주 참조)를 나타냅니다. 어떤 클러스터에 N 개의 노드가 있는 경우 MAX_FAILURES는 N/2+1보다 작아야 합니다. MAX_FAILURESnResiliency라고도 부릅니다.

기본적으로 모든 데이터베이스 테이블과 인덱스는 REPLICAS = 2로 정의되며, 각 데이터 슬라이스는 2개의 복사본(데이터 슬라이스 원본 및 복제본)을 갖고 MAX_FAILURES = 1이 되도록 보장합니다.

Note

노드 장애 중간에 데이터를 리프로텍트(reprotect) 할 시간이 있고 데이터를 저장할 수 있는 디스크 공간이 있으면 해당 클러스터는 MAX_FAILURES에서 지정된 수보다 많은 노드 장애를 허용할 수 있습니다.

MAX_FAILURES 값은 읽기 전용(read-only) 글로벌 변수로 표시됩니다.

이름설명

기본값

max_failures트랜잭션을 처리하면서 동시 장애를 허용할 수 있는 노드 개수1

MAX_FAILURES 값 변경

MAX_FAILURES 값을 k로 변경하려면 다음 단계를 수행합니다 (이 예제에는 k=2를 사용합니다).

1 단계: 개별 테이블 변경

REPLICAS= k+1이 되도록 테이블을 변경
sql> ALTER TABLE foo LAZY PROTECT REPLICAS = 3; 

LAZY PROTECT 옵션은 Rebalancer에게 추가 복제본 생성 작업을 큐(queue)에 넣도록 지정합니다.

Tip
titleUse this query to generate a list of ALTER statements
sql> SELECT concat ('ALTER TABLE ',`database`, '.', `Table`, ' LAZY PROTECT REPLICAS = 3;')      
     FROM system.table_replicas
     where database not in ('system', 'clustrix_dbi', 'clustrix_statd', '_replication')
     GROUP BY `table`, `database`
     having (count(1) / count(distinct slice)) < MAX_FAILURES + 1;

Rebalancer가 추가 복제본 생성을 완료할 때까지 기다립니다. 자세한 내용은 Managing the Rebalancer를 참조하십시오.

Rebalancer가 추가 복제본을 만든 후 모든 테이블에 적어도 k+1개의 복제본이 있는지 확인합니다.
sql> SELECT `database`, `Table`, (count(1) / count(distinct slice)) num_replicas   
FROM system.table_replicas
where database != 'system'
GROUP BY `table`, `database`;
Note
이 쿼리는 내부 ClustrixDB 프로세스에 의해 복제본이 관리되는 SYSTEM 데이터베이스는 의도적으로 제외합니다.


2 단계: 새 테이블의 복제본 개수를 지정하는 글로벌 변수를 설정합니다.

기본적으로 새로운 테이블에 충분한 복제본(k + 1)이 존재하도록 글로벌 변수를 설정합니다.
sql> SET GLOBAL DEFAULT_REPLICAS = 3;

3 단계: 클러스터 전체 장애 임계값(MAX_FAILURE)을 설정합니다.

MAX_FAILURES를 원하는 값으로 업데이트하십시오
sql>  ALTER CLUSTER SET MAX_FAILURES = 2;
Note

이 명령을 실행하면 자동으로 그룹 변경(Group Change)이 일어납니다.

로그 메시지

MAX_FAILURES 값이 변경되면 구성된 동시 장애 허용 노드 수를 나타내는 항목이 clustrix.log에 표시됩니다.

INFO tm/gtm_resolve.c:168 gtm_r_validate_paxos_f(): group 1cfffe supports 2 simultaneous failures

MAX_FAILURES 값이 (N/2-1)을 초과하면 로그에 지원되는 노드 수가 표시됩니다. 이 예제에는 5개 노드의 클러스터가 MAX_FAILURES = 2로 업데이트되었습니다.

INFO tm/gtm_resolve.c:168 gtm_r_validate_paxos_f(): group 2bfffe supports 2 simultaneous failures (2 configured)