Million Dreams
100만개의 꿈을 꾸는 개발자 지망생
분류 전체보기 (43)
정보처리기사 3과목 데이터베이스 구축 2장 물리 데이터베이스 설계 요점 정리

2장 물리 데이터베이스 설계

 

Section 88 인덱스 설계

 

1. 인덱스(Index) 개념

- 데이터 레코드를 빠르게 접근하기 위해 <키 값, 포인터> 쌍으로 구성되는 데이터 구조이다.

- 인덱스는 데이터가 저장된 물리적 구조와 밀접한 관계가 있다.

- 인덱스는 레코드가 저장된 물리적 구조에 접근하는 방법을 제공한다.

- 인덱스를 통해서 파일의 레코드에 대한 액세스를 빠르게 수행할 수 있다.

- 레코드의 삽입과 삭제가 수시로 일어나는 경우에는 인덱스의 개수를 최소화 하는 것이 효율적이다.

- 인덱스가 없으면 특정한 값을 찾기 위해 모든 데이터 페이지를 확인하는 TABLE SCAN이 발생한다.

- 기본키를 위한 인덱스를 기본 인덱스라 하고, 기본 인덱스가 아닌 인덱스들을 보조 인덱스라 한다. 대부분의 관계형 데이터베이스 관리 시스템에서는 모든 기본키에 대해서 자동적으로 기본 인덱스를 생성한다.

- 레코드의 물리적 순서가 인덱스의 엔트리 순서와 일치하게 유지되도록 구성되는 인덱스를 클러스터드(Clustered) 인덱스라고 한다.

- 인덱스는 인덱스를 구성하는 구조나 특징에 따라 트리 기반 인덱스, 비트맵 인덱스, 함수 기반 인덱스, 비트맵 조인 인덱스, 도메인 인덱스 등으로 분류된다.

 

※ 클러스터드 인덱스 / 넌클러스터드 인덱스

클러스터드 인덱스

- 인덱스 키의 순서에 따라 데이터가 정렬되어 저장되는 방식이다.

- 실제 데이터가 순서대로 저장되어 있어 인덱스를 검색하지 않아도 원하는 데이터를 빠르게 찾을 수 있다.

- 데이터 삽입, 삭제 발생 시 순서를 유지하기 위해 데이터를 재정렬해야 한다.

- 한 개의 릴레이션에 하나의 인덱스만 생성할 수 있다.

 

넌클러스터드 인덱스

- 인덱스의 키 값만 정렬되어 있을 뿐 실제 데이터는 정렬되지 않는 방식이다.

- 데이터를 검색하기 위해서는 먼저 인덱스를 검색하여 실제 데이터 위치를 확인해야 하므로 클러스터드 인덱스에 비해 검색 속도가 떨어진다.

- 한 개의 릴레이션에 여러 개의 인덱스를 만들 수 있다.

 

2. 트리 기반 인덱스

- 인덱스를 저장하는 블록들이 트리 구조를 이루고 있는 것으로, 상용 DBMS에서는 트리 구조 기반의 B+ 트리 인덱스를 주로 활용한다.

 

B 트리 인덱스

- 일반적으로 사용되는 인덱스 방식으로, 루트 노드에서 하위 노드로 키 값의 크기를 비교해 나가면서 단말 노드에서 찾고자 하는 데이터를 검색한다.

- 키 값과 레코드를 가리키는 포인터들이 트리 노드에 오름차순으로 저장된다.

- 모든 리프 노드는 같은 레벨에 있다.

 

B+ 트리 인덱스

- B+ 트리는 B트리의 변형으로 단말 노드가 아닌 노드로 구성된 인덱스 세트와 단말 노드로만 구성된 순차 세트로 구분된다.

- 인덱스 세트에 있는 노드들은 단말 노드에 있는 키 값을 찾아갈 수 있는 경로로만 제공되며, 순차 세트에 있는 단말 노드가 해당 데이터 레코드의 주소를 가리킨다.

- 인덱스 세트에 있는 모든 키 값이 단말 노드에 다시 나타나므로 단말 노드만을 이용한 순차 처리가 가능하다.

 

3. 비트맵 인덱스

- 인덱스 컬럼의 데이터를 Bit 값인 0 또는 1로 변환하여 인덱스 키로 사용하는 방법이다.

- 비트맵 인덱스의 목적은 키 값을 포함하는 로우(Row)의 주소를 제공하는 것이다.

- 비트맵 인덱스는 분포도가 좋은 컬럼에 적합하며, 성능 향상 효과를 어등ㄹ 수 있다.

- 데이터가 Bit로 구성되어 있기 때문에 효율적인 논리 연산이 가능하고 저장 공간이 작다.

- 비트맵 인덱스는 다중 조건을 만족하는 튜플의 개수 계산에 적합하다.

- 비트맵 인덱스는 동일한 값이 반복되는 경우가 많아 압축 효율이 좋다.

4. 함수 기반 인덱스

- 컬럼의 값 대신 컬럼에 특정 함수나 수식을 적용하여 산출된 값을 사용하는 것으로, B+ 트리 인덱스 또는 비트맵 인덱스를 생성하여 사용한다.

- 함수 기반 인덱스는 데이터를 입력하거나 수정할 때 함수를 적용해야 하므로 부하가 발생할 수 있다.

- 사용된 함수가 사용자 정의 함수일 경우 시스템 함수보다 부하가 더 크다.

- 함수 기반 인덱스는 대소문자, 띄어쓰기 등에 상관없이 조회할 때 유용하게 사용된다.

- 적용 가능한 함수의 종류 : 산술식(Arithmetic Expression), 사용자 저으이 함수, PL/SQL Fucntion, SQL Function, Package, C Callot 

 

5. 비트맵 조인 인덱스

- 비트맵 조인 인덱스는 다수의 조인된 객체로 구성된 인덱스로, 단일 객체로 구성된 일반적인 인덱스와 액세스 방법이 다르다.

- 비트맵 조인 인덱스는 비트맵 인덱스와 물리적 구조가 동일하다.

 

6. 도메인 인덱스

- 개발자가 필요한 인덱스를 직접 만들어 사용하는 것으로, 확장형 인덱스라고도 한다.

- 개발자가 필요에 의해 만들었지만 프로그램에서 제공하는 인덱스처럼 사용할 수도 있다.

 

7. 인덱스 설계

- 인덱스를 설계할 때는 분명하게 드러난 컬럼에 대해 기본적인 인덱스를 먼저 저장한 후 개발 단계에서 필요한 인덱스의 설계를 반복적으로 진행한다.

인덱스 설계 순서

① 인덱스의 대상 테이블이나 컬럼 등을 선정한다.

② 인덱스의 효율성을 검토하여 인덱스 최적화를 수행한다.

③ 인덱스 정의서를 작성한다.

 

8. 인덱스 대상 테이블 선정 기준

- MULTI BLOCK READ 수에 따라 판단 (테이블 액세스시 메모리에 한 번에 읽어 들일 수 있는 블록의 수)

- 랜덤 액세스가 빈번한 테이블

- 특정 범위나 특정 순서로 데이터 조회가 필요한 테이블

- 다른 테이블과 순차적 조인이 발생되는 테이블

 

9. 인덱스 대상 컬럼 선정 기준

- 인덱스 컬럼의 분포도가 10~15% 이내인 컬럼

(분포도 = (컬럼값의 평균 Row / 테이블의 총 Row )) X 100

- 분포도가 10~15% 이상이어도 부분 처리를 목적으로 하는 컬럼

- 입∙출력 장표 등에서 조회 및 출력 조건으로 사용되는 컬럼

- 인덱스가 자동 생성되는 기본키와 Unique 키 제약 조거을 사용한 컬럼

- 가능한 한 수정이 빈번하지 않은 클럽

- ORDER BY, GROUP BY, UNION이 빈번한 컬럼

- 분포도가 좁은 컬럼은 단독 인덱스로 생성

- 인덱스들이 자주 조합되어 사용되는 경우 하나의 결합 인덱스로 생성

 

10. 인덱스 설계 시 고려사항

- 새로 추가되는 인덱스는 기존 액세스 경로에 영향을 미칠 수 있다.

- 인덱스를 지나치게 많이 만들면 오버헤드가 발생한다.

- 넓은 범위를 인덱스로 처리하면 많은 오버헤드가 발생한다.

- 인덱스를 만들면 추가적인 저장 공간이 필요하다.

- 인덱스와 테이블 데이터의 저장 공간이 분리되도록 설계한다.

 

Section 89 (View) 설계

1. (View)의 개요

- 사용자에게 접근이 허용된 자료만을 제한적으로 보여주기 위해 하나 이상의 기본 테이블로부터 유도된, 이름을 가지는 가상 테이블이다.

- 뷰는 저장장치 내에 물리적으로 존재하지 않지만, 사용자에게는 있는 것처럼 간주된다.

- 뷰는 데이터 보정 작업, 처리 과정 시험 등 임시적인 작업을 위한 용도로 활용된다.

- 뷰는 조인문의 사용 최소화로 사용상의 편의성을 최대화한다.

- 뷰를 생서하면 뷰 정의가 시스템 내에 저장되었다가 생성된 뷰 이름을 질의어에서 사용할 경우 질의어가 실행될 때 뷰에 정의된 기본 테이블로 대체되어 기본 테이블에 대해 실행된다.

 

2. 뷰의 특징

- 뷰는 기본 테이블로부터 유도된 테이블이기 때문에 기본 테이블과 같은 형태의 구조를 사용하며, 조작도 기본 테이블과 거의 같다.

- 뷰는 가상 테이블이기 때문에 물리적으로 구현되어 있지 않다.

- 데이터의 논리적 독립성을 제공할 수 있다.

- 필요한 데이터만 뷰로 정의해서 처리할 수 있기 때문에 관리가 용이하고 명령문이 간단해진다.

- 뷰를 통해서만 데이터에 접근하게 되면 뷰에 나타나지 않은 데이터를 안전하게 보호하는 효율적인 기법으로 사용할 수 있다.

- 기본 테이블의 기본키를 포함한 속성 집합으로 뷰를 구성해야만 삽입, 삭제, 갱신 연산이 가능하다.

- 일단 정의된 뷰는 다른 뷰의 정의에 기초가 될 수 있다.

- 뷰가 정의된 기본 테이블이나 뷰를 삭제하면 그 테이블이나 뷰를 기초로 정의된 다른 뷰도 자동으로 삭제된다.

 

3. 뷰의 장•단점

장점

- 논리적 데이터 독립성을 제공한다.

- 동일 데이터에 대해 동시에 여러 사용자의 상이한 응용이나 요구를 지원해 준다.

- 사용자의 데이터 관리를 간단하게 해준다.

- 접근 제어를 통한 자동 보안이 제공된다.

 

단점

- 독립적인 인덱스를 가질 수 없다.

- 뷰의 정의를 변경할 수 없다.

- 뷰로 구성된 내용에 대한 삽입, 삭제, 갱신 연산에 제약이 따른다.

 

4. 뷰 설계 순서

① 대상 테이블을 선정한다.

- 외부 시스템과 인터페이스에 관여하는 테이블

- CRUD 매트릭스를 통해 여러 테이블이 동시에 자주 조인되어 접근되는 테이블

- SQL문 작성 시 거의 모든 문장에서 인라인 뷰 방식으로 접근되는 테이블

② 대상 컬럼을 선정한다.

- 보안을 유지해야 하는 컬럼은 주의하여 선별한다.

③ 정의서를 작성한다.

5. 뷰 설계 시 고려 사항

- 테이블 구조가 단순화 될 수 있도록 반복적으로 조인을 설정하여 사용하거나 동일한 조건절을 사용하는 테이블을 뷰로 생성한다.

- 동일한 테이블이라도 업무에 따라 테이블을 이용하는 부분이 달라질 수 있으므로 사용할 데이터를 다양한 관점에서 제시해야 한다.

- 데이터의 보안 유지를 고려하여 설계한다.

 

Section90 클러스터 설계

1. 클러스터(Cluster)의 개요

- 클러스터는 데이터 저장 시 데이터 액세스 효율을 향상시키기 위해 동일한 성격의 데이터를 동일한 데이터 블록에 저장하는 물리적 저장 방법이다.

- 클러스터링키로 지정ㄷ왼 컬럼 값의 순서대로 저장되고, 여러 개의 테이블이 하나의 클러스터에 저장된다.

 

2. 클러스터의 특징

- 클러스터링 된 테이블은 데이터 조회 속도는 향상시키지만 데이터 입력, 수정, 삭제에 대한 성능은 저하시킨다.

- 클러스터는 데이터의 분포도가 넓을수록 유리하다.

- 데이터 분포도가 넓은 테이블을 클러스터링 하면 저장 공간을 절약할 수 있다.

- 클러스터링된 테이블은 클러스터링키 열을 공유하므로 저장 공간이 줄어든다.

- 대용량을 처리하는 트랜잭션은 전체 테이블을 스캔하는 일이 자주 발생하므로 클러스터링을 하지 않는 것이 좋다.

- 처리 범위가 넓은 경우에는 단일 테이블 클러스터링을, 조인이 많이 발생하는 경우에는 다중 테이블 클러스터링을 사용한다.

- 파티셔닝된 테이블에는 클러스터링을 할 수 없다.

- 클러스터링을 하면 비슷한 데이터가 동일한 데이터 블록에 저장되기 때문에 디스크 I/O가 줄어든다.

- 클러스터링된 테이블에 클러스터드 인덱스를 생성하면 접근 성능이 향상된다.

 

3. 클러스터 대상 테이블

- 분포도가 넓은 테이블

- 대량의 범위를 자주 조회하는 테이블

- 입력, 수정, 삭제가 자주 발생하지 않는 테이블

- 자주 조인되어 사용되는 테이블

- ORDER BY, GROUP BY, UNION이 빈번한 테이블

 

Section 91 파티션 설계

1. 파티션의 개요

- 데이터베이스에서 파티션은 대용량의 테이블이나 인덱스를 작은 논리적 단위인 파티션으로 나누는 것을 말한다.

- 대용량 DB의 경우 중요한 몇 개의 테이블에만 집중되어 데이터가 증가되므로, 이런 테이블들을 작은 단위로 나눠 분산시키면 성능 저하를 방지할 뿐만 아니라 데이터 관리도 쉬워진다.

- 테이블이나 인덱스를 파티셔닝 하면 파티션키 또는 인덱스키에 따라 물리적으로 별도의 공간에 데이터가 저장된다.

- 데이터 처리는 테이블 단위로 이뤄지고, 데이터 저장은 파티션별로 수행된다.

 

2. 파티션의 장•단점

장점

- 데이터의 접근 시 액세스 범위를 줄여 쿼리 성능이 향상된다.

- 파티션별로 데이터가 분산되어 저장되므로 디스크의 성능이 향상된다.

- 파티션별로 백업 및 복구를 수행하므로 속도가 빠르다.

- 시스템 장애 시 데이터 손상 정도를 최소화할 수 있다.

- 데이터 가용성이 향상된다.

- 파티션 단위로 입•출력을 분산시킬 수 있다.

 

단점

- 하나의 테이블을 세분화하여 관리하므로 세심한 관리가 요구된다.

- 테이블간 조인에 대한 비용이 증가한다.

- 용량이 작은 테이블에 파티셔닝을 수행하면 오히려 성능이 저하된다.

 

3. 파티션의 종류

- 파티션의 종류는 파티셔닝 방식에 따라 범위 분할, 해시 분할, 조합 분할 등으로 나뉜다.

범위 분할

- 지정한 열의 값을 기준을 ㅗ분할한다.

해시 분할

- 해시 함수를 적용한 결과 값에 따라 데이터를 분할한다.

- 특정 파티션에 데이터가 집중되는 범위 분할의 단점을 보완한 것으로, 데이터를 고르체 분산할 때 유용하다.

- 특정 데이터가 어디에 있는지 판단할 수 없다.

- 고객번호, 주민번호 등과 같이 데이터가 고른 컬럼에 효과적이다.

 

조합 분할

- 범위 분할로 분할한 다음 해시 함수를 적용하여 다시 분할하는 방식이다.

- 범위 분할한 파티션이 너무 커서 관리가 어려울 때 유용하다.

 

4. 파티션키 선정 시 고려 사항

- 파티션키는 테이블 접근 유형에 따라 파티셔닝이 이뤄지도록 선정한다.

- 데이터 관리의 용이성을 위해 이력성 데이터는 파티션 생성주기와 소멸주기를 일치시켜야 한다.

- 매일 생성되는 날짜 컬럼, 백업의 기준이 되는 날짜 컬럼, 파티션 간 이동이 없는 컬럼, I/O 병목을 줄일 수 있는 데이터 분포가 양호한 컬럼 등을 파티션키로 선정한다.

 

5. 인덱스 파티션

- 인덱스 파티션은 파티션된 테이블의 데이터를 관리하기 위해 인덱스를 나눈 것이다.

- 인덱스 파티션은 파티션된 테이블의 종속 여부에 따라 Local Partitioned Index Global Partitioned Index로 나뉜다.

Local Partitioned Index : 테이블 파티션과 인덱스 파티션이 1:1 대응되도록 파티셔닝한다.

 

Global Partitioned Index : 테이블 파티션과 인덱스 파티션이 독립적으로 구성되도록 파티셔닝한다.

- Local Partitioned Index Global Partitioned Index에 비해 데이터 관리가 쉽다.

 

- 인덱스 파티션은 인덱스 파티션키 컬럼의 위치에 따라 Prefixed Partitioned Index Non-prefixed Partitioned Index로 나뉜다.

Prefixed Partitioned Index :  인덱스 파티션키와 인덱스 첫 번째 칼럼이 같다.

Non-prefixed Partitioned Index :  인덱스 파티션키와 인덱스 첫 번째 칼럼이 다르다.

 

 

Section 93 분산 데이터베이스 설계

1. 분산 데이터베이스 정의

- 논리적으로는 하나의 시스템에 속하지만 물리적으로는 네트워크를 통해 연결된 여러 개 컴퓨터 사이트에 분산되어 있는 데이터베이스를 말한다.

- 분산 데이터베이스는 데이터의 처리나 이용이 많은 지역에 데이터베이스를 위치시킴으로써 데이터의 처리가 가능한 해당 지역에서 해결될 수 있도록 한다.

 

2. 분산 데이터베이스의 구성 요소

분산 처리기 : 자체적으로 처리 능력을 가지며, 지리적으로 분산되어 있는 컴퓨터 시스템을 말한다.

분산 데이터베이스 : 지리적으로 분산되어 있는 데이터베이스로서 해당 지역의 특성에 맞게 데이터베이스가 구성된다.

통신 네트워크 : 분산 처리기들을 통신망으로 연결하여 논리적으로 하나의 시스템처럼 작동할 수 있도록 하는 통신 네트워크를 말한다.

 

3. 분산 데이터베이스 설계 시 고려 사항

- 작업부하의 노드별 분산 정책

- 지역의 자치성 보장 정책

- 데이터의 일관성 정책

- 사이트나 회선의 고장으로부터의 회복 기능

- 통신 네트워크를 통한 원격 접근 기능

 

4. 분산 데이터베이스의 목표

- 위치 투명성(Location Transparency) : 액세스하려는 데이터베이스의 실제 위치를 알 필요 없이 단지 데이터베이스의 논리적인 명칭만으로 액세스할 수 있다.

- 중복 투명성(Replication Transparency) : 동일 데이터가 여러 곳에 중복되어 있어라도 사용자는 마치 하나의 데이터만 존재하는 것처럼 사용하고, 시스템은 자동으로 여러 자료에 대한 작업을 수행한다.

- 병행 투명성(Concurrency Transparency) : 분산 데이터베이스와 관련된 다수의 트랜잭션들이 동시에 실현되더라도 그 트랜잭션의 결과는 영향을 받지 않는다.

- 장애 투명성(Failure Transparency) : 트랜잭션, DBMS, 네트워크, 컴퓨터 장애에도 불구하고 트랜잭션을 정확하게 처리한다.

 

5. 분산 데이터베이스의 장•단점

장점

- 지역 자치성이 높다.

- 자료의 공유성이 향상된다.

- 분산 제어가 가능하다.

- 시스템 성능이 향상된다.

- 중앙 컴퓨터의 장애가 전체 시스템에 영향을 끼치지 않는다.

- 효율성와 융통성이 높다.

- 신뢰성 및 가용성이 높다.

- 점진적 시스템 용량 확장이 용이하다.

 

단점

- DBMS가 수행할 기능이 복잡하다.

- 데이터베이스 설계가 어렵다.

- 소프트웨어 개발 비용이 증가한다.

- 처리 비용이 증가한다.

- 잠재적 오류가 증가한다.

 

6. 분산 데이터베이스 설계

- 분산 데이터베이스 설계는 애플리케이션이나 사용자가 분산되어 저장된 데이터에 접근하게 하는 것을 목적으로 한다.

- 잘못 설계된 분산 데이터베이스는 복잡성 증가, 응답 속도 저하, 비용 증가 등의 문제가 발생한다.

- 분산 데이터베이스의 설게는 전역 관계망을 논리적 측면에서 소규모 단위로 분할한 후, 분할된 결과를 복수의 노드에 할당하는 과정으로 진행된다. 노드에 할당된 소규모 단위를 분할(Fragment)이라 부른다.

- 분산 설계 방법에는 테이블 위치 분산, 분할(Fragmentation), 할당(Allocation)이 있다.

 

7. 테이블 위치 분산

- 데이터베이스의 테이블을 각기 다른 서버에 분산시켜 배치하는 방법을 의미한다.

- 테이블 위치를 분산할 때는 테이블의 구조를 변경하지 않으며, 다른 데이터베이스의 테이블과 중복되지 않게 배치한다.

- 데이터베이스의 테이블을 각각 다른 위치에 배치하려면 해당 테이블들이 놓일 서버들을 미리 설정해야 한다.

 

8. 분할(Fragment)

- 분할은 테이블의 데이터를 분할시켜 분산시키는 것이다.

분할 규칙

- 완전성(Completeness) : 전체 데이터를 대상으로 분할해야 한다.

- 재구성(Reconstruction) : 분할된 데이터는 관계 연산을 활용하여 본래의 데이터를 재구성할 수 있어야 한다.

- 상호 중첩배제(Dis-jointness) : 분할된 데이터는 서로 다른 분할의 항목에 속하지 않아야 한다.

 

주요 분할 방법

- 수평 분할 : 특정 속성의 값을 기준으로 행(Row) 단위로 분할

- 수직 분할 : 데이터 컬럼(속성) 단위로 분할

 

9. 할당(Allocation)

- 할당은 동일한 분할을 여러 개의 서버에 생성하는 분산 방법으로, 중복이 없는 할당(Allocation)과 중복이 있는 할당(Allocation)으로 나뉜다.

비중복 할당 방식

- 최적의 노드를 선택해서 분산 데이터베이스의 단일 노드에서만 분할이 존재하도록 하는 방식이다.

- 일반적으로 애플리케이션에는 릴레이션을 배타적 분할로 분리하기 힘든 요구가 포함되므로 분할된 테이블 간의 의존성은 무시되고 비용 증가, 성능 저하 등의 문제가 발생할 수 있다.

- 중복 할당 방식 : 동일한 테이블을 다른 서버에 복제하는 방식으로, 일부만 복제하는 부분 복제와 전체를 복제하는 완전 복제가 있다.

 

Section 96 데이터베이스 보안 -접근 통제

1. 접근통제

- 데이터가 저장된 객체와 이를 사용하려는 주체 사이의 정보 흐름을 제한하는 것.

- 접근 통제는 데이터에 대해 다음과 같은 통제를 함으로써 자원의 불법적인 접근 및 파괴를 예방한다.

- 비인가 사용자의 접근 감시

- 접근 요구자의 사용자 식별

- 접근 요구의 정당성 확인 및 기록

- 보안 정책에 근거한 접근의 승인 및 거부 등

- 접근 통제 기술에는 임의 접근통제(DAC), 강제 접근통제(MAC)가 있다.

 

임의 접근통제(Discretioanry Access Control)

- 임의 접근통제는 데이터에 접근하는 사용자의 신원에 따라 접근 권한을 부여하는 방식이다.

- 통제 권한이 주체에 있어 주체가 접근통제 권한을 지정하고 제어할 수 있다.

- 일반적으로 특정 객체에 대한 조작권한은 데이터베이스 관리 시스템으로부터 부여받지만 임의 접근 통제에서는 객체를 생성한 사용자가 생성된 객체에 대한 모든 권한을 부여받고, 부여된 권한을 다시 사용자에게 허가할 수도 있다.

- 임의 접근통제에 사용되는 SQL 명령어에는 GRANT REVOKE가 있다.

 

강제 접근통제(Mandatory Access Control) :

- 강제 접근통제는 주체와 객체의 등급을 비교하여 접근 권한을 부여하는 방식이다.

- 3가자 접근통제 권한을 지정한다.

- 데이터베이스 객체별로 보안 등급을 부여할 수 있고, 사용자별로 인가 등급을 부여할 수 있다.

- 주체는 자신보다 보안 등급이 높은 객체에 대해 읽기, 수정, 등록이 모두 불가능하고, 보안 등급이 같은 객체에 대해서는 읽기, 수정, 등록이 가능하고, 보안 등급이 낮은 객체는 읽기가 가능하다.

 

- 접근 통제의 3요소는 접근통제 정책, 접근통제 매커니즘, 접근통제 보안모델이다.

 

2. 접근통제 정책

- 어떤 주체가(Who) 언제(When), 어디서(Where), 어떤 객체(what)에게, 어떤 행위(How)에 대한 허용 여부를 정의하는 것으로, 신분 기반 정책, 규칙 기반 정책, 역할 기반 정책이 있다.

 

신분 기반 정책

- 주체나 그룹의 신분에 근거하여 객체의 접근을 제한하는 방법으로, IBP GBP가 있다.

IBP(Individual-Based Policy) : 최소 권한 정책으로, 단일 주체에 하나의 객체에 대한 허가를 부여한다.

GBP(Group-Based Policy) : 복수 주체에 하나의 객체에 대한 허가를 부여한다.

 

규칙 기반 정책

- 주체가 갖는 권한에 근거하여 객체의 접근을 제한하는 방법으로, MLP CBP가 있다.

MLP(Multi-Level Policy) : 사용자 및 객체별로 지정된 기밀 분류에 따른 정책

CBP(Compartment-Based Policy) : 집단별로 지정된 기밀 허가에 따른 정ㅇ책

 

역할 기반 정책

- GBP의 변형된 정책으로, 주체의 신분이 아니라 주체가 맡은 역할에 근거하여 객체의 접근을 제한하는 방법이다.

 

3. 접근통제 매커니즘

- 정의도니 접근통제 정책을 구현하는 기술적인 방법으로, 접근통제 목록, 능력 리스트, 보안 등급, 패스워드, 암호화 등이 있다.

- 접근통제 목록(Access Control List): 객체를 기준으로 특정 객체에 대해 어떤 주체가 어떤 행위를 할 수 있는지를 기록한 목록이다.

- 능력 리스트(Capability List) : 주체를 기준으로 주체에게 허가된 자원 및 권한을 기록한 목록이다.

- 보안 등급(Security Level) : 주체나 객체 등에 부여된 보안 속성의 집합으로, 이 등급으 기반으로 접근 승인 여부가 결정된다.

- 패스워드 : 주체가 자신임을 증명할 때 사용하는 인증 방법이다.

- 암호화 : 데이터를 보낼 때 지정된 수신자 이외에는 내용을 알 수 없도록 평문을 암호문으로 변환하는 것으로, 무단 도용을 방지하기 위해 주로 사용된다.

 

4. 접근통제 보안 모델

- 보안 정책을 구현하기 위한 정형화 모델로, 기밀성 모델, 무결성 모델, 접근통제 모델이 있다.

기밀성 모델

- 군사적인 목적으로 개발된 최초의 수학적 모델로, 기밀성 보장이 최우선인 모델이다.

- 군대 시스템 등 특수한 환경에서 주로 사용된다.

제약 조건

- 단순 보안 규칙: 주체는 자신보다 높은 등급의 객체를 읽을 수 없다.

- -보안 규칙 : 주체는 자신보다 낮은 등급의 객체에 정보를 쓸 수 없다.

- 강한 ★ 보안 규칙 : 주체는 자신과 등급이 다른 객체를 읽거나 쓸 수 없다.

 

무결성 모델

- 기밀성 모델에서 발생하는 불법적인 정보 변경을 방지하기 위해 무결성을 기반으로 개발된 모델이다.

- 데이터 일관성 유지에 중점을 두어 개발되었다.

- 기밀성 모델과 동일하게 주체 및 객체의 보안 등급을 기반으로 한다.

제약 조건

- 단순 무결성 규칙 : 주체는 자신보다 낮은 등급의 객체를 읽을 수 없다.

- -무결성 규칙 : 주체는 자신보다 높은 등급의 객체에 정보를 쓸 수 없다.

 

접근통제 모델

- 접근통제 매커니즘을 보안 모델로 발전시킨 것으로, 대표적으로 접근통제 행렬(Access Control Matrix)이 있다.

접근통제 행렬

- 임의적인 접근통제를 관리하기 위한 보안 모델로, 행은 주체, 열은 객체 즉, 행과 열로 주체와 객체의 권한 유형을 나타낸다.

 : 주체로서 객체에 접근을 시도하는 사용자이다.

 : 객체로서 접근통제가 이뤄지는 테이블, 컬럼, 뷰 등과 같은 데이터베이스의 개체이다.

규칙 : 주체가 객체에 대하여 수행하는 입력, 수정, 삭제 등의 데이터베이스에 대한 조작이다.

 

5. 접근통제 조건

- 접근통제 매커니즘의 취약점을 보완하기 위해 접근통제 정책에 부가하여 적용할 수 있는 조건이다.

- 값 종속 통제(Value-Dependent Control) : 일반적으론느 객체에 저장된 값에 상관없이 접근통제를 동일하게 허용하지만 객체에 저장된 값에 따라 다르게 접근통제를 허용해야 하는 경우에 사용한다.

 

- 다중 사용자 통제(Multi-User Control) : 지정된 객체에 다수의 사용자가 동시에 접근을 요구하는 경우에 사용된다.

 

- 컨텍스트 기반 통제(Context-Based Control) : 특정 시간, 네트워크 주소, 접근 경로, 인증 수준 등에 근거하여 접근을 제어하는 방법으로, 다른 보안 정책과 결합하여 보안 시스템의 취약점을 보완할 때 사용된다.

 

6. 감사 추적

- 사용자나 애플리케이션이 데이터베이스에 접근하여 수행한 모든 활동을 기록하는 기능이다.

- 감사 추적은 오류가 발생한 데이터베이스를 복구하거나 부적절한 데이터 조작을 파악하기 위해 사용된다.

- 감사 추적 시 실행한 프로그램, 사용자, 날짜 및 시간, 접근한 데이터의 이전 값 및 이후 값 등이 저장된다.

 

Section 99 논리 데이터 모델의 물리 데이터 모델 변환

1. 테이블(Table)

- 테이블은 데이터를 저장하는 데이터베이스의 가장 기본적인 오브젝트이다.

- 테이블은 컬럼(Column, )과 로우(Row, )로 구성되며, 컬럼에는 지정된 유형에 따라 데이터가 저장된다.

- 테이블의 구성 요소

로우(Row) : 튜플 인스턴스, 어커런스라고도 한다.

컬럼(Column) : 각 속성 항목에 대한 값을 저장한다.

기본키(Primary key) :기본키는 후보키 중에서 선택한 주키이며 한 릴레이션에서 특정 튜플을 유일하게 구별할 수 있는 속성이다.

외래키(Foreign key) : 다른 릴레이션의 기본키를 참조하는 속성 또는 속성들의 집합을 의미한다. 한 릴레이션에 속한 속성 A와 참조 릴레이션의 기본키인 B가 동일한 도메인 상에서 정의되었을 때의 속성 A를 외래키라고 한다.

 

2. 엔티티(Entity)를 테이블로 변환

- 논리 데이터 모델에서 정의된 엔티티를 물리 데이터 모델의 테이블로 변환하는 것이다.

- 엔티티를 테이블로 변환한 후 테이블 목록 정의서를 작성한다.

- 테이블 목록 정의서: 전체 테이블을 목록으로 요약 관리하는 문서로, 테이블 목록이라고도 한다.

 

엔티티  테이블

속성  컬럼

주 식별자  기본키

외부 식별자  외래키

관계  관계

 

변환 시 고려사항

- 일반적으론느 테이블과 엔티티 명칭은 동일하게 하는 것을 권고한다.

- 엔티티는 주로 한글명을 사용하지만 테이블은 소스 코드의 가독성을 위해 영문명을 사용한다.

- 메타 데이터 관리 시스템에 표준화된 용어가 있을 때는 메타에 등록된 단어를 사용하여 명명한다.

 

3. 슈퍼타입/서브타입을 테이블로 변환

- 논리 데이터 모델에서 이용되는 형태이므로 물리 데이터 모델을 설계할 때는 슈퍼타입/서브타입을 테이블로 변환해야 한다.

- 슈퍼타입/서브타입 모델을 테이블로 변환하는 방법에는 슈퍼타입 기준 테이블 변환, 서브타입 기준 테이블 변환, 개별타입 기준 테이블 변환이 있다.

슈퍼타입 기준 테이블 변환

- 서브타입을 슈퍼타입에 통합하여 하나의 테이블로 만드는 것

- 서브타입에 속성이나 관계가 적을 경우에 적용하는 방법으로, 하나로 통합된 테이블에는 서브타입의 모든 속성이 포함되어야 한다.

장점

- 데이터 액세스가 상대적으로 용이하다.

- 뷰를 이용하여 각각의 서브타입만을 액세스하거나 수정할 수 있다.

- 서브타입 구분이 없는 임의 집합에 대한 처리가 용이하다.

- 여러 테이블을 조인하지 않아도 되므로 수행 속도가 빨라진다.

- SQL 문장 구성이 단순해진다.

단점

- 테이블의 컬럼이 증가하므로 디스크 저장 공간이 증가한다.

- 처리마다 서브타입에 대한 구분(TYPE)이 필요한 경우가 많이 발생한다.

- 인덱스 크기의 증가로 인덱스 효율이 떨어진다.

 

서브타입 기준 테이블 변환

- 슈퍼타입 속성들을 각각의 서브타입에 추가하여 서브타입을을 개별적인 테이블로 만드는 것이다.

- 서브타입 속성이나 관계가 많이 포함된 경우 작용한다.

장점

- 각 서브타입 속성들의 선택 사양이 명확한 경우에 유리하다.

- 처리할 때마다 서브타입 유형을 구분할 필요가 없다.

- 여러 개의 테이블로 통합하므로 테이블당 크기가 감소하여 전체 테이블 스캔 시 유리하다.

 

단점

- 수행 속도가 감소할 수 있다.

- 복잡한 처리를 하는 SQL의 통합이 어렵다.

- 부분 범위에 대한 처리가 곤란해진다.

- 여러 테이블을 통합한 뷰는 조회만 가능하다.

- UID(Unique Identifier, 식별자)의 유지 관리가 어렵다.

 

개별타입 기준 테이블 변환

- 슈퍼타입과 서브타입들을 각각의 개별적인 테이블로 변환하는 것이다.

- 슈퍼타입과 서브타입들은 각각 1:1관계가 형성된다.

개별타입 기준 테이블 변환을 적용하는경우

- 전체 데이터에 대한 처리가 빈번한 경우

- 서브타입의 처리가 대부분 독립적으로 발생하는 경우

- 통합하는 테이블의 컬럼 수가 많은 경우

- 서브타입의 컬럼 수가 많은 경우

- 트랜잭션이 주로 슈퍼타입에서 발생하는 경우

- 슈퍼타입의 처리 범위가 넓고 빈번하게 발생하여 단일 테이블 클러스터링이 필요한 경우

 

장점

- 저장 공간이 상대적으로 적다

- 슈퍼타입 또는 서브타입 각각의 테이블에 속한 정보만 조회하는 경우 문장 작성이 용이하다.

 

단점

- 슈퍼타입 또는 서브타입의 정보를 같이 처리하면 항상 조인이 발생하여 성능이 저하된다.

 

4. 속성을 컬럼으로 변환

- 논리 데이터 모델에서 정의한 속성을 물리 데이터 모델의 컬럼으로 변환한다.

일반 속성 변환

- 속성과 컬럼은 명칭이 반드시 일치할 필요는 없으나, 개발자와 사용자 간 의사소통을 위하여 가능한 한 표준화된 약어를 사용하여 일치시키는 것이 좋다.

- 칼럼명은 SQL의 예약어 사용을 피한다.

- 칼럼명은 SQL 가독성을 높이기 위해 가능한 한 짧게 지정한다.

- 복합 단어를 칼럼명으로 사용할 때는 미리 정의된 표준을 따른다.

- 테이블의 컬럼을 정의한 후에는 한 로우(Row)에 해당하는 샘플 데이터를 작성하여 컬럼의 정확성을 검증한다.

 

5. 관계를 외래키로 변환

- 논리 데이터 모델에서 정의된 관계는 기본키와 이를 참조하는 외래키로 변환한다.

1:1 관계

- 개체 A의 기본키를 개체 B의 외래키로 추가하거나 개체 B의 기본키를 개체 A의 외래키로 추가하여 표현한다.

 

1:M 관계

- 개체 A의 기본키를 개체 B의 외래키로 추가하여 표현하거나 별도의 테이블로 표현한다.

 

N:M 관계

- 릴레이션 A B의 기본키를 모두 포함한 별도의 릴레이션으로 표현한다.

이 때 생성된 별도의 릴레이션을 교차 릴레이션 또는 교차 엔티티라고 한다.

 

1:M 순환 관계

- 개체 A에 개체 A의 기본키를 참조하는 외래키 컬럼을 추가하여 표현한다.

 

6. 관리 목적의 테이블/컬럼 추가

- 논리 데이터 모델에는 존재하지 않는 테이블이나 컬럼을 데이터베이스의 관리 혹은 데이터베이스를 이용하는 프로그래밍의 수행 속도를 향상시키기 위해 물리 데이터 모델에 추가할 수 있다.

 

7. 데이터 타입 선택

- 논리 데이터 모델에서 정의된 논리적인 데이터 타입을 물리적인 DBMS의 물리적 특성과 성능을 고려하여 최적의 데이터 타입과 데이터의 최대 길이를 선택한다.

- 주요 타입에는 문자 타입, 숫자 타입, 날짜 타입이 있다.

  Comments,     Trackbacks
정보처리기사 3과목 데이터베이스 구축 1장 논리 데이터베이스 설계 요점 정리

1장 논리 데이터베이스 설계

 

Section 70 데이터베이스 설계

 

1. 데이터베이스 설계의 개념

- 데이터베이스 설계란 사용자의 요구를 분석하여 그것들을 컴퓨터에 저장할 수 있는 데이터베이스의 구조에 맞게 변형한 후 특정 DBMS로 데이터베이스를 구현하여 일반 사용자들이 사용하게 하는 것이다.

2. 데이터베이스 설계 시 고려사항

- 무결성 : 삽입, 삭제, 갱신 등의 연산 후에도 데이터베이스에 저장된 데이터가 정해진 제약 조건을 항상 만족해야 한다.

- 일관성 : 데이터베이스에 저장된 데이터들 사이나, 특정 질의에 대한 응답이 처음부터 끝까지 변함없이 일정해야 한다.

- 회복 : 시스템에 장애가 발생했을 때 장애 발생 직전 상태로 복구할 수 있어야 한다.

- 보안 : 불법적인 데이터의 노출 또는 변경이나 손실로부터 보호할 수 있어야 한다.

- 효율성 : 응답시간의 단축, 시스템의 생산성, 저장 공간의 최적화 등이 가능해야 한다.

- 데이터베이스 확장 : 데이터베이스 운영에 영향을 주지 않으면서 지속적으로 데이터를 추가할 수 있어야 한다.

 

3. 데이터베이스 설계 순서

요구 조건 분석 => 개념적 설계 => 논리적 설계 => 물리적 설계 => 구현

 

4. 요구조건 분석

- 데이터베이스를 사용할 사람들로부터 필요한 용도를 파악하는 것.

- 데이터베이스 사용자에 따른 수행 업무와 필요한 데이터의 종류, 용도, 처리 형태, 흐름, 제약 조건 등을 수집한다.

- 수집된 정보를 바탕으로 요구 조건 명세를 작성한다.

 

5. 개념적 설계(정보 모델링, 개념화)

- 정보의 구조를 얻기 위하여 현실 세계의 무한성과 계속성을 이해하고, 다른 사람과 통신하기 위하여 현실 세계에 대한 인식을 추상적 개념으로 표현하는 과정이다.

- 개념적 설계 단계에서는 개념 스키마 모델링과 트랜잭션 모델링을 병행 수행한다.

- 개념적 설계 단계에서는 요구 분석 단계에서 나온 결과인 요구 조건 명세를 DBMS에 독립적인 E-R 다이어그램으로 작성한다.

- DBMS에 독립적인 개념 스키마를 설계한다.

 

6. 논리적 설계(데이터 모델링)

- 현실 세계에서 발생하는 자료를 컴퓨터가 이해하고 처리할 수 있는 물리적 저장장치에 저장할 수 있도록 변환하기 위해 특정 DBMS가 지원하는 논리적 자료 구조로 변환시키는 과정이다.

- 개념 세계의 데이터를 필드로 기술된 데이터 타입과 이 데이터 타입들 간의 관계로 표현되는 논리적 구조의 데이터로 모델화한다.

- 개념적 설계가 개념 스키마를 설계하는 단계라면 논리적 설계에서는 개념 스키마를 평가 및 정제하고 DBMS에 따라 서로 다른 논리적 스키마를 설계하는 단계이다.

- 트랜잭션의 인터페이스를 설계한다.

- 관계형 데이터베이스라면 테이블을 설계하는 단계이다.

 

7. 물리적 설계(데이터 구조화)

- 논리적 설계 단계에서 논리적 구조로 표현된 데이터를 디스크 등의 물리적 저장장치에 저장할 수 있는 물리적 구조의 데이터로 변환하는 과정이다.

- 물리적 설계 단계에서는 다양한 데이터베이스 응용에 대해 처리 성능을 얻기 위해 데이터베이스 파일의 저장 구조 및 액세스 경로를 결정한다.

- 저장 레코드의 형식, 순서, 접근 경로와 같은 정보를 사용하여 데이터가 컴퓨터에 저장되는 방법을 묘사한다.

 

8. 데이터베이스 구현

- 논리적 설계 단계와 물리적 설계 단계에서 도출된 데이터베이스 스키마를 파일로 생성하는 과정이다.

- 사용하려는 특정 DBMS DDL(데이터 정의어)을 이용하여 데이터베이스 스키마를 기술한 후 컴파일하여 빈 데이터베이스 파일을 생성한다.

- 생성된 빈 데이터베이스 파일에 입력한다.

- 응용 프로그램을 위한 트랜잭션을 작성한다.

- 데이터베이스 접근을 위한 응용 프로그램을 작성한다.

Section 72 데이터 모델의 구성 요소  개체(Entity)

1. 개체의 정의 및 특징

- 개체(Entity)는 데이터베이스에 표현하려는 것으로, 사람이 생각하는 개념이나 정보단위 같은 현실 세계의 대상체이다.

- 개체는 실세계에 독립적으로 존재하는 유형, 무형의 정보로서 서로 연관된 몇 개의 속성으로 구성된다.

- 파일 시스템의 레코드에 대응하는 것으로 어떤 정보를 제공하는 역할을 수행한다.

- 영속적(Persistence)으로 존재하는 개체의 집합이다.

- 독립적으로 존재하거나 그 자체로서도 구별이 가능하다.

- 유일한 식별자(Unique Identifier)에 의해 식별이 가능하다.

- 개체는 업무 프로세스에 의해 이용된다.

- 다른 개체와 하나 이상의 관계(Relationship)가 있다.

 

2. 개체 선정 방법

- 업무 분석에 관한 내용을 구체적으로 설명한 업무 기술서를 이용한다.

- 실제 업무를 담당하고 있는 담당자와 인터뷰를 한다.

- 업무 기술서와 인터뷰에서 확인하지 못한 정보가 있는지 실제 업무를 직접 견학하여 확인할 수 있다.

- 실제 업무에 사용되고 있는 장부와 전표를 이용한다.

- 이미 구축된 시스템이 있는 경우 해당 시스템의 산출물을 검토한다.

- 자료 흐름도(DFD)를 통해 업무 분석을 수행했을 경우 자료 흐름도의 자료 저장소를 이용한다.

- BPR(업무 프로세스 재설계)에 의해 업무를 재정의한 경우 관련 개체를 찾는다.

 

3. 개체명 지정 방법

- 일반적으로 해당 업무에 사용하는 용어로 지정한다.

- 약어 사용은 되도록 제한한다.

- 가능하면 단수 명사를 사용한다.

- 모든 개체명은 유일해야 한다.

- 가능하면 개체가 생성되는 의미에 따라 이름을 부여한다.

 

Section 76 E-R(개체-관계) 모델

1. E-R(Entity-Relationship, 개체-관계) 모델의 개요

- 개념적 데이터 모델의 가장 대표적인 것으로, 1976년 피터 첸에 의해 제안되고 기본적인 구성 요소가 정립되었다.

- E-R 모델은 개체와 개체 간의 관계를 기본 요소로 이용하여 현실 세계의 무질서한 데이터를 개념적인 논리 데이터로 표현하기 위한 방법으로 많이 사용되고 있다.

- E-R 모델은 개체 타입과 이들 간의 관계 타입을 이용해 현실 세계를 개념적으로 표현한다.

- E-R 모델에서는 데이터를 개체, 관계, 속성으로 묘사한다.

- E-R 모델은 특정 DBMS를 고려한 것은 아니다.

- E-R 다이어그램으로 표현하며, 1:1, 1:N, N:M 등의 관계 유형을 제한 없이 나타낼 수 있다.

- 최초에는 개체, 관계, 속성과 같은 개념들로 구성되었으나 나중에는 일반화 계층 같은 복잡한 개념들이 첨가되어 확장된 모델로 발전했다.

 

2. E-R 다이어그램

- E-R 다이어그램은 E-R모델의 기본 아이디어를 이해하기 쉽게 기호를 사용하여 시각적으로 표현한 그림이다.

- E-R 다이어그램은 실체 간의 관계는 물론 조직, 사용자, 프로그램, 데이터 등 시스템 내에서 역할을 가진 모든 실체들을 표현한다.

- E-R 다이어그램은 데이터에 대해 개발자, 관리자, 사용자들이 서로 다르게 인식하고 있는 뷰(Veiw)들을 하나로 단일화시킨다.

- E-R 다이어그램 표기법에는 피터 첸 표기법, 정보 공학 표기법, 바커 표기법 등이 있다.

 

3. 피터 첸 표기법

- 197년 피터 첸이 개발하였다.

- 사각형 : 개체(Entity) 타입

- 마름모 : 관계(Relationship) 타입

- 타원 : 속성(Attribute)

- 이중 타원 : 다중값 속성(복합 속성)

- 밑줄 타원 : 기본키 속성

- 복수 타원 : 복합 속성

- 관계 : 개체 간 관계에 대한 대응수를 선 위에 기술함

- 선 링크 : 개체 타입과 속성을 연결

- 밑줄 친 속성은 기본키를 나타낸다.

 

4. 정보 공학 표기법(Information Engineering Notation)

- 정보 공학 표기법은 1981년에 클리프 핀켈쉬타인과 제임스 마틴이 공동 개발하였다.

- 개체는 사각형 박스로 표시하고 개체명은 박스 바깥쪽 위에 표시한다.

- 속성은 기본키 속성과 일반 속성을 분리하여 표시한다.

- 관계는 관께 표기 기호를 사용하여 표시한다.

 

5. 바커 표기법

- 영국 컨설팅 회사 CACI에서 개발하였고, 리차드 바커에 의해 정립되었다.

- 개체는 모서리가 둥근 박스로 표시하고 개체명은 박스 안 가장 위에 표시한다.

- 속성은 반드시 값이 저장되어야 하는경우 *(Mandatory)를 표시하고, 값이 저장될 수도, 안될 수도 있는 경우 O(Optional)을 표시한다.

- 관계는 관계 표기 기호를 사용하여 표시한 후 해당 개체의 역할을 동사적 단어로 입력한다.

 

Section 78 관계형 데이터베이스의 구조

1. 관계형 데이터베이스의 개요

- 1970년 근무하던 코드(E. F. Codd)에 의해 처음 제안되었다.

- 관계형 데이터베이스를 구성하는 개체(Entity)나 관계(Relationship)를 모두 릴레이션(Realtionship)이라는 표(Table)로 표현한다.

- 릴레이션은 개체를 표현하는 개체 릴레이션, 관계를 나타내는 관계 릴레이션으로 구분할 수 있다.

- 장점 : 간결하고 보기 편리하며, 다른 데이터베이스로의 변환이 용이하다.

- 단점 : 성능이 다소 떨어진다.

 

2. 관계형 데이터베이스의 Relation 구조

- 릴레이션은 데이터들을 표의 형태로 표현한 것으로 구조를 나타내는 릴레이션 스키마와 실제 값들인 릴레이션 인스턴스로 구성된다.

튜플(Tuple)

- 튜플은 릴레이션을 구성하는 각각의 행을 말한다.

- 튜플은 속성의 모임으로 구성된다.

- 파일 구조에서 레코드와 같은 의미이다.

- 튜플의 수를 카디널리티(Cardinality) 또는 기수, 대응수라고 한다.

 

속성(Attribute)

- 속성은 데이터베이스를 구성하는 가장 작은 논리적 단위이다.

- 파일 구조상의 데이터 항목 또는 데이터 필드에 해당된다.

- 속성은 개체의 특성을 기술한다.

- 속성의 수를 디그리(Degree) 또는 차수라고 한다.

 

도메인(Domain)

- 하나의 애트리뷰트가 취할 수 있는 같은 타입의 원자(Atomic)값들의 집합이다.

- 도메인은 실제 애트리뷰트 값이 나타낼 때 그 값의 합법 여부를 시스템이 검사하는데에도 이용된다.

 

3. 릴레이션의 특징

- 한 릴레이션에는 똑 같은 튜플이 포함될 수 없으므로 릴레이션에 포함된 튜플들은 모두 상이하다.

- 한 릴레이션에 포함된 튜플 사이에는 순서가 없다.

- 튜플들의 삽입, 삭제 등의 작업으로 인해 릴레이션은 시간에 따라 변한다.

- 릴레이션 스키마를 구성하는 속성들 간의 순서는 중요하지 않다.

- 속성의 유일한 식별을 위해 속성의 명칭은 유일해야 하지만, 속성을 구성하는 값은 동일한 값이 있을 수 있다.

- 릴레이션을 구성하는 튜플을 유일하게 식별하기 위해 속성들의 부분집합을 키(Key)로 설정한다.

- 속성의 값은 논리적으로 더 이상 쪼갤 수 없는 원자값만을 저장한다.

 

Section 79 관계형 데이터베이스의 제약 조건  (Key)

- 제약 조건이란 데이터베이스에 저장되는 데이터의 정확성을 보장하기 위하여 키(Key)를 이용하여 입력되는 데이터에 제한을 주는 것으로 개체 무결성 제약, 참조 무결성 제약 등이 해당된다.

1. (Key)의 개념 및 종류

- 데이터베이스에서 조건에 만족하는 튜플을 찾거나 순서대로 정렬할 때 튜플들을 서로 구분할 수 있는 기준이 되는 애트리뷰트를 말한다.

 

2. 후보키(Candidate Key)

- 릴레이션을 구성하는 속성들 중에서 튜플을 유일하게 식별하기 위해 사용하는 속성들의 부분집합, 즉 기본키로 사용할 수 있는 속성들을 말한다.

- 하나의 릴레이션내에서는 중복된 튜플들이 있을 수 없으므로 모든 릴레이션에는 반드시 하나 이상의 후보키가 존재한다.

- 후보키는 릴레이션에 있는 모든 튜플에 대해서 유일성과 최소성을 만족시켜야 한다.

- 유일성(Unique) : 하나의 키 값으로 하나의 튜플만을 유일하게 식별할 수 있어야 한다.

- 최소성(Minimality) : 모든 레코드들을 유일하게 식별하는 데 꼭 필요한 속성으로만 구성되어야 한다.

 

3. 기본키(Primary Key)

- 기본키는 후보키 중에서 특별히 선정된 주키(Main Key)로 중복된 값을 가질 수 없다.

- 한 릴레이션에서 특정 튜플을 유일하게 구별할 수 있는 속성이다.

- 기본키는 후보키의 성질을 가는다. , 유일성과 최소성을 가지며 튜플을 식별하기 위해 반드시 필요한 키이다.

- 기본키는 NULL 값을 가질 수 없다. 즉 튜플에서 기본키로 설정된 속성에는 NULL 값이 있어서는 안된다.

 

4. 대체키(Alternate Key)

- 후보키가 둘 이상일 때 기본키를 제외한 나머지 후보키를 의미한다.

- 보조키라고도 한다.

 

5. 슈퍼키(Super Key)

- 한 릴레이션 내에 있는 속성들의 집합으로 구성된 키로서 릴레이션을 구성하는 모든 튜플들 중 슈퍼키로 구성된 속성의 집합과 동일한 값은 나타나지 않는다.

- 슈퍼키는 릴레이션을 구성하는 모든 튜플에 대해 유일성은 만족시키지만, 최소성은 만족시키지 못한다.

 

6. 외래키(Foreign Key)

- 다른 릴레이션의 기본키를 참조하는 속성 또는 속성들의 집합을 의미한다.

- 참조되는 릴레이션의 기본키와 대응되어 릴레이션 간에 참조 관계를 표현하는데 중요한 도구이다.

- 한 릴레이션에 속한 속성 A와 참조 릴레이션의 기본키인 B가 동일한 도메인 상에서 정의되었을 때의 속성 A를 외래키라고 한다.

- 외래키로 지정되면 참조 릴레이션의 기본키에 없는 값은 입력할 수 없다.

 

Section 81 관계대수 및 관계해석

1. 관계대수의 개요

- 관계대수는 관계형 데이터베이스에서 원하는 정보와 그 정보를 검색하기 위해서 어떻게 유도하는가를 기술하는 절차적인 언어이다.

- 관계대수는 릴레이션을 처리하기 위해 연산자와 연산규칙을 제공하는 언어로 피연산자가 릴레이션이고, 결과도 릴레이션이다.

- 질의에 대한 해를 구하기 위해 수행해야 할 연산의 순서를 명시한다.

- 관계대수에는 관계 데이터베이스에 적용하기 위해 특별히 개발한 순수 관계 연산자와 수학적 집합 이론에서 사용하는 일반 집합 연산자가 있다.

- 순수 관계 연산자: Select, Project, Join, Division

- 일반 집합 연산자: UNION(합집합), INTERSECTION(교집합), DIFFERENCE(차집합), CARTESIAN PRODUCT(교차곱)

 

2. Select

- 릴레이션에 존재하는 튜플 중에서 선택 조건을 만족하는 튜프의 부분집합을 구하여 새로운 릴레이션을 만드는 연산이다.

- 릴레이션의 행에 해당하는 튜플을 구하는 것이므로 수평 연산이라고도 한다.

- 연산자의 기호는 그리스 문자 시그마를 사용한다

.표기 형식 σ(R)

- R은 릴레이션 이름이다.

- 조건에서는 비교 연산이 허용되며, 논리 연산자를 사용하여 여러 개의 조건들을 하나의 조건으로 결합시킬 수도 있다.

 

3. Project

- 주어진 릴레이션에서 속성 리스트(Attribute List)에 제시된 속성 값만을 추출하여 새로운 릴레이션을 만드는 연산이다. 단 연산 결과에 중복이 발생하면 중복이 제거된다.

- 릴레이션의 열에 해당하는 Attribute를 추출하는 것이므로 수직 연산자라고도 한다.

- 연산자의 기호는 그리스 문자 파이(π)를 사용한다.

- 표기 형식 : π(R)

 

4. Join

- 공통 속성을 중심으로 두 개의 릴레이션을 하나로 합쳐서 새로운 릴레이션을 만드는 연산이다.

- Join의 결과로 만들어진 릴레이션의 차수는 조인된 두 릴레이션의 차수를 합한 것과 같다.

- Join의 결과는 Cartesian Product(교차곱)을 수행한다음 Select를 수행한 것과 같다.

 

※ 자연 조인(Natural Join)

- 조인 조건이 ‘=’일 떄 동일한 속성이 두 번 나타나게 되는데, 이중 중복된 속성을 제거하여 같은 속성을 한 번만 표기하는 방법을 자연 조인이라고 한다.

- 자연 조인이 성립되려면 두 릴레이션의 속성명과 도메인이 같아야 한다.

 

5. Division

- XY인 두 개의 릴레이션 R(X) S(Y)가 있을 때, R의 속성이 S의 속성값을 가진 모두 가진 튜플에서 S가 가진 속성을 제외한 속성만을 구하는 연산이다.

- 연산자의 기호는 ÷를 사용한다.

- 표기형식 : R[속성r ÷ 속성s] S

- 속성 r은 릴레이션 R의 속성, 속성 s는 릴레이션 S의 속성, 속성 r과 속성 s는 동일 속성값을 가지는 속성이어야 한다.

 

6. 일반 집합 연산자는 수학적 집합 이론에서 사용하는 연산자로서 릴레이션 연산에도 그대로 적용할 수 있다.

- 일반 집합 연산자 중 합집합(UNION), 교집합(INTERSECTION), 차집합(DIFFERENCE)을 처리하기 위해서는 합병 조건을 만족해야 한다.

- 합병 가능한 두 릴레이션 R S가 있을 때 각 연산의 특징을 요약하면 다음과 같다.

 

합집합 UNION

- 두 릴레이션에 존재하는 튜플의 합집합을 구하되, 결과로 생성된 릴레이션에서 중복되는 튜플은 제거되는 연산이다.

- R  S = {t | t  R  t  S} (t는 릴레이션 R또는 S에 존재하는 튜플)

- 카디널리티 (|RS|  |R| + |S|) : 합집합의 카디널리티는 두 릴레이션 카디널리티의 합보다 크지 않다.

 

교집합 INTERSECTION

- 두 릴레이션에 존재하는 튜플의 교집합을 구하는 연산이다.

- R  S = {t | t  R  t  S } – t는 릴레이션 R 그리고 S에 동시에 존재하는 튜플이다.

- 카디널리티 (|RS|  MIN{|R|,|S|}) : 교집합의 카디널리티는 두 릴레이션 중 카디널리티가 적은 릴레이션의 카디널리티보다 크지 않다.

 

차집합 DIFFERENCE

- 두 릴레이션에 존재하는 튜플의 차집합을 구하는 연산이다.

- R – S = {t|t  R  t / S } (t는 릴레이션 R에는 존재하고 S에 없는 튜플이다.

- 카디널리티 (|R-S|  |R|) : 차집합의 카디널리티는 릴레이션 R의 카디널리티보다 크지 않다.

 

교차곱 CARTESIAN PRODUCT

- 두 릴레이션에 있는 튜플들의 순서쌍을 구하는 연산이다.

- R X S = {rs| r  R  s  S} (r R에 존재하는 튜플이고, s S에 존재하는 튜플이다.)

- |R X S | = |R| X |S|

- 교차곱은 두 릴레이션의 카디널리티를 곱한 것과 같다.

 

7. 관계해석(Relational Calculus)

- 관계 데이터 모델의 제안자인 코드(E. F. Codd)가 수학의 Predicate Calculus(술어 해석)에 기반을 두고 관계 데이터베이스를 위해 제안했다.

- 관계해석은 관계 데이터의 연산을 두고 표현하는 방법으로, 원하는 정보를 정의할 때는 계산 수식을 사용한다.

- 관계해석은 원하는 정보가 무엇이라는 것만 정의하는 비절차적인 특성을 지닌다.

- 튜플 관계해석과 도메인 관계해석이 있다.

- 기본적으로 관계해석과 관계대수는 관계 데이터베이스를 처리하는 기능과 능력면에서 동등하며, 관계대수로 표현한 식은 관게해석으로 표현할 수 있다.

 

Section 82 정규화(Normalization)

1. 정규화의 개요

- 함수적 종속성 등의 종속성 이론을 이용하여 잘못 설계된 관계형 스키마를 더 작은 속성의 세트로 쪼개어 바람직한 스키마로 만들어 가는 과정이다.

- 하나의 종속성이 하나의 릴레이션에 표현될 수 있도록 분해해가는 과정이라 할 수 있다.

- 정규형에는 제1정규형, 2정규형, 3정규형, BCNF, 4정규형, 5정규형이 있으며, 차수가 높아질수록 만족시켜야 할 제약 조건이 늘어난다.

- 정규화는 데이터베이스의 논리적 설계 단계에서 수행한다.

- 정규화는 논리적 처리 및 품질에 큰 영향을 미친다.

- 정규화된 모든 데이터 모델은 일관성, 정확성, 단순성, 비중복성, 안정성 등을 보장한다.

- 정규화 수준이 높을수록 유연한 데이터 구축이 가능하고 데이터의 정확성이 높아지는 반면 물리적 접근이 복잡하고 너무 많은 조인으로 인해 조회 성능이 저하된다.

 

2. 정규화의 목적

- 데이터 구조의 안성정 및 무결성을 유지한다.

- 어떠한 릴레이션이라도 데이터베이스 내에서 표현 가능하게 만든다.

- 효과적인 검색 알고리즘을 생성할 수 있다.

- 데이터 중복을 배제하여 이상(Anomaly)의 발생 방지 및 자료 저장 공간의 최소화가 가능하다.

- 데이터 삽입 시 릴레이션을 재구성할 필요성을 줄인다.

- 데이터 모형의 단순화가 가능하다.

- 속성의 배열 상태 검증이 가능하다.

- 개체와 속성의 누락 여부 확인이 가능하다.

- 자료 검색과 추출의 효율성을 추구한다.

 

3. 이상(Anomaly)의 개념 및 종류

- 정규화를 거치지 않으면 데이터베이스 내에 데이터들이 불필요하게 중복되어 릴레이션 조작 시 예기치 못한 곤란한 현상이 발생하는데, 이를 이상(Anomaly)이라 하며 삽입 이상, 삭제 이상, 갱신 이상이 있다.

- 삽입 이상(Insertion Anomaly) : 릴레이션에 데이터를 삽입할 때 의도와는 상관없이 원하지 않은 값들도 함께 삽입되는 현상이다.

- 삭제 이상(Deletion Anomaly) : 릴레이션에서 한 튜플을 삭제할 때 의도와는 상관없는 값들도 함께 삭제되는 연쇄가 일어나는 현상이다.

- 갱신 이상(Update Anomaly) : 릴레이션에서 튜플에 있는 속성값을 갱싱할 때 일부 튜플의 정보만 갱신되어 정보에 모순이 생기는 현상이다.

 

4. 정규화의 원칙

- 정보의 무손실 표현, 즉 하나의 스키마를 다른 스키마로 변환할 때 정보의 손실이 있어서는 안 된다.

- 분리의 원칙, 즉 하나의 독립된 관계성은 하나의 독립된 릴레이션으로 분리시켜 표현해야 한다.

- 데이터의 중복성이 감소되어야 한다.

 

5. 정규화 과정

1NF(1정규형)

- 1NF는 릴레이션에 속한 모든 도메인이 원자값(Atomic Value)만으로 되어 있는 정규형이다. , 릴레이션의 모든 속성 값이 원자 값으로만 되어 있는 정규형이다.

 

2NF(2정규형)

- 2NF는 릴레이션 R 1NF이고, 기본키가 아닌 모든 속성이 기본키에 대하여 완전 함수적 종속을 만족하는 정규형이다.

 

※ 함수적 종속/ 완전/부분 함수적 종속 및 이해

함수적 종속(Functional Dependency)

- 함수적 종속은 데이터들이 어떤 기준값에 의해 종속되는 것을 의미함.

 

완전 함수적 종속

- 어떤 테이블 R에서 속성 A가 다른 속성 집합 B 전체에 대해 함수적 종속이지만 속성 집합 B의 어떠한 진 부분 집합 C에는 함수적 종속이 아닐 때, 속성 A는 속성 집합 B에 완전 함수적 종속이라고 한다.

 

부분 함수적 종속

- 어떤 테이블 R에서 속성 A가 다른 속성 집합 B 전체에 대해 함수적 종속이면서 속성 집합 B의 어떠한 진부분 집합에도 함수적 종속일 때, 속성 A는 속성 집합 B에 부분 함수적 종속이라고 한다.

 

완전/부분 함수적 종속의 이해

- 완전 함수적 종속은 어떤 속성이 기본키에 대해 완전히 종속적일 때를 말한다.

 

3NF(3정규형)

- 릴레이션 R 2NF이고, 기본키가 아닌 모든 속성이 기본키에 대해 이행적 종속을 만족하지 않는 정규형이다.

- 무손실 조인 또는 종속성 보존을 저해하지 않고도 항상 3NF 설계를 얻을 수 있다.

 

BCNF(Boyce-Codd 정규형)

- BCNF는 릴레이션 R에서 결정자가 모두 후보키(Candidate Key)인 정규형이다.

- 키가 아닌 모든 속성은 각 키에 대하여 완전 종속해야 한다.

- 키가 아닌 모든 속성은 그 자신이 부분적으로 들어가 있지 않은 모든 키에 대하여 완전 종속해야 한다.

- 어떤 속성도 키가 아닌 속성에 대해서는 완전 종속할 수 없다.

 

4NF(4정규형)

- 릴레이션 R에 다치 종속이 성립하는 경우 R의 모든 속성이 A에 함수적 종속 관계를 만족하는 정규형이다.

 

5NF(5정규형, PJ/NF)

- 릴레이션 R의 모든 조인 종속이 R의 후보키를 통해서만 성립되는 정규형이다.

 

※ 정규화 과정 정리

비정규 릴레이션 => 1NF => 2NF => 3NF => BCNF => 4NF => 5NF

 

 

 

 

Section 84 시스템 카탈로그

1. 시스템 카탈로그(System Catalog)의 의미

- 시스템 그 자체에 관련이 있는 다양한 객체에 관한 정보를 포함하는 시스템 데이터베이스이다.

- 시스템 카탈로그 내의 각 테이블은 사용자를 포함하여 DBMS에 지원하는 모든 데이터 객체에 대한 정의나 명세에 관한 정보를 유지 관리하는 시스템 테이블이다.

- 카탈로그들이 생성되면 데이터 사전(Data Dictionary)에 저장되기 때문에 좁은 의미로는 카탈로그를 데이터 사전이라고도 한다.

 

2. 시스템 카탈로그 저장 정보

- 메타 데이터(Meta-Data)라고도 한다.

※ 메타 데이터의 유형

- 데이터베이스의 객체 정보 : 테이블, 인덱스, 뷰 등의 구조 및 통계 정보

- 사용자 정보 : 아이디, 패스워드, 접근 권한 등

- 테이블의 무결성 제약 조건 정보 : 기본키, 외래키, NULL 값 허용 여부 등

- 함수, 프로시저, 트리거 등에 대한 정보

 

3. 카탈로그 특징

- 카탈로그 자체도 시스템 테이블로 구성되어 있어 일반 이용자도 SQL을 이용하여 내용을 검색해 볼 수 있다.

- INSERT, DELETE, UPDATE 문으로 카탈로그를 갱신하는 것은 허용되지 않는다.

- 데이터베이스 시스템에 따라 상이한 구조를 갖는다.

- 카탈로그는 DBMS가 스스로 생성하고 유지한다.

- 카탈로그의 갱신 : 사용자가 SQL문을 실행시켜 기본 테이블, , 인덱스 등에 변화를 주면 시스템이 자동으로 갱신한다.

- 분산 시스템에서의 카탈로그 : 보통의 릴레이션, 인덱스, 사용자 등의 정보를 포함할 뿐 아니라 위치 투명성 및 중복 투명성을 제공하기 위해 필요한 모든 제어 정보를 가져야 한다.

 

4. 카탈로그/데이터 사전을 참조하기 위한 DBMS 내의 모듈 시스템

- 데이터 정의어 번역기(DDL Compiler) : DDL을 메타 데이터를 갖는 테이블로 변환하여 데이터 사전에 저장시킨다.

- 데이터 조작어 번역기(DML Compiler) : 응용 프로그램에 삽입된 DML문을 주 언어로 표현한 프로시저 호출로 변환하여 질의 처리기와 상호 통신한다.

Data Directory

- 데이터 사전에 수록된 데이터를 실제로 접근하는 데 필요한 정보를 관리 유지하는 시스템이다.

- 시스템 카탈로그는 사용자와 시스템 모두 접근할 수 있지만 데이터 디렉터리는 시스템만 접근할 수 있다.

- 질의 최적화기 : 사용자의 요구를 효율적인 형태로 변환하고 질의를 처리하는 좋은 전략을 모색한다.

- 트랜잭션 처리기 : 복수 사용자 환경에서 평행으로 동시에 일어나는 트랜잭션 문제를 해결하여, 각각의 사용자가 데이터베이스 자원을 배타적으로 이용할 수 있도록 한다.

  Comments,     Trackbacks
정보처리기사 2과목 소프트웨어 개발 5장 인터페이스 구현 요점 정리

5장 인터페이스 구현

 

Section61 모듈 연계를 위한 인터페이스 기능 식별

 

1. 모듈 연계의 개요

- 모듈 연계는 내부 모듈과 외부 모듈 또는 내부 모듈 간 데이터의 교환을 위해 관계를 설정하는 것으로, 대표적인 모듈 연계 방법에는 EAI ESB 방식이 있다.

EAI(Enterprise Application Integration)

- EAI는 기업 내 각종 애플리케이션 및 플랫폼 간의 정보 전달, 연계, 통합 등 상호 연동이 가능하게 해주는 솔루션이다.

- EAI는 비즈니스 간 통합 및 연게성을 증대시켜 효율성 및 각 시스템 간의 확정성(Determinacy)을 높여 준다.

EAI 구축 유형

Point-to-Point

- 가장 기본적인 애플리케이션 통합 방식으로, 애플리케이션을 1:1로 연결한다.

- 변경 및 재사용이 어렵다.

Hub & Spoke

- 단일 접점인 허브 시스템을 통해 데이터를 전송하는 중앙 집중형 방식이다.

- 확장 및 유지 보수가 용이하다.

- 허브 장애 발생 시 시스템 전체에 영향을 미친다.

Message Bus

- 애플리케이션 사이에 미들웨어를 두어 처리하는 방식이다.

- 확장성이 뛰어나며 대용량 처리가 가능하다.

Hybrid

- Hub & Spoke Message Bus의 혼합 방식이다

- 그룹 내에서는 Hub & Spoke 방식을, 그룹 간에는 Message Bus 방식을 사용한다.

- 필요한 경우 한 가지 방식으로 EAI 구현이 가능하다.

- 데이터 병목 현상을 최소화 할 수 있다.

 

ESB(Enterprise Service Bus)

- ESB는 애플리케이션 간 연계, 데이터 변환, 웹 서비스 지원 등 표준 기반 인터페이스를 제공하는 솔루션이다.

- ESB는 애플리케이션 통합 측면에서 EAI와 유사하지만 애플리케이션 보다는 서비스 중심의 통합을 지향한다.

- ESB는 특정 서비스에 국한되지 않고 범용적으로 사용하기 위하여 애플리케이션과의 결합도를 약하게 유지한다.

- 관리 및 보안 유지가 쉽고, 높은 수준의 품질 지원이 가능하다.

 

2. 모듈 간 연계 기능 식별

- 모듈 간 공통 기능 및 데이터 인터페이스를 기반으로 모듈과 연계된 기능을 시나리오 형태로 구체화하여 식별한다.

- 식별된 연계 기능은 인터페이스 기능을 식별하는데 사용된다.

 

3. 모듈 간 인터페이스 기능 식별

- 식별된 모듈 간 관련 기능을 검토하여 인터페이스 동작에 필요한 기능을 식별한다.

- 인터페이스 동작은 대부분 외부 모듈의 결과 또는 요청에 의해 수행되므로 외부 및 인터페이스 모듈 간 동작하는 기능을 통해 인터페이스 기능을 식별한다.

- 내부 모듈의 동작은 외부 모듈에서 호출된 인터페이스에 의해 수행되고 결과를 나타내는 것이므로 해당 업무에 대한 시나리오를 통해 내부 모듈과 관련된 인터페이스 기능을 식별한다.

- 식별된 인터페이스 기능 중에서 실제적으로 필요한 이넡페이스 기능을 최종적으로 선별한다.

- 식별된 인터페이스 기능은 인터페이스 기능 구현을 정의하는데 사용한다.

 

Section 68 인터페이스 구현 검증

1. 인터페이스 구현 검증의 개요

- 인터페이스가 정상적으로 문제없이 작동하는지 확인하는 것이다.

- 인터페이스 구현 검증 도구와 감시 도구를 이용하여 인터페이스의 동작 상태를 확인한다.

 

2. 인터페이스 구현 검증 도구

- 인터페이스 구현을 검증하기 위해서는 인터페이스 단위 기능과 시나리오 등을 기반으로 하는 통합 테스트가 필요하다.

-통합 테스트는 테스트 자동화 도구를 이용하면 효율적으로 수행할 수 있다.

 

※ 테스트도구 종류

xUnit – Java, C++, .Net 등 다양한 언어를 지원하는 단위 테스트 프레임워크이다.

STAF – 서비스 호출 및 컴포넌트 재사용 등 다양한 환경을 지원하는 테스트 프레임워크이다.

FitNesse – 웹 기반 테스트케이스 설계, 실행, 결과 확인 등을 지원하는 테스트 프레임워크이다.

NTAF – FitNesse의 장점인 협업 기능과 STAF의 장점인 재사용 및 확장성을 통합한 NHN의 테스트 자동화 프레임워크이다.

Selenium – 다양한 브라우저 및 개발 언어를 지원하는 웹 애플리케이션 테스트 프레임워크이다.

Watir – Ruby를 사용하는 애플리케이션 테스트 프레임워크이다.

 

3. 인터페이스 구현 감시 도구

- 인터페이스 동작 상태는 APM을 사용하여 감시(Monitoring)할 수 있다.

- 애플리케이션 성능 관리 도구를 통해 데이터베이스와 웹 애플리케이션의 트랜잭션, 변숙밧, 호출 함수, 로그 및 시스템 부하 등 종합적인 정보를 조회하고 분석할 수 있다.

- 대표적인 애플리케이션 성능 관리 도구에는 스카우터, 제니퍼 등이 있다.

 

 APM(Application Performance Management/Monitoring)

- APM은 애플리케이션의 성능 관리를 위해 접속자, 자원 현황, 트랜잭션 수행 내역, 장애 진단 등 다양한 모니터링 기능을 제공하는 도구를 의미한다.

- APM은 리소스 방식와 엔드투엔드의 두 가지 유형이 있다.

리소스 방식 : Nagios, Zabbix, Cacti 

엔드투엔드 방식 : VisualVM, 제니퍼, 스카우터 등

 

4. 인터페이스 구현 검증 도구 및 감시 도구 선택

- 인터페이스 기능 구현 정의를 통해 구현된 인터페이스 명세서의 세부 기능을 참조하여 인터페이스의 정상적인 동작 여부를 확인하기 위한 검증 도구와 감시 도구의 요건을 분석한다.

- 분석이 끝나면 시장 및 솔루션 조사를 통해서 적절한 인터페이스 구현을 검증하고 감시하는데 필요한 인터페이스 구현 검증 도구와 감시 도구를 선택한다.

 

5. 인터페이스 구현 검증 확인

- 인터페이스 구현 검증 도구를 이용하여 외부 시스템과 연계 모듈의 동작 상태를 확인한다.

- 최초 입력값과 입력값에 의해 선택되는 데이터, 생성되는 객체의 데이터 등 전반적인 인터페이스 동작 프로세스상에서 예상되는 결과값과 실제 검증값이 동일한지를 비교한다.

- 추가적으로 각 단계별 오류 처리도 적절하게 구현되어 있는지 확인한다.

 

6. 인터페이스 구현 감시 확인

- 인터페이스 구현 감시 도구를 이용하여 외부 시스템과 연결 모듈이 서비스를 제공하는 동안 정상적으로 동작하는지 확인한다.

- 인터페이스 동작 여부, 에러 발생 여부 등 감시 도구에서 제공해 주는 리포트를 활용한다.

  Comments,     Trackbacks
정보처리기사 2과목 소프트웨어 개발 4장 애플리케이션 테스트 관리 요점 정리

4장 애플리케이션 테스트 관리

 

Section 51 테스트 기법에 따른 애플리케이션 테스트

 

1. 화이트박스 테스트(White Box Test)

- 모듈의 원시 코드를 오픈시킨 상태에서 원시 코드의 논리적인 모든 경로를 테스트하여 테스트 케이스를 설계하는 방법이다.

- 화이트박스 테스트는 설계된 절차에 초점을 둔 구조적 테스트로 프로시저 설계의 제어 구조를 사용하여 테스트 케이스를 설계하며, 테스트 과정의 초기에 적용된다.

- 모듈 안의 작동을 직접 관찰한다.

- 원시 코드(모듈)의 모든 문장을 한 번 이상 실행함으로써 수행된다.

- 프로그램의 제어 구조에 따라 선택, 반복 등의 분기점 부분들을 수행함으로써 논리적 경로를 제어한다.

 

2. 화이트박스 테스트의 종류

- 기초 경로 검사, 제어 구조 검사 등이 있다.

기초 경로 검사 :

- 대표적 화이트박스 테스트 기법이다.

- 테스트 케이스 설계자가 절차적 설계의 논리적 복잡성을 측정할 수 있게 해주는 테스트 기법으로, 테스트 측정 결과는 실행 경로의 기초를 정의하는 데 지침으로 사용된다.

 

제어 구조 검사

- 조건 검사 : 프로그램 모듈 내에 있는 논리적 조건을 테스트하는 테스트 케이스 설계 기법

- 루프 검사 : 프로그램의 반복 구조에 초점을 맞춰 실시하는 테스트 케이스 설계 기법

- 데이터 흐름 검사 : 프로그램에서 변수의 정의와 변수 사용의 위치에 초점을 맞춰 실시하는 테스트 케이스 설계 기법

 

3. 화이트박스 테스트의 검증 기준

- 테스트 케이스들이 테스트에 얼마나 적정한지를 판단하느 기준으로, 문장 검증 기준, 분기 검증 기준, 조건 검증 기준, 분기/조건 기준이 있다.

 

문장 검증 기준

- 소스 코드의 모든 구문이 한 번 이상 수행되도록 테스트 케이스 설계

분기 검증 기준

- 소스 코드의 모든 조건문이 한 번 이상 수행되도록 테스트 케이스 설계

조건 검증 기준

- 모든 조건문에 대해 조건이 True인 경우와 False 인 경우가 한 번 이상 수행되도록 테스트 케이스 설계

분기/조건 기준

- 소스 코드의 모든 조건문과 각 조건문에 포함된 개별 조건식의 결과가 True인 경우과 False인 경우가 한 번 이상 수행되도록 테스트 케이스 설계

 

※ 검증 기준의 종류 (기능 기반 커버리지, 라인 커버리지, 코드 커버리지)

- 화이트 박스테스트에서 사용 되는 기준은 모두 코드 커버리지에 속함

기능 기반 커버리지 : 실제 테스트가 수행된 기능의 수/ 전체 기능의 수

라인 커버리지 : 테스트 시나리오가 수행한 소스 코드의 라인 수 / 전체 소스 코드의 라인 수

코드 커버리지 : 소스 코드의 구문, 분기, 조건 등의 구조 코드 자체가 얼마나 테스트되었는지를 측정하는 방법

 

4. 블랙박스 테스트

- 소프트웨어가 수행할 특정 기능을 알기 위해서 각 기능이 완전히 작동되는 것을 입증하는 테스트로, 기능 테스트라고도 한다.

- 사용자의 요구사항을 명세를 보면서 테스트하는 것으로, 주로 구현된 기능을 테스트 한다.

- 소프트웨어 인터페이스에서 실시되는 테스트이다.

- 부정확하거나 누락된 기능, 인터페이스 오류, 자료 구조나 외부 데이터베이스 접근에 따른 오류, 행위나 성능 오류, 초기화와 종료 오류 등을 발견하기 위해 사용되며, 테스트 과정의 후반부에 적용된다.

- 종류에는 동치 분할 검사/ 경계값 분석/ 원인-효과 그래프 검사/ 오류 예측 검사/ 비교 검사 등이 있다.

 

5. 블랙박스 테스트의 종류

동치 분할 검사(Equivalence Partitioning Testing)

- 입력 자료에 초점을 맞춰 테스트 케이스를 만들고 검사하는 방법으로 동등분할 기법이라고도 한다.

- 프로그램의 입력 조건에 타당한 입력 자료와 타당하지 않은 입력 자료의 개수를 균등하게 하여 테스트케이스를 정하고, 해당 입력 자료에 맞는 결과가 출력되는지 확인하는 기법이다.

 

경계값 분석(Boundary Value Analysis)

- 입력 자료에만 치중한 동치 분할 기법을 보완하기 위한 기법이다.

- 입력 조건의 중간값보다 경계값에서 오류가 발생될 확률이 높다는 점을 이용하여 입력 조건의 경계값을 테스트 케이스로 선정하여 검사하는 기법이다.

 

원인 효과 그래프 검사(Cause-Effect Graphing Testng)

- 입력 데이터 간의 관계와 출력에 영향을 미치는 상황을 체계적으로 분석한 다음 효용성이 높은 테스트 케이스를 선정하여 검사하는 기법이다.

 

오류 예측 검사(Error Guessing)

- 과거의 경험이나 확인자의 감각으로 테스트하는 기법이다.

- 다른 블랙 박스 테스트 기법으로는 찾아낼 수 없는 오류를 찾아내는 일련의 보충적 검사 기법이며, 데이터 확인 검사라고도 한다.

 

비교 검사(Comparison Testing)

- 여러 버전의 프로그램에 동일한 테스트 자료를 제공하여 동일한 결과가 출력되는지 테스트하는 기법이다.

 

Section52 개발 단계에 따른 애플리케이션 테스트

1. 개발 단계에 따른 애플리케이션 테스트

- 애플리케이션 테스트는 소프트웨어 개발 단계에 따라 단위 테스트, 통합 테스트, 시스템 테스트, 인수 테스트로 분류되며 이를 테스트 레벨이라고 한다.

- 애플리케이션 테스트는 소프트웨어의 개발 단계에서부터 테스트를 수행하므로 단순히 소프트웨어에 포함된 코드 상의 오류뿐만 아니라 요구 분석의 오류, 설계 인퍼테이스 오류 등도 발견할 수 있다.

- 애플리케이션 테스트와 소프트웨어 개발 단계를 연결하여 표현한 것을 V-모델이라 한다.

 

요구사항=>분석=>설계=>구현=>단위 테스트=> 통합 테스트=> 시스템 테스트=> 인수 테스트

 

2. 단위 테스트

- 단위 테스트는 코딩 직후 소프트웨어 설계의 최소 단위인 모듈이나 컴포넌트에 초점을 맞춰 테스트하는 것이다.

- 단위 테스트에서는 인터페이스, 외부적 I/Q, 자료 구조, 독립적 기초 경로, 오류 처리 경로, 경계 조건 등을 검사한다.

- 단위 테스트는 사용자의 요구사항을 기반으로 한 기능성 테스트를 최우선으로 수행한다.

- 단위 테스트는 구조 기반 테스트와 명세 기반 테스트로 나뉘지만 주로 구조 기반 테스트를 시행한다.

 

구조 기반 테스트 : 프로그램 내부 구조 및 복잡도를 검증하는 화이트박스 테스트 시행

(제어 흐름, 조건 결정)

 

명세 기반 테스트 : 목적 및 실행 코드 기반의 블랙박스 테스트 시행

(동등 분할, 경계 값 분석)

 

3. 통합 테스트

- 단위 테스트가 완료된 모듈들을 결합하여 하나의 시스템으로 완성시키는 과정에서의 테스트를 의미한다.

- 통합 테스트는 모듈 간 또는 통합된 컴포넌트 간의 상호 작용 오류를 검사한다.

 

4. 시스템 테스트

- 개발된 소프트웨어가 해당 컴퓨터 시스템에서 완벽하게 수행되는가를 점검하는 테스트이다.

- 환경적인 장애 리스크를 최소화하기 위해서는 실제 사용 환경과 유사하게 만든 테스트 환경에서 테스트를 수행해야 한다.

- 시스템 테스트는 기능적 요구사항과 비기능적 요구사항으로 구분하여 각각을 만족시키는지 테스트한다.

 

기능적 요구사항 : 요구사항 명세서, 비즈니스 절차, 유스케이스 등 명세서 기반의 블랙박스 테스트 시행

 

비기능적 요구사항 : 성능테스트, 회복테스트, 보안테스트, 내부 시스템의 메뉴 구조, 웹 페이지의 네비게이션 등 구조적 요소에 대한 화이트박스 테스트 시행

 

5. 인수 테스트

- 개발한 소프트웨어가 사용자의 요구사항을 충족하는지에 중점을 두고 테스트하는 방법이다.

- 인수 테스트는 개발한 소프트웨어를 사용자가 직접 테스트한다.

- 인수 테스트에 문제가 없으면 사용자는 소프트웨어를 인수하게 되고, 프로젝트는 종료된다.

- 인수 테스트는 다음과 같이 6가지 종류로 구분해서 테스트한다.

 

사용자 인수 테스트 : 사용자가 시스템 사용의 적절성 여부를 확인한다.

운영상의 인수 테스트 : 시스템 관리자가 시스템 인수 시 수행하는 테스트 기법으로, 백업/복원 시스템, 재난 복구, 사용자 관리, 정기 점검등을 확인한다.

계약 인수 테스트 : 게약상의 인수/검수 조건을 준수하는지 여부를 확인한다.

규정 인수 테스트 : 소프트웨어가 정부 지침, 법규, 규정 등 규정에 맞게 개발되었는지 확인한다.

알파 테스트 : 개발자의 장소에서 사용자가 개발자 앞에서 행하는 테스트 기법이다.

통제된 환경에서 행해지며 오류와 사용상의 문제점을 사용자와 개발자가 함께 확인하면서 기록한다.

베타 테스트 : 선정된 최종 사용자가 여러 명의 사용자 앞에서 행하는 테스트 기법이다.

- 실업무를 가지고 사용자가 직접 테스트하는 것으로, 개발자에 의해 제어되지 않은 상태에서 테스트가 행해지며, 발견된 오류와 사용상의 문제점을 기록하고 개발자에게 주기적으로 보고한다.

 

Section 53 통합 테스트

1. 통합 테스트

- 단위 테스트가 끝난 모듈을 통합하는 과정에서 발생하는 오류 및 결함을 찾는 테스트 기법이다.

- 통합 테스트 방법에는 비점진적 통합 방식과 점진적 통합 방식이 있다.

비점진적 통합 방식 : 단계적으로 통합하는 절차 없이 모든 모듈이 미리 결합되어 있는 프로그램 전체를 테스하는 방법으로, 빅뱅 통합 테스트 방식이 있다.

규모가 작은 소프트웨어에 유리하며 단시간 내에 테스트가 가능하다

전체 프로그램을 대상으로 하기 때문에 오류 발견 및 장애 위치 파악 및 수정이 어렵다.

 

점진적 통합 방식 : 모듈 단위로 단계적으로 통합하면서 테스트하는 방법으로, 하향식, 상향식, 혼합식 통합 방식이 있다.

오류 수정이 용이하고, 인터페이스와 연관된 오류를 완전히 테스트할 가능성이 높다.

 

2. 하향식 통합 테스트

- 프로그램의 상위 모듈에서 하위 모듈 방향으로 통합하면서 테스트하는 기법이다.

- 주요 제어 모듈을 기준으로 하여 아래 단계로 이동하면서 통합하는데, 이 때 깊이 우선 통합법이나 넓이 우선 통합법을 사용한다.

- 테스트 초기부터 사용자에게 시스템 구조를 보여줄 수 있다.

- 상위 모듈에서는 테스트 케이스를 사용하기 어렵다.

- 하향식 통합 방법 절차

① 주요 제어 모듈은 작성된 프로그램을 사용하고, 주요 제어 모듈의 종속 모듈들은 스텁으로 대체한다.

② 깊이 우선 또는 넓이 우선 등의 통합 방식에 따라 하위 모듈인 스텁들이 한 번에 하나씩 실제 모듈로 교체된다.

③ 모듈이 통합될 때마다 테스트를 실시한다.

④ 새로운 오류가 발생하지 않음을 보증하기 위해 회귀 테스트를 실시한다.

 

3. 상향식 통합 테스트

- 프로그램 하위 모듈에서 상위 모듈 방향으로 통합하면서 테스트하는 기법이다.

- 가장 하위 단계의 모듈부터 통합 및 테스트가 수행디므로 스텁은 필요하지 않지만, 하나의 제어 모듈과 관련된 종속 모듈의 그룹인 클러스가 필요하다.

-상향식 통합 방법 절차

① 하위 모듈들을 클러스터로 결한다.

② 상위 모듈에서 데이터의 입•출력을 확인하기 위해 더미 모듈인 드라이버를 작성한다.

③ 통합된 클러스터 단위로 테스트한다.

④ 테스트가 완료되면 클러스터는 프로그램 구조의 상위로 이동하여 결합하고 드라이버는 실제 모듈로 대체된다.

 

※ 드라이버와 테스트 스텁의 차이점

필요 시기 : 드라이버는 상위 모듈 없이 하위 모듈이 있을 경우 하위모듈 구동에 필요하며,

스텁은 상위 모듈은 있지만 하위 모듈이 없는 경우 하위 모듈 대체한다.

테스트 방식 : 드라이버는 상향식, 스텁은 하향식 테스트

공통점 : 소프트웨어 개발과 테스트를 병행할 경우 이용

차이점 : 드라이버는 이미 존재하는 하위 모듈과 존재하지 않는 상위 모듈간의 인터페이스 역할을 하며, 개발완료되면 드라이버는 본래의 모듈로 교체

반면 스텁은 일시적으로 필요한 조건만을 가지고 임시로 제공되는 가짜 모듈의 역할을 하며, 시험용 모듈이기 때문에 일반적으로 드라이버보다 작성하기 쉽다.

 

4. 혼합식 통합 테스트

- 하위 수준에서는 상향식 통합, 상위 수준에서는 하향식 통합을 사용하여 최적의 테스트를 지원하는 방식으로, 샌드위치식 통합 테스트 방법이라고도 한다.

 

5. 회귀 테스팅

- 이미 테스트된 프로그램의 테스팅을 반복하는 것으로, 통합 테스트로 인해 변경된 모듈이나 컴포넌트에 새로운 오류가 있는지 확인하는 테스트이다.

- 회귀 테스트는 수정한 모듈이나 컴포넌트가 다른 부분에 영향을 미치는지, 오류가 생기지 않았는지 테스트하여 새로운 오류가 발생하지 않음을 보증하기 위해 반복테스트한다.

- 회귀 테스트는 모든 테스트 케이스를 이용해 테스팅하는 것이 가장 좋지만 시간과 비용이 많이 필요하므로 기존 테스트 케이스 중 변경된 부분을 테스트할 수 있는 테스트 케이스만을 선정하여 수행한다.

- 회귀 테스트의 테스트 케이스 선정 방법

- 모든 애플리케이션의 기능을 수행할 수 있는 대표적인 테스트 케이스를 선정한다.

- 애플리케이션 기능 변경에 의한 파급 효과를 분석하여 파급 효과가 높은 부분이 포함된 테스트 케이스를 선정한다.

- 실제 수정이 발생한 모듈 또는 컴포넌트에서 시행하는 테스트 케이스를 선정한다.

  Comments,     Trackbacks
정보처리기사 2과목 소프트웨어 개발 3장 제품 소프트웨어 패키징 요점 정리

3장 제품 소프트웨어 패키징

 

Section 43 디지털 저작권 관리(DRM)

 

1. 저작권의 개요

- 소설, , 논문, 강연, 연술, 음악, 연극, 무용, 회화, 서예, 건축물, 사진, 영상, 지도, 도표, 컴퓨터 프로그램 저작물 등에 대하여 창작자가 가지는 배타적 독점적 권리로 타인의 침해를 받지 않을 고유한 권한이다.

 

- 컴퓨터 프로그램들과 같이 복제하기 쉬운 저작물에 대해 불법 복제 및 배포 등을 막기 위한 기술적인 방법을 통칭해 저작권 보호 기술이라고 한다.

 

2. 디지털 저작권 관리(DRM; Digital Right Management)의 개요

- 디지털 저작권 관리는 저작권자가 배포한 디지털 콘텐츠가 저작권자가 의도한 용도로만 사용되도록 디지털 콘텐츠의 생성, 유동, 이용까지의 전 과정에 걸쳐 사용되는 디지털 콘텐츠 관리 및 보호 기술이다.

- 원본 콘텐츠가 아날로그인 경우에는 디지털로 변환한 후 패키저에 의해 DRM 패키징을 수행한다.

- 콘텐츠의 크기에 따라 음원이나 문서와 같이 크기가 작은 경우에는 사용자가 콘텐츠를 요청하는 시점에서 실시간으로 패키징을 수행하고, 크기가 큰 경우에는 미리 패키징을 수행한 후 배포한다.

- 패키징을 수행하면 콘텐츠에는 암호화된 저작권자의 전자서명이 포함되고 저작권자가 설정한 라이선스 정보가 클리어링 하우스에 등록된다.

- 사용자가 콘텐츠를 사용하기 위해서는 클리어링 하우스에 등록된 라이선스 정보를 통해 사용자 인증과 콘텐츠 사용 권한 소유 여부를 확인받아야 한다.

- 종량제 방식을 적용한 소프트웨어의 경우 클리어링 하우스를 통해 서비스의 실제 사용량을 측정하여 이용한 마큼의 요금을 부여한다.

 

3. 디지털 저작권 관리의 흐름도

- 클리어링 하우스 : 저작권에 대한 사용 권한, 라이선스 발급, 사용량에 따른 결제 관리 등을 수행하는 곳

- 콘텐츠 제공자: 콘텐츠를 제공하는 저작권자

- 패키저: 콘텐츠를 메타 데이터와 함께 배포 가능한 형태로 묶어 암호화 하는 프로그램

- 콘텐츠 분배자 : 암호화된 콘텐츠를 유통하는 곳이나 사람

- 콘텐츠 소비자: 콘텐츠를 구매해서 사용하는 주체

- DRM 컨트롤러 : 배포된 콘텐츠의 이용 권한을 통제하는 프프로그램

- 보안 컨테이너 : 콘텐츠 원본을 안전하게 유통하기 위한 전자적 보안 장치

 

4. 디지털 저작권 관리의 기술 요소

암호화 : 콘텐츠 및 라이선스를 암호화하고 전자 서명을 할 수 있는 기술

키 관리: 콘텐츠를 암호화한 키에 대한 저장 및 분배 기술

암호화 파일 생성: 콤텐츠를 암호화된 콘텐츠로 생성하기 위한 기술

식별 기술: 콘텐츠에 대한 식별 체계 표현 기술

저작권 표현 : 라이선스의 내용 표현 기술

정책 관리: 라이선스 발급 및 사용에 대한 정책 표현 및 관리 기술

크랙 방지 : 크랙에 의한 콘텐츠 사용 방지 기술

인증 : 라이선스 발급 및 사용의 기준이 되는 사용자 인증 기술

 

 

Section 47 소프트웨어 버전 관리 도구

1. 공유 폴더 방식

- 버전관리 자료가 로컬 컴퓨터의 공유 폴더에 저장되어 관리되는 방식이다.

- 개발자들은 개발이 완료된 파일을 약속된 공유 폴더에 매일 복사한다.

- 담당자는 공유 폴더의 파일을 자기 PC로 복사한 후 컴파일 하여 이상 유무를 확인한다.

- 이상 유무 확인 과정에서 파일의 오류가 확인되면, 해당 파일을 등록한 개발자에게 수정을 의뢰한다.

- 파일에 이상이 없다면 다음날 각 개발자들이 동작 여부를 다시 확인한다.

- 파일을 잘못 복사하거나 다른 위치로 복사하는 것에 대비하기 위해 파일의 변경사항을 데이터베이스에 기록하여 관리한다.

- 종류에는 SCSS, RCS, PVCS, QVCS 등이 있다.

 

2. 클라이언트/서버 방식

- 클라이언트/서버 방식은 버전 관리 자료가 중앙 시스템(서버)에 저장되어 관리되는 방식으로, 다음과 같은 특징이 있다.

- 서버의 자료를 개발자별로 자신의 PC(클라이언트)로 복사하여 작업한 후 변경된 내용을 서버에 반영한다.

- 모든 버전 관리는 서버에서 수행된다.

- 하나의 파일을 서로 다른 개발자가 작업할 경우 경고 메시지를 출력한다.

- 서버에 문제가 생기면, 서버가 복구되기 전까지 다른 개발자와의 협업 및 버전 관리 작업은 중단된다.

- 종류에는 CVS, SVN(Subversion), CVSNT, Clear Case, CMVC, Perforce 등이 있다.

 

3. 분산 저장소 방식

- 버전 관리 자료가 하나의 원격 저장소와 분산된 개발자 PC의 로컬 저장소에 함께 저장되어 관리되는 방식이다.

- 개발자별로 원격 저장소의 자료를 자신의 로컬 저장소로 복사하여 작업한 후 변경된 내용을 로컬 저장소에서 우선 반영(버전 관리)한 다음 이를 원격 저장소에 반영한다.

- 로컬 저장소에서 버전 관리가 가능하므로 원격 저장소에 문제가 생겨도 로컬 저장소의 자료를 이용하여 작업 할 수 있다.

- 종류에는 Git, GNU arch, DVCS, Bazzar, Mercurial, TeamWare, Bitkeeper, Plastic SCM 등이 있다.

 

4. Subversion(서브버저, SVN)

- CVS를 개선한 것으로, 아파치 소프트웨어 재단에서 2000년에 발표하였다.

- 클라이언트/서버 구조로, 서버(저장소, Repository)에는 최신 버전의 파일들과 변경 내역이 관리된다.

- 서버의 자료를 클라이언트로 복사해와 작업한 후 변경 내용을 서버에 반영(Commit)한다.

- 모든 개발 작업은 trunk 디렉터리에서 수행되며, 추가 작업은 branches 디렉터리 안에 별도의 디렉터리를 만들어 작업을 완료한 후 trunk 디렉터리와 병합한다.

- 커밋(Commit) 할 때마다 리비전(Revision) 1씩 증가한다.

- 클라이언트는 대부분의 운영체제에서 사용되지만, 서버는 주로 유닉스를 사용한다.

- 소스가 오픈되어 있어 무료로 사용할 수 있다.

- CVS의 단점이었던 파일이나 디렉터리의 이름 변경, 이동 등이 가능하다.

Subversion

명령어

Add : 새로운 파일이나 디렉터리를 버전 관리 대상으로 등록한다.

Add로 등록되지 않은 대상은 commit이 적용되지 않는다.

Commit: 버전 관리 대상으로 등록된 클라이언트의 소스 파일을 서버의 소스 파일에 적용한다.

Update: 서버의 최신 commit 이력을 클라이언트의 소스 파일에 적용한다.

Commit 전에 매번 update를 수행하여 클라이언트에 적용되지 않은 서버의 변동 내역을 클라이언트에 적용한다.

Checkout: 버전 관리 정보와 소스 파일을 서버에 클라이언트로 받아온다.

Lock/unlock: 서버의 소스파일이나 디렉터리를 잠그거나 해제한다.

Import : 아무것도 없는 서버의 저장소에 맨 처음 소스 파일을 저장하는 명령으로, 한 번 사용하면 다시 사용하지 않는다.

Export : 버전 관리에 대한 정보를 제외한 순수한 소스 파일만을 서버에서 받아온다.

Info: 지정한 파일에 대한 위치나 마지막 수정 일자 등에 대한 정보를 표시한다.

Diff: 지정된 파일이나 경로에 대해 이전 리비전과의 차이를 표시한다.

Merge: 다른 디렉터리에서 작업된 버전 관리 내역을 기본 개발 작업과 병합한다.

 

5. Git()

- Git은 리누스 토발즈가 2005년 리눅스 커널 개발에 사용할 관리 도구로 개발한 이후 주니오 하마노에 의해 유지 보수되고 있다.

- Git은 분산 버전 관리 시스템으로 2개의 저장소, 즉 지역 저장소와 원격 저장소가 존재한다.

- 지역 저장소는 개발자들이 실제 개발을 진행하는 장소로, 버전 관리가 수행된다.

- 원격 저장소는 여러 사람들이 협업을 위해 버전을 공동 관리하는 곳으로, 자신의 버전 관리 내역을 반영하거나 다른 개발자의 변경 내용을 가져올 때 사용한다.

- 버전 관리가 지역 저장소에서 진행되므로 버전 관리가 신속하게 처리되고, 원격 저장소나 네트워크에 문제가 있어도 작업이 가능하다.

- 브랜치를 이용하면 기본 버전 관리 틀에 영향을 주지 않으면서 다양한 형태의 기능 테스팅이 가능하다.

- 파일의 변화를 스냅샷으로 저장하는데, 스냅샷은 이전 스냅샷의 포이터를 가지므로 버전의 흐름을 파악할 수 있다.

Git의 주요 명령어

Add : 작업 내영을 지역 저장소에 저장하기 위해 스테이징 영역에 추가한다.

- ‘-all’ 옵션으로 작업 디렉터리의 모든 파일을 스테이징 영역에 추가할 수 있다.

 

Commit: 작업 내역을 지역 저장소에 저장한다.

 

Branch: 새로운 브랜치를 생성한다.

최초로 Commit을 하면 마스터 브랜치가 생성된다.

- commit할 때마다 해당 브랜치는 가장 최근의 commit한 내용을 가리키게 된다.

- ‘-d’옵션으로 브랜치를 삭제할 수 있다.

 

Checkout: 지정한 브랜치로 이동한다.

- 현재 작업 중인 브랜치는 HEAD 포인터가 가리키는데, checkout 명령을 통해 HEAD 포인터를 지정한 브랜치로 이동시킨다.

 

Merge: 지정한 브랜치의 변경 내역을 현재 HEAD 포인터가 가리키는 브랜치에 반영함으로써 두 브랜치를 병합한다.

 

Init: 지역 저장소를 생성한다.

 

Remote Add : 원격 저장소에 연결한다.

 

Push : 로컬 저장소의 변경 내역을 원격 저장소에 반영한다.

 

Fetch : 원격 저장소의 변경 이력만을 지역 저장소로 가져와 반영한다.

 

Clone : 원격 저장소의 전체 내용을 지역 저장소로 복제한다.

 

Fork: 지정한 원격 저장소의 내요을 자신의 원격 저장소로 복제한다.

Section 43 디지털 저작권 관리(DRM)

 

1. 저작권의 개요

- 소설, , 논문, 강연, 연술, 음악, 연극, 무용, 회화, 서예, 건축물, 사진, 영상, 지도, 도표, 컴퓨터 프로그램 저작물 등에 대하여 창작자가 가지는 배타적 독점적 권리로 타인의 침해를 받지 않을 고유한 권한이다.

 

- 컴퓨터 프로그램들과 같이 복제하기 쉬운 저작물에 대해 불법 복제 및 배포 등을 막기 위한 기술적인 방법을 통칭해 저작권 보호 기술이라고 한다.

 

2. 디지털 저작권 관리(DRM; Digital Right Management)의 개요

- 디지털 저작권 관리는 저작권자가 배포한 디지털 콘텐츠가 저작권자가 의도한 용도로만 사용되도록 디지털 콘텐츠의 생성, 유동, 이용까지의 전 과정에 걸쳐 사용되는 디지털 콘텐츠 관리 및 보호 기술이다.

- 원본 콘텐츠가 아날로그인 경우에는 디지털로 변환한 후 패키저에 의해 DRM 패키징을 수행한다.

- 콘텐츠의 크기에 따라 음원이나 문서와 같이 크기가 작은 경우에는 사용자가 콘텐츠를 요청하는 시점에서 실시간으로 패키징을 수행하고, 크기가 큰 경우에는 미리 패키징을 수행한 후 배포한다.

- 패키징을 수행하면 콘텐츠에는 암호화된 저작권자의 전자서명이 포함되고 저작권자가 설정한 라이선스 정보가 클리어링 하우스에 등록된다.

- 사용자가 콘텐츠를 사용하기 위해서는 클리어링 하우스에 등록된 라이선스 정보를 통해 사용자 인증과 콘텐츠 사용 권한 소유 여부를 확인받아야 한다.

- 종량제 방식을 적용한 소프트웨어의 경우 클리어링 하우스를 통해 서비스의 실제 사용량을 측정하여 이용한 마큼의 요금을 부여한다.

 

3. 디지털 저작권 관리의 흐름도

- 클리어링 하우스 : 저작권에 대한 사용 권한, 라이선스 발급, 사용량에 따른 결제 관리 등을 수행하는 곳

- 콘텐츠 제공자: 콘텐츠를 제공하는 저작권자

- 패키저: 콘텐츠를 메타 데이터와 함께 배포 가능한 형태로 묶어 암호화 하는 프로그램

- 콘텐츠 분배자 : 암호화된 콘텐츠를 유통하는 곳이나 사람

- 콘텐츠 소비자: 콘텐츠를 구매해서 사용하는 주체

- DRM 컨트롤러 : 배포된 콘텐츠의 이용 권한을 통제하는 프프로그램

- 보안 컨테이너 : 콘텐츠 원본을 안전하게 유통하기 위한 전자적 보안 장치

 

4. 디지털 저작권 관리의 기술 요소

암호화 : 콘텐츠 및 라이선스를 암호화하고 전자 서명을 할 수 있는 기술

키 관리: 콘텐츠를 암호화한 키에 대한 저장 및 분배 기술

암호화 파일 생성: 콤텐츠를 암호화된 콘텐츠로 생성하기 위한 기술

식별 기술: 콘텐츠에 대한 식별 체계 표현 기술

저작권 표현 : 라이선스의 내용 표현 기술

정책 관리: 라이선스 발급 및 사용에 대한 정책 표현 및 관리 기술

크랙 방지 : 크랙에 의한 콘텐츠 사용 방지 기술

인증 : 라이선스 발급 및 사용의 기준이 되는 사용자 인증 기술

 

 

Section 47 소프트웨어 버전 관리 도구

1. 공유 폴더 방식

- 버전관리 자료가 로컬 컴퓨터의 공유 폴더에 저장되어 관리되는 방식이다.

- 개발자들은 개발이 완료된 파일을 약속된 공유 폴더에 매일 복사한다.

- 담당자는 공유 폴더의 파일을 자기 PC로 복사한 후 컴파일 하여 이상 유무를 확인한다.

- 이상 유무 확인 과정에서 파일의 오류가 확인되면, 해당 파일을 등록한 개발자에게 수정을 의뢰한다.

- 파일에 이상이 없다면 다음날 각 개발자들이 동작 여부를 다시 확인한다.

- 파일을 잘못 복사하거나 다른 위치로 복사하는 것에 대비하기 위해 파일의 변경사항을 데이터베이스에 기록하여 관리한다.

- 종류에는 SCSS, RCS, PVCS, QVCS 등이 있다.

 

2. 클라이언트/서버 방식

- 클라이언트/서버 방식은 버전 관리 자료가 중앙 시스템(서버)에 저장되어 관리되는 방식으로, 다음과 같은 특징이 있다.

- 서버의 자료를 개발자별로 자신의 PC(클라이언트)로 복사하여 작업한 후 변경된 내용을 서버에 반영한다.

- 모든 버전 관리는 서버에서 수행된다.

- 하나의 파일을 서로 다른 개발자가 작업할 경우 경고 메시지를 출력한다.

- 서버에 문제가 생기면, 서버가 복구되기 전까지 다른 개발자와의 협업 및 버전 관리 작업은 중단된다.

- 종류에는 CVS, SVN(Subversion), CVSNT, Clear Case, CMVC, Perforce 등이 있다.

 

3. 분산 저장소 방식

- 버전 관리 자료가 하나의 원격 저장소와 분산된 개발자 PC의 로컬 저장소에 함께 저장되어 관리되는 방식이다.

- 개발자별로 원격 저장소의 자료를 자신의 로컬 저장소로 복사하여 작업한 후 변경된 내용을 로컬 저장소에서 우선 반영(버전 관리)한 다음 이를 원격 저장소에 반영한다.

- 로컬 저장소에서 버전 관리가 가능하므로 원격 저장소에 문제가 생겨도 로컬 저장소의 자료를 이용하여 작업 할 수 있다.

- 종류에는 Git, GNU arch, DVCS, Bazzar, Mercurial, TeamWare, Bitkeeper, Plastic SCM 등이 있다.

 

4. Subversion(서브버저, SVN)

- CVS를 개선한 것으로, 아파치 소프트웨어 재단에서 2000년에 발표하였다.

- 클라이언트/서버 구조로, 서버(저장소, Repository)에는 최신 버전의 파일들과 변경 내역이 관리된다.

- 서버의 자료를 클라이언트로 복사해와 작업한 후 변경 내용을 서버에 반영(Commit)한다.

- 모든 개발 작업은 trunk 디렉터리에서 수행되며, 추가 작업은 branches 디렉터리 안에 별도의 디렉터리를 만들어 작업을 완료한 후 trunk 디렉터리와 병합한다.

- 커밋(Commit) 할 때마다 리비전(Revision) 1씩 증가한다.

- 클라이언트는 대부분의 운영체제에서 사용되지만, 서버는 주로 유닉스를 사용한다.

- 소스가 오픈되어 있어 무료로 사용할 수 있다.

- CVS의 단점이었던 파일이나 디렉터리의 이름 변경, 이동 등이 가능하다.

Subversion

명령어

Add : 새로운 파일이나 디렉터리를 버전 관리 대상으로 등록한다.

Add로 등록되지 않은 대상은 commit이 적용되지 않는다.

Commit: 버전 관리 대상으로 등록된 클라이언트의 소스 파일을 서버의 소스 파일에 적용한다.

Update: 서버의 최신 commit 이력을 클라이언트의 소스 파일에 적용한다.

Commit 전에 매번 update를 수행하여 클라이언트에 적용되지 않은 서버의 변동 내역을 클라이언트에 적용한다.

Checkout: 버전 관리 정보와 소스 파일을 서버에 클라이언트로 받아온다.

Lock/unlock: 서버의 소스파일이나 디렉터리를 잠그거나 해제한다.

Import : 아무것도 없는 서버의 저장소에 맨 처음 소스 파일을 저장하는 명령으로, 한 번 사용하면 다시 사용하지 않는다.

Export : 버전 관리에 대한 정보를 제외한 순수한 소스 파일만을 서버에서 받아온다.

Info: 지정한 파일에 대한 위치나 마지막 수정 일자 등에 대한 정보를 표시한다.

Diff: 지정된 파일이나 경로에 대해 이전 리비전과의 차이를 표시한다.

Merge: 다른 디렉터리에서 작업된 버전 관리 내역을 기본 개발 작업과 병합한다.

 

5. Git()

- Git은 리누스 토발즈가 2005년 리눅스 커널 개발에 사용할 관리 도구로 개발한 이후 주니오 하마노에 의해 유지 보수되고 있다.

- Git은 분산 버전 관리 시스템으로 2개의 저장소, 즉 지역 저장소와 원격 저장소가 존재한다.

- 지역 저장소는 개발자들이 실제 개발을 진행하는 장소로, 버전 관리가 수행된다.

- 원격 저장소는 여러 사람들이 협업을 위해 버전을 공동 관리하는 곳으로, 자신의 버전 관리 내역을 반영하거나 다른 개발자의 변경 내용을 가져올 때 사용한다.

- 버전 관리가 지역 저장소에서 진행되므로 버전 관리가 신속하게 처리되고, 원격 저장소나 네트워크에 문제가 있어도 작업이 가능하다.

- 브랜치를 이용하면 기본 버전 관리 틀에 영향을 주지 않으면서 다양한 형태의 기능 테스팅이 가능하다.

- 파일의 변화를 스냅샷으로 저장하는데, 스냅샷은 이전 스냅샷의 포이터를 가지므로 버전의 흐름을 파악할 수 있다.

Git의 주요 명령어

Add : 작업 내영을 지역 저장소에 저장하기 위해 스테이징 영역에 추가한다.

- ‘-all’ 옵션으로 작업 디렉터리의 모든 파일을 스테이징 영역에 추가할 수 있다.

 

Commit: 작업 내역을 지역 저장소에 저장한다.

 

Branch: 새로운 브랜치를 생성한다.

최초로 Commit을 하면 마스터 브랜치가 생성된다.

- commit할 때마다 해당 브랜치는 가장 최근의 commit한 내용을 가리키게 된다.

- ‘-d’옵션으로 브랜치를 삭제할 수 있다.

 

Checkout: 지정한 브랜치로 이동한다.

- 현재 작업 중인 브랜치는 HEAD 포인터가 가리키는데, checkout 명령을 통해 HEAD 포인터를 지정한 브랜치로 이동시킨다.

 

Merge: 지정한 브랜치의 변경 내역을 현재 HEAD 포인터가 가리키는 브랜치에 반영함으로써 두 브랜치를 병합한다.

 

Init: 지역 저장소를 생성한다.

 

Remote Add : 원격 저장소에 연결한다.

 

Push : 로컬 저장소의 변경 내역을 원격 저장소에 반영한다.

 

Fetch : 원격 저장소의 변경 이력만을 지역 저장소로 가져와 반영한다.

 

Clone : 원격 저장소의 전체 내용을 지역 저장소로 복제한다.

 

Fork: 지정한 원격 저장소의 내요을 자신의 원격 저장소로 복제한다.

  Comments,     Trackbacks
정보처리기사 2과목 소프트웨어 개발 1장 데이터 입·출력 구현 요점 정리

Section34 자료 구조

 

1. 자료 구조의 정의

- 효율적인 프로그램을 작성할 때 가장 우선적인 고려사항은 저장공간의 효율성과 실행시간의 신속성이다. 자료 구조는 프로그램에서 사용하기 위한 자료를 기억장치의 공간 내에 저장하는 방법과 저장된 그룹 내에서 존재하는 자료 간의 관계, 처리 방법 등을 연구 분석하는 것을 말한다.

 

- 자료 구조는 자료의 표현과 그것과 관련된 연산이다.

- 자료 구조는 일련의 자료들을 조직하고 구조화하는 것이다.

- 어떠한 자료 구조에서도 필요한 모든 연산들을 처리할 수 있다.

- 자료 구조에 따라 프로그램 실행시간이 달라진다.

 

2. 자료 구조의 분류

선형 구조 : 배열, 선형 리스트(연속, 연결리스트), 스택, , 데크

비선형 구조:  트리, 그래프

 

3. 배열

- 배열은 동일한 자료형의 데이터들이 같은 크기로 나열되어 순서를 갖고 있는 집합이다.

- 배열은 정적인 자료구조로 기억장소의 추가가 어렵고, 데이터 삭제 시 데이터가 저장되어 있던 기억장소는 빈 공간으로 남아있어 메모리의 낭비가 심하다.

- 배열은 점자를 이요하여 데이터에 접근한다.

- 배열은 반복적인 데이터 처리 작업에 적합한 구조이다.

- 배열은 데이터마다 동일한 이름의 변수를 사용하여 처리가 간편하다.

- 배열은 사용한 첨자의 개수에 따라 n차원 배열이라고 부른다.

 

4. 선형 리스트

- 일정한 순서에 의해 나열된 자료 구조이다.

- 선형 리스트는 배열을 이용하는 연속 리스트와 포인터를 이용하는 연결 리스트로 구분된다.

연속 리스트

- 배열과 같이 연속되는 기억장소에 저장되는 자료 구조이다.

- 기억장소를 연속적으로 배정받기 때문에 기억장소 이용 효율은 밀도가 1로서 가장 좋다.

- 중간에 데이터를 삽입하기 위해서는 연속된 빈 공간이 있어야 하며, 삽입•삭제 시 자료의 이동이 필요하다.

 

연결리스트

- 자료들을 반드시 연속적으로 배열시키지는 않고 임의의 기억공간에 기억시키되, 자료 항목의 순서에 따라 노드의 포인터 부분을 이용하여 서로 연결시킨 자료 구조이다.

- 노드의 삽입•삭제 작업이 용이하다.

- 기억 공간이 연속적으로 놓여 있지 않아도 저장할 수 있다.

- 연결 리스트는 연결을 위한 링크 부분이 필요하기 때문에 순차 리스트에 비해 기억 공간의 이용 효율이 좋지 않다.

- 연결 리스트는 연결을 위한 포인터를 찾는 시간이 필요하기 때문에 접근 속도가 느리다.

- 연결 리스트는 중간 노드 연결이 끊어지면 그 다음 노드를 찾기 힘들다.

 

5. 스택

- 리스트의 한쪽 끝으로만 자료 삽입, 삭제 작업이 이루어지는 자료 구조이다.

- 가장 나중에 삽입된 자료가 가장 먼저 삭제되는 후입선출(LIFO: Last In First Out)방식으로 자료를 처리한다.

- 모든 기억 공간이 꽉 채워져 있는 상태에서 데이터가 삽입되면 오버플로(Overflow)가 발생하며, 더 이상 삭제할 데이터가 없는 상태에서 데이터를 삭제하면 언더플로(Underflow)가 발생한다.

 

6. 

- 리스트의 한쪽에서는 삽입 작업이 이루어지고 다른 한쪽에서는 삭제 작업이 이루어지도록 구성한 자료 구조이다.

- 가장 먼저 삽입된 자료가 가장 먼저 삭제되는 선입선출(First In First Out)방식으로 처리한다.

- 큐는 시작과 끝을 표시하는 두 개의 포인터가 있다.

- 프런트(F, Front) 포인터: 가장 먼저 삽입된 자료의 기억 공간을 가리키는 포인터로, 삭제 작업을 할 때 사용한다.

- 리어(R, Rear) 포인터: 가장 마지막에 삽입된 자료의 기억 공간을 가리키는 포인터로, 삽입 작업을 할 때 사용한다.

- 큐는 운영체제의 작업 스케줄링에 사용한다.

 

7. 트리

- 정점(Node, 노드)와 선분(Branch, 가지)을 이용하여 사이클을 이루지 않도록 구성한 그래프의 특수한 형태이다.

- 트리는 하나의 기억 공간을 노드라고 하ㅕ, 노드와 노드를 연결하는 선을 링크라고 한다.

- 트리는 가족의 계보, 조직도 등을 표현하기에 적합하다.

트리 관련 용어

- 노드 : 트리의 기본 요소로서 자료 항목과 다른 항목에 대한 가지를 합친 것

- 근 노드(Root Node) : 트리의 맨 위에 있는 노드

- 디그리(Degree, 차수): 각 노드에서 뻗어 나온 가지의 수

- 단말 노드(Terminal Node) :자식이 하나도 ㅇ벗는 녿, 즉 디그리가 0인 노드

- 자식 노드(Son Node): 어떤 노드에 연결된 다음 레벨의 노드들

- 부모 노드(Parent Node): 어떤 노드에 연결된 이전 레벨의 노드들

- 형제 노드(Brother Node, Sibling): 동일한 부모를 갖는 노드들

- 트리의 디그리: 노드들의 디그리 중에서 가장 많은 수

 

Section 35 데이터저장소/ 데이터베이스 / DBMS

1. 데이터저장소

- 소프트웨어 개발 과정에서 다루어야 할 데이터들을 논리적인 구조로 조직화하거나, 물리적인 공간에 구축한 것을 의미한다.

- 데이터저장소는 논리 데이터저장소와 물리 데이터저장소로 구분된다.

- 논리 데이터저장소는 데이터 및 데이터 간의 연관성, 제약조건을 식별하여 논리적인 구조로 조직화한 것을 의미한다.

- 물리 데이터저장소는 논리 데이터저장소에 저장된 데이터와 구조들을 소프트웨어가 운용될 환경의 물리적 특성을 고려하여 하드웨어적인 저장장치에 저장한 것을 의미한다.

- 논리 데이터저장소를 거쳐 물리 데이터저장소를 구축하는 과정은 데이터베이스를 구축하는 과정과 동일하다.

 

2. 데이터베이스

- 특정 조직의 업무를 수행하는 데 필요한 상호 관련된 데이터들의 모임으로 다음과 같이 정의

통합된 데이터(Integrated Data): 자료의 중복을 배제한 데이터의 모임이다.

저장된 데이터(Stored Data): 컴퓨터가 접근할 수 있는 저장 매체에 저장된 자료이다.

운영 데이터(Operational Data): 조직의 고유한 업무를 수행하는 데 존재 가치가 확실하고 없어서는 안 될 반드시 필요한 자료이다.

공용 데이터(Shared Data): 여러 응용 시스템들이 공동으로 소유하고 유지하는 자료이다.

 

3. DBMS(Database Management System; 데이터베이스 관리 시스템)

- 사용자와 데이터베이스 사이에서 사용자의 요구에 따라 정보를 생성해주고, 데이터베이스를 관리해 주는 소프트웨어이다.

- DBMS는 기존의 파일 시스템이 갖는 데이터의 종속성과 중복성의 문제를 해결하기 위해 제안된 시스템으로, 모든 응용 프로그램들이 데이터베이스를 공용할 수 있도록 관리해 준다.

- DBMS는 데이터베이스의 구성, 접근 방법, 유지관리에 대한 모든 책임을 진다.

- DBMS의 필수 기능에는 정의(Definition), 조작(Manipulation), 제어(Control) 기능이 있다.

정의 기능: 모든 응용 프로그램들이 요구하는 데이터 구조를 지원하기 위해 데이터베이스에 저장될 데이터의 형과 구조에 대한 정의, 이용 방식, 제약 조건 등을 명시하는 기능이다.

조작 기능: 데이터 검색, 갱신, 삽입, 삭제 등을 체계적으로 처리하기 위해 사용자와 데이터베이스 사이의 인터페이스 수단을 제공하는 기능이다.

제어 기능: 데이터베이스를 접근하는 갱신, 삽입, 삭제 작업이 정확하게 수행되어 데이터의 무결성이 유지되도록 제어해야 한다.

- 정당한 사용자가 허가된 데이터만 접근할 수 있도록 보안을 유지하고 권한을 검사할 수 있어야 한다.

- 여러 사용자가 데이터베이스를 동시에 접근하여 데이터를 처리할 때 처리결과가 항상 정확성을 유지하도록 병행 제어를 할 수 있어야 한다.

 

4. DBMS의 장단점

장점

- 데이터의 논리적, 물리적 독립성이 보장된다.

- 데이터의 중복을 피할 수 있어 기억 공간이 절약된다.

- 저장된 자료를 공동으로 이용할 수 있다.

- 데이터의 일관성을 유지할 수 있다.

- 데이터의 무결성을 유지할 수 있다.

- 보안을 유지할 수 있다.

- 데이터를 표준화 할 수 있다.

- 데이터를 통합하여 관리할 수 있다.

- 항상 최신 데이터를 유지한다.

- 데이터의 실시간 처리가 가능하다.

 

단점

- 데이터베이스 전문가가 부족하다.

- 전산화 비용이 증가한다.

- 대용량 디스크로의 집중적인 Access로 과부하가 발생한다.

- 파일의 예비와 회복이 어렵다.

- 시스템이 복잡하다.

 

※ 데이터의 독립성

- 종속성에 대비되는 말로 DBMS의 궁극적 목표이기도 하다. 데이터 독립성에는 논리적 독립성과 물리적 독립성이 있다.

논리적 독립성 : 응용 프로그램과 데이터베이스를 독립시킴으로써, 데이터의 논리적 구조를 변경시키더라도 응용 프로그램은 변경되지 않는다.

 

물리적 독립성 : 응용 프로그램과 보조기억장치 같은 물리적 장치를 독립시킴으로써, 데이터베이스 시스템의 성능 향상을 위해 새로운 디스크를 도입하더라도 응용 프로그램에는 영향을 주지 않고 데이터의 물리적 구조만을 변경한다.

  Comments,     Trackbacks
정보처리기사 1과목 소프트웨어 설계 3장 애플리케이션 설계 요점 정리

Section20 소프트웨어 아키텍처

1. 소프트웨어 아키텍처의 설계

- 소프트웨어 아키텍처는 소프트웨어의 골격이 되는 기본 구조이자, 소프트웨어를 구성하는 요소들 간의 관계를 표현하는 시스템의 구조 또는 구조체이다.

- 소프트웨어 개발 시 적용되는 원칙과 지침이며, 이해 관계자들의 의사소통 도구로 활용된다.

- 소프트웨어 아키텍처의 설게는 기본적으로 좋은 품질을 유지하면서 사용자의 비기능적 요구사항으로 나타난 제약을 반영하고, 기능적 요구사항을 구현하는 방법을 찾는 해결 과정이다.

- 애플리케이션의 분할 방법과 분할된 모듈에 할당될 기능, 모듈 간의 인터페이스 등을 결정한다.

- 소프트웨어 아키텍처 설계의 기본 원리로는 모듈화, 추상화, 단계적 분해, 정보은닉이 있다.

 

2. 모듈화(Modularity)

- 모듈화란 소프트웨어의 성능을 향상시키거나 시스템의 수정 및 재사용, 유지 관리 등이 용이하도록 시스템의 기능들을 모듈 단위로 나누는 것을 의미한다.

- 자주 상요되는 계산식이나 사용자 인증과 같은 기능들을 공통 모듈로 구성하여 프로젝트의 재사용성을 향상시킬 수 있다.

- 모듈의 크기를 너무 작게 나누면 개수가 많아져 모듈 간의 통합 비용이 많이 들고, 너무 크게 나누면 개수가 적어 통합 비용은 적게 들지만 모듈 하나의 개발 비용이 너무 askg이 든다.

 

3. 추상화

- 문제의 전체적이고 포괄적인 개념을 설계한 후 차레로 세분화하여 구체화시켜 나가는 것이다.

- 인간이 복잡한 문제를 다룰 때 가장 기본적으로 사용하는 방법으로, 완전한 시스템을 구축하기 전에 그 시스템과 유사한 모델을 만들어서 여러 가지 요인들을 테스트 할 수 있다.

- 추상화는 최소의 비용으로 실제 상황에 대처할 수 있고, 시스템의 구조 및 구성을 대략적으로 파악할 수 있게 해준다.

추상화의 유형

과정 추상화 : 자세한 수행 과정을 정의하지 않고, 전반적인 흐름만 파악할 수 있게 설계하는 방법

데이터 추상화 : 데이터의 세부적인 속성이나 용도를 정의하지 않고, 데이터 구조를 대표할 수 있는 표현으로 대체하는 방법

제어 추상화 : 이벤트 발생의 정확한 절차나 방법을 정의하지 않고, 대표할 수 있는 표현으로 대체하는 방법

 

4. 단계적 분해

- Niklaus Wirth에 의해 제안된 하향식 설계 전략으로, 문제를 상위의 중요 개념으로부터 하위의 개념으로 구체화시키는 분할 기법이다.

- 추상화의 반복에 의해 세분화된다.

- 소프트웨어의 기능에서부터 시작하여 점차적으로 구체화하고, 알고리즘, 자료 구조 등 상세한 내역은 가능한 한 뒤로 미루어 진행한다.

 

5. 정보 은닉

- 한 모듈 내부에서 포함된 절차와 자료들의 정보가 감추어져 다른 모듈이 접근하거나 변경하지 못하도록 하는 기법이다.

- 어떤 모듈이 소프트웨어 기능을 수행하는데 반드시 필요한 기능이 있어 정보 은닉된 모듈과 커뮤니케이션할 필요가 있을 때는 필요한 정보만 인터페이스를 통해 주고 받는다.

- 정보 은닉을 통해 모듈을 독립적으로 수행할 수 있고, 하나의 모듈이 변경되더라도 다른 모듈에 영향을 주지 않으므로 수정, 시험, 유지보수가 용이하다.

 

6. 소프트웨어 아키텍처의 품질 속성

- 소프트웨어 아키텍처가 이해 관계자들이 요구하는 수준의 품질을 유지 및 보장할 수 있게 설계되었는지를 확인하기 위해 품질 평가 요소들을 시스템 측면, 비즈니스 측면, 아키텍처 측면으로 구분하여 구체화시켜 놓은 것이다.

시스템 측면

성능 : 사용자의 요청과 같은 이벤트가 발생했을 때, 이를 적절하고 빠르게 처리하는 것이다.

보안 : 허용되지 않은 접근을 막고, 허용된 접근에는 적절한 서비스를 제공하는 것이다.

가용성 : 장애 없이 정상적으로 서비스를 제공하는 것이다.

기능성 : 사용자가 요구한 기능을 만족스럽게 구현하는 것이다.

사용성 : 사용자가 소프트웨어를 사용하는데 헤메지 않도록 명확하고 편리하게 구현하는 것이다.

변경 용이성 : 소프트웨어가 처음 설께 목표와 다른 하드웨어나 플랫폼에서도 동작할 수 있도록 구현하는 것이다.

확장성 : 시스템의 용량, 처리능력 등을 확장시켰을 때 이를 효과적으로 활용할 수 있도록 구현하는 것이다.

기타 속성: 테스트 용이성, 배치성, 안정성 등이 있다.

비즈니스 측면

시장 적시성 : 정해진 시간에 맞춰 프로그램을 출시하는 것이다.

비용과 혜택 : 개발 비용을 더 투자하여 유연성이 높은 아키텍처를 만들 것인지를 결정하는 것이다.

유연성이 떨어지는 경우 유지보수에 많은 비용이 소모될 수 있다는 것을 고려해야 한다.

예상 시스템 수명 : 시스템을 얼마나 오랫동안 사용할 것인지를 고려하는 것이다.

수명이 길어야 한다면 시스템의 품질의 변경 용이성’, ‘확장성을 중요하게 고려해야 한다.

기타 속성 : 목표 시장, 공개 일정, 기존 시스템과의 통합 등이 있다.

 

아키텍처 측면

개념적 무결성 : 전체 시스템과 시스템을 이루는 구성요소들 간의 일관성을 유지하는 것이다.

정확성, 완결성 : 요구사항과 요구사항을 구현하기 위해 발생하는 제약사항들을 모두 충족시키는 것이다.

구축 가능성 : 모듈 단위로 구분된 시스템을 적절하게 분배하여 유연하게 일정을 변경할 수 있도록 하는 것이다.

기타 속성 : 변경성, 시험성, 적응성, 일치성, 대체성 등이 있다.

 

7. 소프트웨어 아키텍처 설계 과정

- 아키텍처의 설계 과정은 설계 목표 설정 => 시스템 타입 결정 => 아키텍처 패턴 적용 => 서브시스템 구체화 => 검토 순으로 진행된다.

 설계 목표 설정 : 시스템 개발 방향을 명확히 하기 위해 설계에 옇양을 주는 비즈니스 목표, 우선순위 등의 요구사항을 분석하여 전체 시스템의 설계 목표를 설정한다.

 

 시스템 타입 결정 : 시스템과 서브시스템의 타입을 결정하고, 설계 목표와 함께 고려하여 아키텍처 패턴을 선택한다.

 

 아키텍처 패턴 적용 : 아키텍처 패턴을 참조하여 시스템의 표준 아키텍처를 설계한다.

 서브시스템 구체화 : 서브시스템의 기능 및 서브시스템 간의 상호작용을 위한 동작과 인터페이스를 정의한다.

 

 검토 : 아키텍처가 설계 목표에 부합하는지, 요구사항이 잘 반영되었는지, 설계의 기본 원리를 만족하는지 등을 검토한다.

 

Section21 아키텍처 패턴

1. 아키텍처 패턴의 개요

- 아키텍처 패턴은 아키텍처를 설계할 때 참조할 수 있는 전형적인 해결 방식 또는 예제를 의미한다.

- 아키텍처 패턴은 소프트웨어 시스템의 구조를 구성하기 위한 기본적인 윤곽을 제시한다.

- 아키텍처 패턴은 서브시스템들과 그 역할이 정의되어 있으며, 서브시스템 사이의 관게와 여러 규칙, 지침 등이 포함되어 있다.

- 아키텍처 패턴을 아키텍처 스타일 또는 표준 아키텍처라고도 한다.

 

아키텍처 패턴의 장점

- 시행착오를 줄여 개발 시간을 단축시키고, 고품질의 소프트웨어를 생산할 수 있다.

- 검증된 구조로 개발하기 때문에 안정적인 개발이 가능하다.

- 이해관계자들이 공통된 아키텍처를 공유할 수 있어 의사소통이 간편해진다.

- 시스템의 구조를 이해하는 것이 쉬워 개발에 참여하지 않는 사람도 손쉽게 유지보수를 수행할 수 있다.

- 시스템의 특성을 개발 전에 예측하는 것이 가능해진다.

- 패턴 종류에는 레이어 패턴, 클라이언트-서버 패턴, 파이프-필터 패턴, 모델--컨트롤러 패턴 등이 있다.

 

2. 레이어 패턴

- 시스템을 계층으로 구분하여 구성하는 고전적인 방법 중 하나다.

- 레이어 패턴은 각각의 서브시스템들이 계층 구조를 이루며, 상위 계층은 하위 계층에 대한 서비스 제공자가 되고, 하위 계층은 상위 계층의 클라이언트가 된다.

- 서로 마주보는 두 개의 계층 사이에서만 상호작용이 이뤄지며, 변경 사항을 적용할 때도 서로 마주보는 두 개의 계층에만 영향을 미치므로 변경 작업이 용이하다.

- 레이어 패턴은 특정 계층만을 교체해 시스템을 개선하는 것이 가능하다.

- 대표적으로 OSI 참조 모델이 있다.

 

3. 클라이언트-서버 패턴

- 클라이언트 서버 패턴은 하나의 서버 컴포넌트와 다수의 클라이언트 컴포넌트로 구성되는 패턴이다.

- 클라이언트-서버 패턴에서 사용자는 클라이언트와 의사소통을 한다. 즉 사용자가 클라이언트를 통해 서버에 요청하고 클라잉너트가 응답을 받아 사용자에게 제공하는 방식으로 서비스를 제공한다.

- 서버는 클라이언트의 요청에 대비해 항상 대기 상태를 유지해야 한다.

- 클라이언트나 서버는 요청과 응답을 받기 위해 동기화 되는 경우를 제외하고는 서로 독립적이다.

 

4. 파이프-필터 패턴

- 데이터 스트림 절차의 각 단계를 필터 컴포넌트로 캡슐화하여 파이프를 통해 데이터를 전송하는 패턴이다.

- 필터 컴포넌트는 재사용성이 좋고, 추가가 쉬워 확장이 용이하다.

- 필터 컴포넌트들을 재배치하여 다양한 파이프라인을 구축하는 것이 가능하다.

- 파이프-필터 패턴은 데이터 변화, 버퍼링, 동기화 등에 주로 사용된다.

- 대표적으로  UNIX의 쉘이 있다.

 

5. 모델--컨트롤러 패턴

- 서브시스템을 3개의 부분으로 구조화하는 패턴이며, 각 부분의 역할은 다음과 같다

- 모델 : 서브시스템의 핵심 기능과 데이터를 보관한다.

-  : 사용자에게 정보를 표시한다.

- 컨트롤러 : 사용자로부터 받은 입력을 처리한다.

- 각 부분은 별도의 컴포넌트로 분리되어 있어, 서로 영향을 받지않고 개발 작업을 수행할 수 있다.

- 여러 개의 뷰를 만들 수 있으므로 한 개의 모델에 대해 여러 뷰를 필요로 하는 대화형 애플리케이션에 적합하다.

 

6. 기타 패턴

마스터-슬레이브 패턴

- 마스터 컴포넌트에서 슬레이브 컴포넌트로 작업을 분할한 후, 슬레이브 컴포넌트에서 처리된 결과물을 다시 돌려받는 방식으로 작업을 수행하는 패턴이다.

- 마스터 컴포넌트는 모든 작업의 주체이고, 슬레이브 컴포넌트는 마스터 컴포넌트의 지시에 따라 작업을 수행하여 결과를 반환한다.

- 장애 허용 시스템과 병렬 컴퓨팅 시스템에서 주로 활용된다.

 

브로커-패턴

- 사용자가 원하는 서비스와 특성을 브로커 컴포넌트에 요청하면 브로커 컴포넌트가 요청에 맞는 컴포넌트와 사용자를 연결해준다.

- 원격 서비스 호출에 응답하는 컴포넌트들이 여러 개 있을 때 적합한 패턴이다.

- 분산 환경 시스템에서 주로 활용된다.

피어-투피어 패턴

- 피어를 하나의 컴포넌트로 간주하며, 각 피어는 서비스를 호출하는 클라이언트가 될 수도, 서비스를 제공하는 서버가 될 수도 있는 패턴이다.

- 피어-투피어- 패턴에서 클라이언트와 서버는 전형적인 멀티스레딩 방식을 사용한다.

 

이벤트-버스 패턴

- 소스가 특정 채널에 이벤트 메시지를 발행하면, 해당 채널을 구독한 리스너들이 메시지를 받아 이벤트를 처리하는 방식이다.

- 4가지 주요 컴포넌트(이벤트를 생성하는 소스, 수행하는 리스너, 통로인 채널, 채널들을 관리하는 버스)

 

블랙보드 패턴

- 모든 컴포넌트들이 공유 데이터 저장소와 블랙보드 컴포넌트에 접근이 가능한 형태로,

컴포넌트들은 검색을 통해 블랙보드에서 원하는 데이터를 찾을 수 있다.

- 해결책이 명확하지 않은 문제를 처리하는데 유용한 패턴이다.

- 음성 인식, 차량 식별, 신호 해석 등에 주로 활용된다.

 

인터프리터 패턴

- 프로그램 코드의 각 라인을 수행하는 방법을 지정하고, 기호마다 클래스를 갖도록 구성된다.

- 특정 언어로 작성된 프로그램 코드를 해석하는 컴포넌트를 설계할 때 사용되어진다.

 

Section 22 객체지향

1. 객체지향의 개요

- 현실 세계의 객체(Entity)를 기계의 부품 처럼 하나의 객체(Object)로 만들어, 기계적인 부품들을 조립하여 제품을 만들듯이 소프트웨얼르 개발할 때에도 객체들을 조립해서 작성할 수 있는 기법을 말한다.

- 구조적 기법의 문제점으로 인한 소프트웨어 위기의 해결책으로 채택되어 사용되고 있다.

- 소프트웨어의 재사용 및 확장이 용이하며, 고품질의 소프트웨어를 빠르게 개발할 수 있고 유지보수가 쉽다.

- 복잡한 구조를 단계적, 계층적으로 표현하고, 멀티미디어 데이터 및 병렬처리를 지원한다.

- 현실 세계를 모형화하므로 사용자와 개발자가 쉽게 이해할 수 있다.

- 주요 구성과 개념에는, 객체, 클래스, 캡슐화, 상속, 다형성이 있다.

 

2. 객체(Object)

- 데이터와 데이터를 처리하는 함수를 묶어 놓은(캡슐화한) 하나의 소프트웨어 모듈이다.

데이터 : 객체가 가지고 있는 정보로 속성이나 상태, 분류 등을 나타낸다.

- 속성, 상태, 변수, 상수, 자료 구조라고도 한다.

함수 : 객체가 수행하는 기능으로 객체가 갖는 데이터를 처리하는 알고리즘이다.

- 객체의 상태를 참조하거나 변경하는 수단이 되는 것으로 메소드, 서비스, 동작, 연산이라고도 한다.

 

객체의 특성

- 객체는 독립적으로 식별 가능한 이름을 가지고 있다.

- 객체가 가질 수 있는 조건을 상태라고 하는데, 일반적으로 상태는 시간에 따라 변한다.

- 객체와 객체는 상호연관성에 의한 관계가 형성된다.

- 객체가 반응할 수 있는 메시지의 집합을 행위라고 하며, 객체는 행위의 특징을 나타낼 수 있다.

- 객체는 일정한 기억장소를 갖고 있다.

- 객체의 메소드는 다른 객체로부터 메시지를 받았을 때 정해진 기능을 수행한다.

 

3. 클래스

- 공통된 속성과 연산을 갖는 객체의 집합으로, 객체의 일반적인 타입을 의미한다.

- 각각의 객체들이 갖는 속성와 연산을 정의하고 있는 틀이다.

- 클래스에 속한 각각의 객체를 인스턴스라고 하며, 클래스로부터 새로운 객체를 생성하는 것을 인스턴스화라고 한다.

- 동일 클래스에 속한 각각의 객체들은 공통된 속성와 행위를 가지고 있으면서, 그 속성에 대한 정보가 서로 달라 동일 기능을 하는 여러 가지 객체를 나타내게 된다.

- 최상위 클래스는 상위 클래스를 갖지 않는 클래스를 의미한다.

- 슈퍼 클래스는 특정 클래스의 상위 클래스이고, 서브 클래스는 특정 클래스의 하위 클래스를 의미한다.

 

4. 캡슐화

- 데이터와 데이터를 처리하는 함수를 하나로 묶는 것을 의미한다.

- 캡슐화된 객체는 인터페이스를 제외한 세부 내용이 은폐(정보 은닉)되어 외부에서의 접근이 제한적이기 때문에 외부 모듈의 변경으로 인한 파급 효과가 적다.

- 캡슐화된 객체들은 재사용이 용이하다.

- 객체들 간의 메시지를 주고 받을 때 상대 객체의 세부 내용은 알 필요가 없으므로 인터페이스가 단순해지고, 객체간의 결합도가 낮아진다.

 

5. 상속

- 이미 정의된 상위 클래스의 모든 속성과 연산을 하위 클래스가 물려받는 것이다.

- 상속을 이용함녀 하위 클래스는 상위 클래스의 모든 속성과 연산을 자신의 클래스 내에서 다시 정의하지 않고서도 즉시 자신의 속성으로 사용할 수 있다.

- 하위 클래스는 상위 클래스로부터 상속받은 속성와 연산 외에 새로운 속성와 연산을 첨가하여 사용할 수 있다.

- 상위 클래스의 속성과 연산을 하위 클래스가 사용할 수 있기 때문에 객체와 클래스의 재사용, 소프트웨어의 재사용을 높이는 중요한 개념이다.

- 다중 상속 : 한 개의 클래스가 두 개 이상의 상위 클래스로부터 속성와 연산을 상속받는 것이다.

 

6. 다형성

- 다형성은 메시지에 의해 객체가 연산을 수행하게 될 때 하나의 메시지에 대해 각각의 객체가 가지고 있는 고유한 방법으로 응답할 수 있는 능력을 의미한다.

 

- 객체들은 동일한 메소드명을 사용하며 같은 의미의 응답을 한다.

- 응용 프로그램 상에서 하나의 함수나 연산자가 두 개 이상의 서로 다른 클래스의 인스턴스들은 같은 클래스에 속한 인스턴스처럼 수행할 수 있도록 하는 것이다.

 

Section23 모듈

1. 모듈의 개요

- 모듈은 모듈화를 통해 분리된 시스템의 각 기능들로, 서브루틴, 서브시스템, 소프트웨어 내의 프로그램, 작업 단위 등과 같은 의미로 사용된다.

- 모듈은 단독으로 컴파일이 가능하며, 재사용 할 수 있다.

- 모듈의 기능적 독립성은 소프트웨어를 구성하는 각 모듈의 기능이 서로 독립됨을 의미하는 것으로, 모듈이 하나의 기능만을 수행하고 다른 모듈과의 과도한 상호작용을 배제함으로써 이루어진다.

- 독립성이 높은 모듈일수록 모듈을 수정하더라도 다른 모듈들에게는 거의 영향을 미치지 않으며, 오류가 발생해도 쉽게 발견하고 해결할 수 있다.

- 모듈의 독ㄹ비성은 결합도와 응집도에 의해 측정되며, 독립성을 높이려면 모듈의 결합도는 약하게, 응지도는 강하게, 모듈의 크기는 작게 만들어야 한다.

 

2. 결합도

- 모듈 간에 상호 의존하는 정도 또는 두 모듈 사이의 연관 관계를 의미한다.

- 다양한 결합으로 모듈을 구성할 수 있으나 결합도가 약할수록 품질이 높고, 강할수록 품질이 낮다.

- 결합도가 강하면 시스템 구현 및 유지보수 작업이 어렵다.

- 결합도의 종류에는 자료 결합도, 스탬프 결합도, 제어 결합도, 외부 결합도, 공통 결합도, 내용 결합도가 있으며 결합도의 정도는 다음과 같다.

 

자료결합도

- 모듈 간의 인터페이스가 자료 요소로만 구성될 때의 결합도이다.

- 어떤 모듈이 다른 모듈을 호출하면서 매개 변수나 인수로 데이털르 넘겨주고,

호출 받은 모듈은 받은 데이터에 대한 처리 결과를 다시 돌려주는 방식이다.

- 모듈 간의 내용을 전혀 알 필요가 없는 상태로서 한 모듈의 내용을 변경하더라도 다른 모듈에는 전혀 영향을 미치지 않는 가장 바람직한 결합도이다.

 

스탬프(검인) 결합도

- 모듈 간의 인터페이스로 배열이나 레코드 등의 자료구조가 전달될 때의 결합도이다.

- 두 모듈이 동일한 자료 구졸르 조회하는 경우의 결합도이며, 자료 구조의 어떠한 변화, 즉 포맷이나 구조의 변화는 그것을 조회하는 모든 모듈 및 변화되는 필드를 실제로 조회하지 않는 모듈에까지도 영향을 미치게 된다.

 

제어 결합도

- 어떤 모듈이 다른 모듈 내부의 논리적인 흐름을 제어하기 위해 제어 신호를 이요하여 통신하거나 제어 요소를 전달하는 결합도이다.

- 한 모듈이 다른 모듈의 상세한 처리 절차를 알고 있어 이를 통제하는 경우나 처리 기능이 두 모듈에 분리되어 설계된 경우에 발생한다.

-  하위 모듈에서 상위 모듈로 제어 신호가 이동하여 하위 모듈이 상위 모듈에게 처리 명령을 내리는 권리 전도현상이 발생하게 된다.

 

외부 결합도

- 어떤 모듈에서 선언한 데이터를 외부의 다른 모듈에서 참조할 때의 결합도이다.

- 참조되는 데이터의 범위를 각 모듈에서 제한할 수 있다.

 

공통 결합도

- 공유되는 공통 데이터 영역을 여러 모듈이 사용할 때의 결합도이다.

- 공통 데이터 영역의 내용을 조금만 변경하더라도 이를 사용하는 모든 모듈에 영향을 미치므로 모듈의 독립성을 약하게 만든다.

 

내용 결합도

- 한 모듈이 다른 모듈의 내부 기능 및 그 내부 자료를 직접 참조하거나 수정할 때의 결합도이다.

- 한 모듈에서 다른 모듈의 내부로 제어가 이동하는 경우에도 내용 결합도에 해당된다.

 

3. 응집도

- 정보 은닉 개념을 확장한 것으로, 명령어나 호출문 등 모듈의 내부 요소들은 서로 관련되어 있는 정도, 즉 모듈이 독립적인 기능으로 정의되어 있는 정도를 의미한다.

- 다양한 기준으로 모듈을 구성할 수 있으나, 응집도가 강할수록 품질이 높고, 약할수록 품질이 낮다.

- 응집도 종류에는 기능적 응집도, 순차적 응집도, 교환적 응집도, 절차적 응집도, 시간적 응집도, 논리적 응집도, 우연적 응집도가 있다.

 

기능적 응집도

- 모듈 내부의 모든 기능 요소들이 단일 문제와 연관되어 수행될 경우의 응집도

 

순차적 응집도

- 모듈 내 하나의 활동으로부터 나온 출력 데이터를 그 당므 활동의 입력 데이터로 사용할 경우의 응집도

 

교환(통신)적 응집도

- 동일한 입력과 출력을 사용하여 서로 다른 기능을 수행하는 구성 요소들이 모였을 경우의 응집도

 

절차적 응집도

- 모듈이 다수의 관련 기능을 가질 때 모듈 안의 구성 요소들이 그 기능을 순차적으로 수행할 경우의 응집도

 

시간적 응집도

- 특정 시간에 처리되는 몇 개의 기능을 모아 하나의 모듈로 작성할 경우의 응집도

 

논리적 응집도

- 유사한 성격을 갖거나 특정 형태로 분류되는 처리 요소들로 하나의 모듈이 형성되는 경우의 응집도

 

우연적 응집도

- 모듈 내부의 각 구성 요소들이 서로 관련 없는 요소로만 구성된 경우의 응집도

 

4. 팬인(Fan-In) / 팬아웃(Fan-Out)

- 팬인은 어떤 모듈을 제어하는 모듈의 수를 나타낸다.

- 팬아웃은 어떤 모듈에 의해 제어되는 모듈의 수를 나타낸다.

- 팬인과 팬아웃을 분석하여 시스템의 복잡도를 알 수 있다.

- 팬인이 높다는 것은 재사용 측면에서 설계가 잘 되어있다고 볼 수 있으나, 단일 장애점이 발생할 수 있으므로 중점적인 관리 및 테스트가 필요하다.

- 팬아웃이 높을 경우 불필요하게 다른 모듈을 호출하고 있는지 검토하고, 단순화 시킬 수 있는지에 대한 검토 여부가 필요하다.

- 시스템의 복잡도를 최적화하려면 팬인은 높게, 팬 아웃은 낮게 설게해야한다.

  Comments,     Trackbacks
정보처리기사 1과목 소프트웨어 설계 2장 화면 설계 요점 정리

2장 화면 설계

Section 10 사용자 인터페이스

1. 사용자 인터페이스의 개요

- 사용자 인터페이스(UI)는 사용자와 시스템 간의 상호작용이 원활하게 이뤄지도록 도와주는장치나 소프트웨어를 의미한다.

- 사용자 인터페이스의 세 가지 분야

 정보 제공과 전달을 위한 물리적 제어에 관한 분야

• 콘텐츠의 상세적인 표현과 전체적인 구성에 관한 분야

• 모든 사용자가 편리하고 간편하게 사용하도록 하는 기능에 관한 분야

 

2. 사용자 인터페이스의 특징

- 사용자의 만족도에 가장 큰 영향을 미치는 중요한 요소로, 소프트웨어 영역 중 변경이 가장 많이 발생한다.

- 사용자의 편리성과 가독성을 높임으로써 작업 시간을 단축시키고 업무에 대한 이해도를 높여준다.

- 최소한의 노력으로 원하는 결과를 얻을 수 있게 한다.

- 수행 결과의 오류를 줄인다.

- 사용자의 막연한 작업 기능에 대해 구체적인 방법을 제시해 준다.

- 정보 제공자와 공급자 간의 매개 역할을 수행한다.

- 사용자 인터페이스를 설계하기 위해서는 소프트웨어 아키텍처를 반드시 숙지해야 한다.

 

※ 소프트웨어 아키텍처

- 건물을 짓기 위해 설계도를 작성하듯 소프트웨어 아키텍처를 개발할 소프트웨어의 기본 틀을 만드는 것으로, 복잡한 소프트웨어 개발 과정을 체계적으로 접근하기 위한 밑그림이다.

- 개발하고자 하는 소프트웨어의 특성과 본질을 파악하고 다양한 시각에서 모형화 한다.

- 전체 시스템의 전반적인 구조를 설계한다.

- 소프트웨어 시스템의 구축 및 개선을 용이하게 한다.

- 작업자들 간의 상호 이해, 타협 및 의사소통을 원활하게 하기 위해 사용한다.

 

3. 사용자의 인터페이스 구분

 CLI(Command Line Interface) : 명령과 출력이 텍스트 형태로 이뤄지는 인터페이스

 GUI(Graphic User Inteface) : 아이콘이나 메뉴를 마우스로 선택하여 작업을 수행하는 그래픽 환경의 인터페이스

 NUI(Natural User Interface) : 사용자의 말이나 행동으로 기기를 조작하느 ㄴ인터페이스

 

4. 사용자 인터페이스의 기본 원칙

• 직관성 : 누구나 쉽게 이해하고 사용할 수 있어야 한다.

• 유효성 : 사용자의 목적을 정확하고 완벽하게 달성해야 한다.

• 학습성 : 누구나 쉽게 배우고 익힐 수 있어야 한다.

• 유연성 : 사용자의 요구사항을 최대한 수용하고 실수를 최소화해야 한다.

 

5. 사용자 인터페이스의 설계 지침

• 사용자 중심 : 사용자가 쉽게 이해하고 편리하게 사용할 수 있는 환경을 제공하며, 실사용자에 댛나 이해가 바탕이 되어야 한다.

• 일관성 : 버튼이나 조작 방법 등을 일관성 있게 제공하므로 사용자가 쉽게 기억하고 습득할 수 있게 설계해야 한다.

• 단순성 : 조작 방법을 단순화시켜 인지적 부담을 감소시켜야 한다.

• 결과 예측 가능 : 작동시킬 기능만 보고도 결과를 미리 예측할 수 있게 설계해야 한다.

• 가시성 : 메인 화면에 주요 기능을 노출시켜 최대한 조작이 쉽도록 설계해야 한다.

• 표준화 : 기능 구조와 디자인을 표준화하여 한 번 학습한 이후에는 수비게 사용할 수 있도록 설계해야 한다.

• 접근성 : 사용자의 연령, 성별, 인종 등 다양한 계층이 사용할 수 있도록 설계해야 한다.

• 명확성 : 사용자가 개념적으로 쉽게 인지할 수 있도록 설계해야 한다.

• 오류 발생 해결: 오류가 발생하면 사용자가 쉽게 인지할 수 있도록 설계해야 한다.

 

Section12 UI 설계 도구

1. UI 설계 도구

- UI 설계 도구는 사용자의 요구사항에 맞게 UI의 화면 구조나 화면 배치 등을 설계할 때 사용하는 도구로, 종류에는 와이어프레임, 목업, 스토리보드, 프로토타입, 유스케이스 등이 있다.

 

2. 와이어프레임(Wireframe)

- 기획단계의 초기에 제작하는 것으로, 페이지에 대한 개략적인 레이아웃이나 UI요소 등에 대한 뼈대를 설계하는 단계이다.

- 와이어프레임을 제작할 때는 각 페이지의 영역 구분, 콘텐츠, 텍스트 배치 등을 화면 단위로 설계한다.

- 개발자다 디자이너 등이 레이아웃을 협의하거나 ㅎ녀재 진행 상태 등을 공유하기 위해 와이어프레임을 사용한다.

- 와이어프레임 툴 : 손그림, 파워포인트, 키노트, 스케치, 일러스트, 포토샵 등

 

3. 목업(Mockup)

- 목업은 디자인, 사용 방법 설명, 평가 등을 위해 와이어프레임보다 좀 더 실제 화면과 유사하게 만든 정적인 형태의 모형이다.

- 시각적으로만 구성 요소를 배치하는 것으로 실제로 구현되지는 않는다.

- 목업 툴 : 파워 목업, 발사믹 목업

 

4. 스토리보드(Story Board)

- 스토리보드는 와이어프레임에 콘텐츠에 대한 설명, 페이지 간 이동 흐름 등을 추가한 문서이다.

- 디자이너와 개발자가 최종적으로 참고하는 작업 지침서로, 정책, 프로세스, 콘텐츠 구성, 와이어프레임, 기능 정의 등 서비스 구축을 위한 모든 정보가 들어 있다.

- 스토리보드는 상단이나 우측에는 제목, 작성자 등을 입력하고, 좌측에는 UI 화면 우측에는 디스크립션(Description)을 기입한다.

- 디스크립션은 화면에 대한 설명, 전반적인 로직, 분기처리, 예외처리 등을 작성하는 부분으로, 명확하고 세부적으로 작성해야 한다.

- 스토리보드 툴 : 파워포인트, 키노트, 스케치, Axure 

 

5. 프로토타입(Prototype)

- 와이어프레임이나 스토리보드 등에 인터랙션을 적용함으로써 실제 구현된 것처럼 테스트가 가능한 동적 형태의 모형이다.

- 프로토타입은 사용성 테스트나 작업자 간 서비스 이해를 위해 작성하는 샘플이다.

- 작성 방법에 따라 페이퍼와 디지털로 나뉜다.

- 프로토타입 툴 : HTML/CSS, Axure, Flinto, 네이버 프로토나우, 카카오 오븐 등

 

6. 유스케이스(Use Case)

- 유스케이스는 사용자 측면에서의 요구사항으로, 사용자가 원하는 목표를 달성하기 위해 수행할 내용을 기술한다.

- 사용자의 요구사항을 빠르게 파악함으로써 프로젝트의 초기에 시스템의 기능적인 요구를 결정하고 그 결과를 문서화할 수 잇다.

- 유스케이스는 자연어로 작성된 사용자의 요구사항을 구조적으로 표현한 것으로, 일반적으로 다이어그램 형식으로 묘사된다.

- 유스케이스 다이어그램이 완성되면, 각각의 유스케이스에 대해 유스케이스 명세서를 작성한다.

 

Section15 UI 프로토타입 제작 및 검토

1. UI 프로토타입의 개요

- 사용자 요구사항을 기반으로 실제 동작하는 것처럼 만든 동적인 형태의 모형으로, 테스트가 가능하다.

- 사용자의 요구사항을 개발자가 맞게 해석했는지 검증하기 위한 것으로, 최대한 간단하게 만들어야 한다.

- 프로토타입은 일부 핵심적인 기능만을 제공하지만 최종 제품의 작동 방식을 이해시키는데 필요한 기능은 반드시 포함되어야 한다.

- 사용자의 요구사항이 모두 반영될 때까지 프로토타입을 계속하여 개선하고 보완해야 한다.

- 프로토타이핑 및 테스트를 거치지 않고는 실제 사용자와 제품 간의 상호 작용 방식을 예측하기 어려우므로 실제 사용자를 대상으로 테스트하는 것이 좋다.

 

2. UI 프로토타입의 장단점

장점

- 사용자를 설득하고 이해시키기 쉽다.

- 요구사항과 기능의 불일치 등으로 인한 혼선을 예방할 수 있어 개발 시간을 줄일 수 있다.

- 사전에 오류를 발견할 수 있다.

 

단점

- 프로토타입에 사용자의 모든 요구사항을 반영하기 위한 반복적인 개선 및 보완 작업 때문에 작업 시간을 증가 시킬 수 있고, 필요 이상으로 자원을 소모할 수 있다.

- 부분적으로 프로토타이핑을 진행하다보면 중요한 작업이 생략될 수 있다.

 

3. 프로토타이핑의 종류

페이퍼 프로토타입

- 아날로그적인 방법으로, 스케치, 그림, 글 등을 이용하여 손으로 직접 작성하는 방법이다.

- 제작 기간이 짧은 경우, 제작 비용이 적을 경우, 업무 협의가 빠를 경우 사용한다.

장점

- 비용이 저렴하다.

- 회의 중 대화하면서 생성이 가능하다.

- 즉시 변경이 가능하다.

- 고객이 과다한 기대를 하지 않는다.

단점

- 테스트하기에 부적당하다.

- 상호 관계가 많은 경우 나타내기 복잡하다.

- 여러 사람들에게 나눠주거나 공유하기 어렵다.

 

디지털 프로토타입

- 파워포인트, 아크로뱃, 비지오, 옴니그래플 등과 같은 프로그램을 사용하여 작성하는 방법이다.

- 재사용이 필요한 경우, 산출물과 비슷한 효과가 필요한 경우, 숙련된 전문가가 있을 경우 사용한다.

장점

- 최종 제품과 비슷하게 테스트할 수 있다.

- 수정하기 쉽다.

- 재사용이 가능하다.

단점

- 프로토타입을 작성할 프로그램의 사용법을 알아야 한다.

 

4. UI 프로토타입 계획 및 작성 시 고려사항

- 프로토타입은 일반적으로 프로토타입의 개발 계획을 수립하는 과정과 프로토타입을 개발한 후 결과를 보고하는 과정으로 진행된다.

계획 시 고려 사항

- 프로토타입의 개발 목적을 확인한다.

- 소프트웨어, 하드웨어 등 프로토타입 개발에 필요한 환경을 마련한다.

- 프로토타이핑 일정을 일반적으로 아키텍처가 확정된 이후 프로젝트의 실제 분석 작업이 완료되기 이전에 진행해야 한다.

- 아키텍처의 핵심이 되는 UI 요소를 프로토타입의 범위로 잡는다.

- 리더, 솔루션 담당자, 인프라 담당자, 개발 환경 리더. 공통 모듈 개발자, 프로토타입 개발자 등 프로토타입의 개발 인원을 확인한다.

- 주어진 비즈니스 요구사항을 모두 만족하는지 프로토타입 아키텍처를 검증한다.

- 프로토타입을 통해서 발생하는 이슈를 모두 취합하고 해결 방법을 제시한다.

- 프로토타이핑을 진행하면서 분석, 설계, 개발, 테스트 등의 표준 가이드를 확정한다.

- 프로토타이핑을 진행하면서 가장 많은 시간이 소요된 구간을 찾고 그 원인을 분석하여 해결 방법을 제시한다.

- 고객과 프로젝트 매니저, 프로젝트 리더 등에게 완성된 프로토타입을 시연한다.

 

작성 시 고려 사항

- 프로토타입의 작성 계획을 세운다.

- 프로젝트의 범위나 리스크 상황 등 주변 여건을 감안해서 프로토타입의 범위를 정한다.

- 프로토타입을 통해서 얻고자 하는 목표를 확인한다.

- 프로토타입의 개발 목표를 달성하기 위해 필요한 최소한의 기간과 비용을 확인한다.

- 완성된 프로토타입이 실제 개발에 참조될 수 있는지 확인한다.

- 프로토타입으로 검증할 범위가 너무 넓거나 기간이 길면 목표가 커져서 문제가 될 수 있으니 주의한다.

 

5. UI 프로토타입 제작 단계

1단계 : 사용자의 요구사항을 분석하는 단계로, 사용자 관점에서 기본적인 요구사항이 확정될 때까지 수행한다.

2단계 : 요구사항을 충족하는 프로토타입을 종이에 손으로 직접 그리거나 편집 도구 등을 이용하여 작성한다.

프로토타입은 개발할 시스템의 핵심적인 기능을 중심으로 개발한다.

3단계 : 작성된 프로토타입이 요구사항을 잘 수행하고 있는지 사용자가 직접 확인하는 단께이다.

프로토타입에 대해 다양한 추가 및 수정 의견을 제안할 수 있다.

4단계 : 작성된 프로토타입을 기반으로 수정과 합의가 이뤄지는 단계이다.

- 개발자는 사용자가 요청한 제안 사항을 수용하여 보완 작업을 한다.

  Comments,     Trackbacks