Chào các bạn! Vì nhiều lý do từ nay Truyen2U chính thức đổi tên là Truyen247.Pro. Mong các bạn tiếp tục ủng hộ truy cập tên miền mới này nhé! Mãi yêu... ♥

ktmt

Câu hỏi 2.1: Nêu sơ đồ khối chức năng và chức năng chính của các thành phần trong một hệ thống máy tính ?

TL :

Sơ đồ khối chức năng hệ thống máy tính như hình bên:

Bộ xử lý trung tâm (Central Processing Unit - CPU) có chức năng: đọc lệnh từ bộ nhớ, giải mã và thực hiện lệnh.

CPU bao gồm:

-       Bộ điều khiển (Control Unit - CU)

-       Bộ tính toán số học và logic (Arithmetic and Logic Unit - ALU)

-       Các thanh ghi (Registers)

Bộ nhớ trong (Internal Memory) có chức năng: lưu trữ lệnh (instruction) và dữ liệu (data) cho CPU xử lý.

Bộ nhớ trong bao gồm:

-       ROM (Read Only Memory): Lưu trữ lệnh và dữ liệu của hệ thống, thông tin trong ROM vẫn tồn tại khi mất nguồn nuôi.

-       RAM (Random Access Memory): Lưu trữ lệnh và dữ liệu của hệ thống và người dùng; thông tin trong RAM sẽ mất khi mất nguồn nuôi.

Các thiết bị vào ra (Peripheral devices):

Thiết bị vào (Input devices): nhập dữ liệu và điều khiển. Bao gồm: Bàn phím (Keyboard), Chuột (Mice), Ổ đĩa (Disk drives), Máy quét (Scanner)...

Thiết bị ra (Output devices): kết xuất dữ liệu. Bao gồm: Màn hình (Monitor/screen), Máy in (Printer), Máy vẽ (Plotter), Ổ đĩa (Disk drives)...

Bus hệ thống (system bus):

Bus hệ thống là một tập các đường dây kết nối CPU với các thành phần khác của máy tính.

Bus hệ thống thường gồm:

-       Bus địa chỉ (Address bus) – Bus A

-       Bus dữ liệu (Data bus) – Bus D

-       Bus điều khiển (Control bus) - Bus C

Câu hỏi 2.2: Nêu sơ đồ và các đặc điểm của kiến trúc máy tính von-Neumann.

Kiến trúc máy tính von-Neumann hiện đại khác kiến trúc máy tính von-Neumann cổ điển ở những điểm chính nào ?

TL :

Kiến trúc von-Neumann dựa trên 3 khái niệm cơ sở:

-       Lệnh và dữ liệu được lưu trữ trong bộ nhớ đọc ghi chia sẻ;

-       Bộ nhớ được đánh địa chỉ theo vùng, không phụ thuộc vào nội dung nó lưu trữ;

-       Các lệnh của một chương trình được thực hiện tuần tự.

Các lệnh được thực hiện theo 3 giai đoạn (stages) chính:

-       CPU đọc (fetch) lệnh từ bộ nhớ;

-       CPU giải mã và thực hiện lệnh; nếu lệnh yêu cầu dữ liệu, CPU đọc dữ liệu từ bộ nhớ;

-       CPU ghi kết quả thực hiện lệnh vào bộ nhớ (nếu có).

Câu hỏi 2.3: Nêu sơ đồ và các đặc điểm của kiến trúc máy tính Harvard.

Kiến trúc máy tính Harvard có những ưu điểm gì so với kiến trúc máy tính von-Neumann. Các máy tính hiện đại ngày nay sử dụng kiến trúc nào ?

TL : Bộ nhớ được chia thành 2 phần:

-       Bộ nhớ lưu mã chương trình

-       Bộ nhớ lưu dữ liệu

CPU sử dụng 2 hệ thống bus để giao tiếp với bộ nhớ:

-       Bus A, D và C giao tiếp với bộ nhớ chương trình

-       Bus A, D và C giao tiếp với bộ nhớ dữ liệu.

So sánh Kiến trúc Havard và Kiến trúc von-Neumann:

-       Kiến trúc Harvard nhanh hơn kiến trúc von-Neumann do băng thông của bus lớn hơn.

-       Hỗ trợ nhiều thao tác đọc/ghi bộ nhớ tại một thời điểm → giảm xung đột truy nhập bộ nhớ, đặc biệt khi CPU sử dụng kỹ thuật đường ống (pipeline).

Tuy nhiên hệ thống máy tính hiện nay phổ biến sử dụng kiến trúc von-Neumann hiện đại vì kiến trúc này ít phức tạp hơn, rẻ hơn so với hệ thống dùng kiến trúc Harvard, ngoài ra các máy tính đã phân cấp bộ nhớ nên tốc độ đã được cải thiện đáng kể. Hơn nữa, kiến trúc von-Neumann ra đời trc nên các nhà sản xuất máy tính đã phát triển công nghệ sản xuất trên nền tảng này, sự thay đổi là rất tốn kém.

Câu hỏi 2.4: Nêu sơ đồ khối tổng quát và chu trình xử lý lệnh của CPU.

TL :

CU :                Bộ điều khiển

ALU :              Bộ số học và logic

Internal Bus : Bus trong CPU

A : Thanh ghi tích luỹ (Accumulator Register)

PC :                 Bộ đếm chương trình.

IR :                  Thanh ghi lệnh

MAR :             Thanh ghi địa chỉ bộ nhớ.

MBR :             Thanh ghi đệm dữ liệu.

Y, Z :               Thanh ghi tạm thời.

FR :                 Thanh ghi cờ.

Chu trình xử lý lệnh của CPU

1. Khi một chương trình được thực hiện, hệ điều hành (OS - Operating System) nạp mã chương trình vào bộ nhớ trong.

2. Địa chỉ của ô nhớ chứa lệnh đầu tiên của chương trình được nạp vào bộ đếm chương trình PC.

3. Địa chỉ ô nhớ chứa lệnh từ PC được chuyển đến bus A thông qua thanh ghi MAR.

4. Bus A chuyển địa chỉ ô nhớ đến đơn vị quản lý bộ nhớ (MMU - Memory Management Unit).

5. MMU chọn ra ô nhớ và thực hiện lệnh đọc nội dung ô nhớ.

6. Lệnh (trong ô nhớ) được chuyển ra bus D và tiếp theo được chuyển tiếp đến thanh ghi MBR;

7. MBR chuyển lệnh đến thanh ghi lệnh IR; IR chuyển lệnh vào bộ điều khiển CU.

8. CU giải mã lệnh và sinh các tín hiệu điều khiển cần thiết, yêu cầu các bộ phận chức năng như ALU thực hiện lệnh.

9. Giá trị địa chỉ trong bộ đếm PC được tăng lên 1 đơn vị và nó trỏ đến địa chỉ của ô nhớ chứa lệnh tiếp theo.

10.Các bước từ 3-9 được lặp lại với tất cả các lệnh của chương trình.

Câu hỏi 2.5: Nêu sơ đồ khối và chức năng của các khối điều khiển (CU) và khối tính toán số học và logic (ALU).

TL :

Sơ đồ khối đơn vị điều khiển CU

Đơn vị điều khiển CU (Control Unit) điều khiển toàn bộ các hoạt động của CPU theo xung nhịp đồng hồ

CU nhận 3 tín hiệu đầu vào:

Lệnh từ IR

Giá trị các cờ trạng thái

Xung đồng hồ

CU sinh 2 nhóm tín hiệu đầu ra:

Nhóm tín hiệu điều khiển các bộ phận bên trong CPU;

Nhóm tín hiệu điều khiển các bộ phận bên ngoài CPU

CU sử dụng nhịp đồng hồ để đồng bộ các đơn vị chức năng trong CPU và giữa CPU với các bộ phận bên ngoài.

Đơn vị số học & logic ALU

ALU (Arithmetic and Logic Unit) bao gồm một loạt các đơn vị chức năng con để thực hiện các phép toán số học và logic:

-     Bộ cộng (ADD), bộ trừ (SUB), bộ nhân (MUL), bộ chia (DIV),....

-     Các bộ dịch (SHIFT) và quay (ROTATE)

-     Bộ phủ định (NOT), bộ và (AND), bộ hoặc (OR) và bộ hoặc loại trừ (XOR)

ALU có:

-     2 cổng vào IN: nhận toán hạng từ các thanh ghi.

-     1 cổng ra OUT: kết nối với bus trong để chuyển kết quả đến thanh ghi.

Câu hỏi 2.6: Lệnh máy tính là gì ? …

Chu kỳ lệnh là gì ? Nêu các pha điển hình trong chu kỳ thực hiện lệnh. Nêu dạng lệnh tổng quát và các thành phần của nó.

TL :

 Lệnh máy tính (Computer Instruction) là một từ nhị phân (binary word) được gán một nhiệm vụ cụ thể. Các lệnh của chương trình được lưu trong bộ nhớ và chúng lần lượt được CPU đọc, giải mã và thực hiện.

Chu kỳ thực hiện lệnh (Instruction execution cycle): là khoảng thời gian mà CPU thực hiện xong một lệnh:

-     Một chu kỳ thực hiện lệnh có thể gồm một số giai đoạn thực hiện lệnh.

-     Một giai đoạn thực hiện lệnh có thể gồm một số chu kỳ máy.

-     Một chu kỳ máy có thể gồm một số chu kỳ đồng hồ.

Việc thực hiện lệnh có thể được chia thành các pha (phase) hay giai đoạn (stage). Mỗi lệnh có thể được thực hiện theo 4 giai đoạn:

-     Đọc lệnh (Instruction fetch - IF): lệnh được đọc từ bộ nhớ về CPU;

-     Giải mã (Instruction decode - ID): CPU giải mã lệnh;

-     Thực hiện (Instruction execution – EX): CPU thực hiện lệnh;

-     Lưu kết quả (Write back - WB): kết quả thực hiện lệnh (nếu có) được lưu vào bộ nhớ.

Dạng tổng quát của lệnh gồm 2 thành phần chính:

-   Mã lệnh (Opcode - operation code): mỗi lệnh có mã lệnh riêng

-     Địa chỉ của các toán hạng (Addresses of Operands): mỗi lệnh có thể gồm một hoặc nhiều toán hạng.

Có thể có các dạng địa chỉ toán hạng sau: 3 địa chỉ; 2 địa chỉ; 1 địa chỉ; 1,5 địa chỉ; 0 địa chỉ.

Câu hỏi 2.7: Nêu các dạng địa chỉ của lệnh. Cho ví dụ minh hoạ với mỗi dạng địa chỉ.

TL :

Toán hạng 3 địa chỉ:

Dạng:  opcode addr1, addr2, addr3

Mỗi địa chỉ addr1, addr2, addr3 tham chiếu đến một ô nhớ hoặc một thanh ghi.

Ví dụ: 

ADD R1, R2, R3;       R1 ← R2 + R3

R2 cộng với R3, kết quả gán vào R1. (Ri là thanh ghi của CPU)

ADD A, B, C;             M[A] ← M[B] + M[C]

A, B, C là địa chỉ các ô nhớ.

Toán hạng 2 địa chỉ:

Dạng:  opcode addr1, addr2

Mỗi địa chỉ addr1, addr2 tham chiếu đến một ô nhớ hoặc một thanh ghi.

Ví dụ:

ADD R1, R2; R1 ← R1 + R2

R1 cộng với R2, kết quả gán vào R1. (Ri là thanh ghi của CPU)

ADD A, B; M[A] ← M[B] + M[B]

A, B là địa chỉ các ô nhớ.

Toán hạng 1 địa chỉ:

Dạng:  opcode addr1

Địa chỉ addr1 tham chiếu đến một ô nhớ hoặc một thanh ghi.

Ở dạng 1 địa chỉ, thanh ghi tích luỹ A (Accumulator) được sử dụng như địa chỉ addr2 trong dạng 2 địa chỉ.

Ví dụ:

ADD R1;        Racc ← Racc + R1

R1 cộng với Racc, kết quả gán vào Racc. R1 là thanh ghi của CPU.

ADD A; Racc Racc + M[A]

A là địa chỉ một ô nhớ.

Toán hạng 1,5 địa chỉ:

Dạng:  opcode addr1, addr2

Một địa chỉ tham chiếu đến một ô nhớ và địa chỉ còn lại tham chiếu đến một thanh ghi. Dạng 1,5 địa chỉ là dạng hỗn hợp giữa ô nhớ và thanh ghi.

Ví dụ:

ADD A, R1; M[A] M[A] + R1

Nội dung ô nhớ A cộng với R1, kết quả lưu vào ô nhớ A

R1 là thanh ghi của CPU và A là địa chỉ một ô nhớ.

Toán hạng 0 địa chỉ:

Được sử dụng trong các lệnh thao tác với ngăn xếp: PUSH và POP.

 Câu hỏi 2.8: Cơ chế xử lý xen kẽ dòng lệnh (ống lệnh – pipeline) là gì ?

Nêu các đặc điểm của cơ chế ống lệnh.

TL :

Cơ chế ống lệnh (pipeline) hay còn gọi là cơ chế thực hiện xen kẽ các lệnh của chương trình là một phương pháp thực hiện lệnh tiên tiến, cho phép đồng thời thực hiện nhiều lệnh, giảm thời gian trung bình thực hiện mỗi lệnh và như vậy tăng được hiệu năng xử lý lệnh của CPU.

Việc thực hiện lệnh được chia thành một số giai đoạn và mỗi giai đoạn được thực thi bởi một đơn vị chức năng khác nhau của CPU. Nhờ vậy CPU có thể tận dụng tối đa năng lực xử lý của các đơn vị chức năng của mình, giảm thời gian chờ cho từng đơn vị chức năng. Có nhiều lệnh đồng thời được thực hiện gối nhau trong CPU và hầu hết các đơn vị chức năng của CPU liên tục tham gia vào quá trình xử lý lệnh. Số lượng lệnh được xử lý đồng thời đúng bằng số giai đoạn thực hiện lệnh.

Đặc điểm của cơ chế ống lệnh:

-  Là dạng xử lý song song ở mức lệnh (instruction level parallelism (ILP)).

-  Một pipeline là đầy đủ (fully pipelined) khi nó luôn tiếp nhận một lệnh mới tại mỗi chu kỳ đồng hồ.

-  Ngược lại, một pipeline là không đầy đủ khi có một số chu kỳ trễ trong tiến trình thực hiện.

-  Số lượng các giai đoạn (stages) trong pipeline phụ thuộc vào thiết kế vi xử lý:

·         2,3, 5 giai đoạn (pipeline đơn giản)

·         14 giai đoạn (PII, PIII)

·         20-31 giai đoạn (P4)

·         12-15 giai đoạn (Core)

Câu hỏi 2.9: Nêu cấu trúc phân cấp của hệ thống bộ nhớ máy tính.

Tại sao cấu trúc phân cấp của hệ thống bộ nhớ có thể giúp tăng hiệu năng và giảm giá thành sản xuất máy tính ?

TL :

Cấu trúc phân cấp hệ thống bộ nhớ được thể hiện như hình bên.

Trong cấu trúc phân cấp hệ thống nhớ, dung lượng các thành phần tăng theo chiều từ các thanh ghi của CPU đến bộ nhớ ngoài. Ngược lại, tốc độ truy nhập hay băng thông và giá thành một đơn vị nhớ tăng theo chiều từ bộ nhớ ngoài đến các thanh ghi của CPU. Như vậy, các thanh ghi của CPU có dung lượng nhỏ nhất nhưng có tốc độ truy cập nhanh nhất và cũng có giá thành cao nhất. Bộ nhớ ngoài có dung lượng lớn nhất, nhưng tốc độ truy cập thấp nhất. Bù lại, bộ nhớ ngoài có giá thành rẻ nên có thể được sử dung với dung lượng lớn.

CPU registers (các thanh ghi của CPU):

•      Dung lượng rất nhỏ, khoảng từ vài chục bytes đến vài KB

•      Tốc độ truy nhập rất cao (các thanh ghi hoạt động với tốc độ của

•      CPU); thời gian truy nhập khoảng 0,25ns

•      Giá thành đắt

•      Sử dụng để lưu toán hạng đầu vào và kết quả của các lệnh.

Cache (bộ nhớ cache):

•      Dung lượng tương đối nhỏ (khoảng 64KB đến 32MB)

•      Tốc độ truy nhập cao; thời gian truy nhập khoảng 1-5ns

•      Giá thành đắt

•      Còn được gọi là “bộ nhớ thông minh” (smart memory)

•      Sử dụng để lưu lệnh và dữ liệu cho CPU xử lý.

Main memory (bộ nhớ chính):

•      Gồm ROM và RAM, có kích thước khá lớn; với hệ thống 32 bít, dung lượng khoảng 256MB-4GB

•      Tốc độ truy nhập chậm; thời gian truy nhập khoảng 50-70ns

•      Giá thành tương đối rẻ

•      Sử dụng để lưu lệnh và dữ liệu của hệ thống và của người dùng.

Secondary memory (bộ nhớ thứ cấp – bộ nhớ ngoài):

•      Có dung lượng rất lớn, khoảng từ 20GB-1000GB

•      Tốc độ truy nhập rất chậm; thời gian truy nhập khoảng 5ms

•      Giá thành rẻ

•      Sử dụng để lưu dữ liệu lâu dài dưới dạng các tệp (files).

Vai trò của việc phân cấp hệ thống bộ nhớ:

Tăng hiệu năng hệ thống

•      Dung hoà được CPU có tốc độ cao và phần bộ nhớ chính và bộ nhớ ngoài có tốc độ thấp;

•      Thời gian trung bình CPU truy nhập dữ liệu từ hệ thống nhớ tiệm cận thời gian truy nhập cache.

Giảm giá thành sản xuất

•      Các thành phần đắt tiền (thanh ghi và cache) được sử dụng với dung lượng nhỏ;

•      Các thành phần rẻ tiền hơn (bộ nhớ chính và bộ nhớ ngoài) được sử dụng với dung lượng lớn;

→ Tổng giá thành của hệ thống nhớ theo mô hình phân cấp sẽ rẻ hơn so với hệ thống nhớ không phân cấp có cùng tốc độ.

Câu hỏi 2.10: Phân biệt bộ nhớ RAM tĩnh và RAM động.

Tại sao bộ nhớ RAM động cần quá trình làm tươi và RAM động thường rẻ hơn RAM tĩnh ?

TL :

SRAM (Static Ram) là loại RAM sử dụng một mạch lật trigo lưỡng ổn để lưu một bit thông tin. Thông tin trong SRAM luôn ổn định và không phải “làm tƣơi” định kỳ. Tốc độ truy nhập SRAM cũng nhanh hơn nhiều so với DRAM.

Mỗi mạch lật lưu 1 bit thường sử dụng 6, 8 hoặc 10

transitors (gọi là mạch 6T, 8T hoặc 10T);

SRAM thường có tốc độ truy nhập nhanh do các bit của SRAM có cấu trúc đối xứng,  Các mạch nhớ SRAM chấp nhận tất cả các chân địa chỉ tại một thời điểm (không dồn kênh).

DRAM (Dynamic Ram): Mỗi bit DRAM dựa trên một tụ điện và một transitor:Hai mức tích điện của tụ biểu diễn 2 mức logic 0 và 1:

• Không tích điện: mức 0

• Tích đầy điện: mức 1.

Thông tin lưu trong các bit DRAM không ổn định và phải được “làm tươi” định kỳ. DRAM chậm hơn nhưng rẻ hơn SRAM.

RAM động cần quá trình làm tươi vì tụ thường tự phóng điện, điện tích trong tụ có xu hướng bị tổn hao theo thời gian nên:

•      Cần nạp lại thông tin trong tụ thường xuyên để tránh mất thông tin.

•      Việc nạp lại thông tin cho tụ  là quá trình làm tươi (refresh), phải theo định kỳ.

DRAM thường rẻ hơn SRAM do:

Mỗi bít SRAM dùng nhiều transitor hơn so với 1 bit DRAM

Do cấu trúc bên trong của SRAM bit phức tạp hơn nên mật độ cấy linh kiện trong SRAM thường thấp.

Câu hỏi 2.11: Bộ nhớ cache là gì ?

Nêu vai trò của cache. Giải thích hai nguyên lý hoạt động của cache.

TL :

 Cache hay còn gọi là bộ nhớ đệm là một thành phần trong hệ thống nhớ phân cấp của máy tính, cache đóng vai trong trung gian, trung chuyển dữ liệu từ bộ nhớ chính về CPU và ngược lại.

Vai trò của cache

Tăng hiệu năng hệ thống

•      Dung hoà được CPU có tốc độ cao và bộ nhớ chính có tốc độ thấp;

•      Thời gian trung bình CPU truy nhập dữ liệu từ hệ thống nhớ tiệm cận thời gian truy nhập cache.

Giảm giá thành sản xuất

•      Nếu hai hệ thống nhớ có cùng giá thành, hệ thống nhớ có cache có tốc độ truy nhập nhanh hơn;

•      Nếu hai hệ thống nhớ có cùng tốc độ, hệ thống nhớ có cache có giá thành rẻ hơn.

Các nguyên lý hoạt động của cache

Cache được coi là bộ nhớ thông minh:

•      Cache có khả năng đoán trước yêu cầu về dữ liệu và lệnh của CPU;

•      Dữ liệu và lệnh cần thiết được chuyển trước từ bộ nhớ chính về cache → CPU chỉ truy nhập cache → giảm thời gian truy nhập hệ thống nhớ.

 Cache hoạt động dựa trên 2 nguyên lý cơ bản:

•      Nguyên lý lân cận về không gian (Spatial locality)

•      Nguyên lý lân cận về thời gian (Temporal locality)

Nguyên lý lân cận về không gian:

Nếu một ô nhớ đang được truy nhập thì xác xuất các ô nhớ liền kề với nó được truy nhập trong tương lai gần là rất cao;

Áp dụng:

•      Lân cận về không gian được áp dụng cho nhóm lệnh/dữ liệu có tính tuần tự cao trong không gian chương trình;

Giải thích:

•      Do các lệnh trong một chương trình thường tuần tự → cache đọc cả khối lệnh từ bộ nhớ chính → phủ được các ô nhớ lân cận của ô nhớ đang được truy nhập.

Nguyên lý lân cận về thời gian:

Nếu một ô nhớ đang được truy nhập thì xác xuất nó được truy nhập lại trong tương lai gần là rất cao;

Áp dụng:

•      Lân cận về thời gian được áp dụng cho dữ liệu và nhóm lệnh trong vòng lặp;

Giải thích:

•      Các phần tử dữ liệu thường được cập nhật, sửa đổi thường xuyên;

Cache đọc cả khối lệnh từ bộ nhớ chính → phủ được cả khối lệnh của vòng lặp.

Câu hỏi 2.12: So sánh các chuẩn ghép nối ổ đĩa cứng IDE, SATA và SCSI.

TL :

 

IDE

SATA

SCSI

Giống nhau

Đều là các giao diện ghép nối ổ đĩa cứng với máy tính

Khác nhau

ATA/IDE sử dụng cáp dẹt 40 hoặc 80 sợi để ghép nối ổ cứng với bảng mạch chính;

SATA sử dụng cùng tập lệnh mức thấp như ATA nhưng SATA sử dụng đường truyền tin nối tiếp tốc độ cao qua 2 đôi dây;

SCSI là một tập các chuẩn về kết nối vật lý và truyền dữ liệu giữa

máy tính và thiết bị ngoại vi;

 

 

 

 

 

 

Mỗi cáp thường hỗ trợ ghép nối với 2 ổ đĩa

Tất cả các thiết bị SCSI đều kết nối đến bus SCSI theo cùng một kiểu

 

Ưu điểm

Truyền dữ liệu nhanh và hiệu quả

Cắm nóng

Sử dụng ít dây hơn ATA để truyền dữ liệu.

SCSI cung cấp tốc độ truyền dữ liệu và tính ổn định rất cao;

Cắm nóng

Nhược điểm

Tốc độ truyền dữ liệu còn chậm

Các ổ cứng SCSI thường rất đắt

Câu hỏi 2.13: Trình bày nguyên lý đọc thông tin trên đĩa CD.

TL :

Nguyên lý đọc CD-ROM

·         Tia laser từ điốt phát laser đi qua bộ tách tia đến gương quay;

·         Gương quay được điều khiển bởi tín hiệu đọc, lái tia laser đến vị trí cần đọc trên mặt đĩa;

·         Tia phản xạ từ mặt đĩa phản ánh mức lồi lõm trên mặt đĩa quay trở lại gương quay;

·         Gương quay chuyển tia phản xạ về bộ tách tia và sau đó đến bộ cảm biến quang điện;

·         Bộ cảm biến quang điện chuyển đổi tia laser phản xạ thành tín hiệu điện đầu ra. Cường độ của tia laser được biểu diễn thành mức tín hiệu ra.

Câu hỏi 2.14: Nêu nguyên lý hoạt động của máy in laser.

TL :

Máy in laser hoạt động dựa trên nguyên tắc chụp ảnh điện tử bằng tia laser. Cụ thể:

·         Trống cảm quang được nạp một lớp điện tích nhờ 1 điện cực;

·         Tia laser từ nguồn sáng laser đi qua một gương quay và bộ điều chế tia được điều khiển bởi tín hiệu cần in đến mặt trống;

·         Ánh sáng laser làm thay đổi mật độ điện tích trên mặt trống; Mật độ điện tích trên mặt trống thay đổi theo tín hiệu cần in;

·         Khi trống cảm quang quay đến hộp mực thì điện tích trên trống hút các hạt mực được tích điện trái dấu. Các hạt mực dính trên trống biểu diễn âm bản của văn bản/thông tin cần in;

·         Giấy từ khay được kéo lên cũng được điện cực nạp điện tích trái dấu với điện tích của mực nên hút các hạt mực khỏi trống cảm quang.

·         Giấy tiếp tục đi qua trống sấy nóng làm các hạt mực chảy ra và bị ép chặt vào giấy.

Câu hỏi 2.15: Nêu nguyên lý tạo hình ảnh của màn hình LCD.

TL :

 Các tinh thể lỏng không thể tự phát sáng, chúng có khả năng điều khiển lượng ánh sáng đi qua theo nhiệt độ và dòng điện.

Có 2 loại LCD dựa trên phương pháp điều khiển:

LCD ma trận thụ động (Passive matrix):

Sử dụng lưới hoặc ma trận để định nghĩa từng điểm ảnh (pixel) bởi hàng và cột của nó. Một điểm ảnh (giao giữa 1 hàng và 1 cột) được kích hoạt khi điện áp được đặt vào cột và dòng tương ứng được nối đất.

LCD ma trận chủ động (Active matrix):

Sử dụng một TFT (Thin Film Transistor) để điều khiển một phần tử LCD. Các TFT hoạt động tương tự như các bộ chuyển mạch.

Nguyên lý TFT LCD:

-       TFT LCD là thiết bị được điều khiển bằng các tín hiệu điện.

-       Lớp tinh thể lỏng nằm giữa 2 lớp trong suốt chứa các điện cực ITO (Indium Tin Oxide).

-       Các phần tử tinh thể lỏng được sắp đặt theo các hướng khác nhau theo sự thay đổi điện áp đặt vào các điện cực ITO;

-       Hướng của các phần tử tinh thể lỏng trực tiếp ảnh hưởng đến cường độ ánh sáng đi qua và nó gián  tiếp điều khiển mức sáng/tối (còn gọi là mức xám) của ảnh hiện thị;

-       Mầu của hình ảnh được tạo bởi một lớp lọc mầu;

-       Mức xám của các điểm ảnh được thiết lập theo mức điện áp của tín hiệu video đưa vào.

● Câu hỏi loại 3 điểm

Câu hỏi 3.1: Nêu sơ đồ và đặc điểm của hai dạng kiến trúc cache :

Look Aside và Look Through. Trong hai dạng kiến trúc trên, dạng nào được sử dụng nhiều hơn trong thực tế hiện nay? Tại sao?

TL:

Cache – Look aside

SRAM: RAM lưu dữ liệu cache

Tag RAM: RAM lưu địa chỉ bộ nhớ

Cache và bộ nhớ chính cùng kết nối với bus hệ thống;

Cache và bộ nhớ chính “thấy” chu kỳ bus của CPU tại cùng một thời điểm;

Ưu điểm:

•      Thiết kế đơn giản

•      Miss nhanh

Nhược điểm:

•      Hit chậm

Cache – Look through

SRAM: RAM lưu dữ liệu cache

Tag RAM: RAM lưu địa chỉ bộ nhớ

Cache nằm giữa CPU và bộ nhớ chính;

Cache “thấy” chu kỳ bus của CPU trước, sau đó nó chuyển chu kỳ bus cho bộ nhớ chính;

Ưu điểm:

•      Hit nhanh

Nhược điểm:

•      Thiết kế phức tạp

•      Đắt tiền

•      Miss chậm

Câu hỏi 3.2: So sánh 3 phương pháp ánh xạ cache:

ánh xạ trực tiếp, ánh xạ kết hợp đầy đủ và ánh xạ tập kết hợp? Phương pháp ánh xạ nào trong các phương pháp trên được sử dụng nhiều nhất trong thực tế? Tại sao?

TL :

Tiêu chí

Ánh xạ trực tiếp

Ánh xạ kết hợp đầy đủ

Ánh xạ tập kết hợp

Giống

Cùng là phương pháp ánh xạ cache-mem

Cache được chia thành các dòng

Khác nhau

Bộ nhớ

m trang

1 trang

m trang

Ánh xạ

Ánh xạ dòng của trang đến dòng của đường (ánh xạ cố định)

Một dòng trong bộ nhớ có thể được ánh xạ vào một dòng bất kỳ trong cache;

Ánh xạ trang đến đường (ánh xạ mềm dẻo):

Một trang của bộ nhớ có thể ánh xạ đến một đường bất kỳ của cache.

Ánh xạ dòng của trang đến dòng của đường (ánh xạ cố định).

Ưu điểm

Thiết kế đơn giản

Nhanh do ánh xạ là cố định: khi biết đị chỉ ô nhớ có thể tìm được vị trí của nó trong cache rất nhanh chóng.

Giảm được xung đột do ánh xạ là không cố định

Hệ số Hit cao hơn ánh xạ trực tiếp.

Nhanh do ánh xạ trực tiếp được sử dụng cho ánh xạ dòng (chiếm số lớn ánh xạ);

Giảm xung đột do ánh xạ từ các trang bộ nhớ đến các đường cache là mềm dẻo.

Hệ số Hit cao hơn.

Nhược điểm

Do ánh xạ cố định nên dễ gây xung đột

Hệ số hit không cao.

Chậm do cần phải tìm địa chỉ ô nhớ trong cache

Phức tạp do cần có n bộ so sánh địa chỉ bộ nhớ trong cache.

Thường được sử dụng với cache có dung lượng nhỏ.

Phức tạp trong thiết kế và điều khiển vì cache được chia thành một số đường.

Câu hỏi 3.3: Nêu các phương pháp đọc ghi và các chính sách thay thế dòng cache.

Tại sao thay thế dòng cache sử dụng phương pháp LRU có khả năng cho hệ số đoán trúng (hit) cao nhất ?

TL :

 Đọc thông tin:

+Trường hợp hit (mẩu tin cần đọc có trong cache)

    • Mẩu tin được đọc từ cache vào CPU;

    • Bộ nhớ chính không tham gia.

+Trường hợp miss (mẩu tin cần đọc không có trong cache)

  • Mẩu tin trước hết được đọc từ bộ nhớ chính vào cache;

  • Sau đó nó được chuyển từ cache vào CPU.

→đây là trường hợp miss penalty: thời gian truy nhập mẩu tin bằng tổng thời gian truy nhập cache và bộ nhớ chính.

Ghi thông tin:

+Trường hợp hit (mẩu tin cần ghi có trong cache)

  • Ghi thẳng (write through): mẩu tin được ghi đồng thời ra cache và bộ nhớ chính;

  • Ghi trễ (write back): mẩu tin trước hết được ghi ra cache và dòng chứa mẩu tin được ghi ra bộ nhớ chính khi dòng đó bị thay thế.

+Trường hợp miss (mẩu tin cần ghi không có trong cache)

  • Ghi có đọc lại (write allocate / fetch on write): mẩu tin trước hết được ghi ra bộ nhớ chính và sau đó dòng chứa mẩu tin được đọc vào cache;

  • Ghi không đọc lại (write non-allocate): mẩu tin chỉ được ghi ra bộ nhớ chính (dòng chứa mẩu tin không được đọc vào cache).

Chính sách thay thế (replacement policies) xác định các dòng cache nào được chọn để thay thế bởi các dòng khác từ bộ nhớ.

Các chính sách thay thế:

+        Ngẫu nhiên (Random)

+        Vào trước ra trước (FIFO)

+        Thay thế các dòng ít được sử dụng gần đây nhất (LRU).

Thay thế các dòng ít được sử dụng gần đây nhất (LRULeast Recently Used):

Các dòng cache ít được sử dụng gần đây nhất được lựa chọn để thay thế.

Ưu:

• Có hệ số miss thấp nhất so với thay thế ngẫu nhiên và thay thế FIFO

• Do thay thế LRU có xem xét đến các dòng đang được sử dụng

Câu hỏi 3.4: RAID là gì?

Tại sao RAID có thể nâng cao được tính tin cậy và tốc độ truy nhập hệ thống lưu trữ? Cấu hình RAID nào phù hợp hơn với máy chủ cơ sở dữ liệu trong ba loại RAID 0, RAID 1 và RAID 10?

TL :

 RAID (Redundant Array of Independent Disks) là một công nghệ tạo các thiết bị lưu trữ tiên tiến trên cơ sở đĩa cứng, nhằm đạt được các mục đích:

Tốc độ cao (High performance / speed)

Tính tin cậy cao (High reliability)

Dung lượng lớn (Large volume)

RAID:

Một mảng của các đĩa cứng;

Các đĩa cứng theo chuẩn SATA và SCSI mới hỗ trợ tạo RAID.

 

Hai kỹ thuật chính được sử dụng trong RAID:

Tạo lát đĩa (Disk Stripping):

Ghi: Dữ liệu được chia thành các khối, mỗi khối được ghi đồng thời vào một đĩa độc lập;

Đọc: Các khối dữ liệu được đọc đồng thời ở các đĩa độc lập, và được ghép lại tạo dữ liệu hoàn chỉnh.

→ Tốc độ truy nhập được cải thiện.

Soi gương đĩa (Disk Mirroring):

Ghi: Dữ liệu được chia thành các khối, mỗi khối được ghi đồng thời vào nhiều đĩa độc lập;

Tại mọi thời điểm ta luôn có nhiều hơn 1 bản sao vật lý của dữ liệu.

→ Tính tin cậy được cải thiện.

RAID 10

Ưu điểm:

An toàn cao: do tại mỗi thời điểm RAID luôn chứa nhiều bản copy của dữ liệu ở các đĩa vật lý khác nhau.

Nhanh: tốc độ truy nhập tỷ lệ với số đĩa của RAID

Câu hỏi 3.5: Nêu các đặc điểm chính của kiến trúc bus PCI và PCI-Express.

Tại sao bus PCI-Express có khả năng hỗ trợ nhiều cặp thiết bị truyền dữ liệu đồng thời với tốc độ cao?

TL :

 Bus PCI Express – Kiến trúc

PCI Express được cấu trúc từ các liên kết nối tiếp điểm đến điểm;

Một cặp liên kết nối tiếp (theo 2 chiều ngược nhau) tạo thành một luồng (lane);

Các luồng được định tuyến qua một bộ chuyển mạch (crossbar switch) trên bảng mạch chính;

•      Các khe cắm PCI Express vật lý có thể chứa từ 1 đến 32 làn.

•      PCI Express sử dụng giao thức truyền nối tiếp và tránh được vấn đề timing skew (lệch thời gian) – một trong các yếu tố làm giảm tốc độ:

•      Các loại bus song song (ISA, PCI, AGP) đòi hỏi tất cả các bit của một đơn vị dữ liệu phải đến đích tại một thời điểm;

•      Do vấn đề timing skew, các bít của một đơn vị dữ liệu có thể không đến đích đồng thời gây khó khăn cho việc khôi phục đơn vị dữ liệu;

•      Phương thức truyền nối tiếp không gặp phải vấn đề timing skew do giao thức này không đòi hỏi tất cả các bit của một đơn vị dữ liệu phải đến đích tại một thời điểm.

Bạn đang đọc truyện trên: Truyen247.Pro

Tags: