Osprey User Guide
AVStream Driver Version 4.0

ViewCast Corporation
3701 W. Plano Parkway, Suite 300
Plano, TX 75075-7840 USA
Revised 04/26/2007

? 2007 ViewCast Corporation. No part of this specification may be reproduced, transcribed, transmitted or stored in a retrieval system in any part or by any means without the express written consent of ViewCast Corporation. ViewCast Corporation reserves the right to change any products herein at any time and without notice. ViewCast Corporation makes no representations or warranties regarding the content of this document, and assumes no responsibility for any errors contained herein.
UL Statement
Underwriters Laboratories Inc. has not tested the performance or reliability of the security or signaling aspects of this product. UL has only tested for fire, shock and casualty hazards as outlined in UL’s Standard for Safety UL 60950-1. UL Certification does not cover the performance or reliability of the security or signaling aspects of this product. UL MAKES NO REPRESENTATIONS, WARRANTIES OR CERTIFICATIONS WHATSOEVER REGARDING THE PERFORMANCE OR RELIABILITY OF ANY SECURITY OR SIGNALING RELATED FUNCTIONS OF THIS PRODUCT.
WARNING: Connections between this device and peripherals must be made using shielded cables in order to maintain compliance with FCC radio emission limits.
WARNING: Modifications to this device not approved by ViewCast Corporation could void the authority granted to the user by the FCC to operate the device.
The Osprey Video Capture devices described in this guide, except the Osprey-300 and the Osprey-530, have been tested and found to comply with the limits for a Class B digital device, pursuant to Part 15 of the FCC Rules. These limits are designed to provide reasonable protection against harmful interference in a residential installation. This equipment generates, uses and can radiate radio frequency energy and, if not installed and used in accordance with the instructions, may cause harmful interference to radio communications. However, there is no guarantee that interference will not occur in a particular installation. If this device does cause harmful interference to radio or television reception the user is encouraged to try to correct the interference by one or more of the following measures:
? Reorient or relocate the receiving antenna.
? Increase the separation between the equipment and receiver.
? Connect the computer into an outlet on a circuit different from that to which the receiver is connected.
? Consult the dealer or an experienced radio/TV technician for help.
If the above measures are unsuccessful, please consult the dealer or manufacturer of your radio or television receiver, or speak with an experienced radio/TV technician.
The Osprey-300 and Osprey-530 Video Capture devices described have been found to comply with the limits for a Class A digital device, pursuant to Part 15 of the FCC Rules. These
limits are designed to provide reasonable protection against harmful interference when the equipment is operated in a commercial environment. This equipment generates,
uses, and can radiate radio frequency energy and, if not installed and used in accordance with the instruction manual, may cause harmful interference to radio communications.
Operation of this equipment in a residential area is likely to cause harmful interference in which case the user will be required to correct the interference at his own expense.
NOTE: This reminder is provided to call to the CATV installer’s attention Section 820-40 of the NEC, which provides guidelines for proper grounding and, in particular, specifies
that the cable ground shall be connected to the grounding system of the building, as close to the point of cable entry as practical.
Shielded Cables: Connections between this device and peripherals must be made using shielded cables in order to maintain compliance with FCC radio emission limits.
Modifications: Modifications to this device not approved by ViewCast Corporation could void the authority granted to the user by the FCC to operate the device.
Note to CATV Installer: This reminder is provided to call to the CATV installer’s attention Section 820-40 of the NEC, which provides guidelines for proper grounding
and, in particular, specifies that the cable ground shall be connected to the grounding system of the building, as close to the point of cable entry as practical.
Product Disposal Information:
Dispose of this product in accordance with local and national disposal regulations (if any), including those governing the recovery and recycling of waste electrical
and electronic equipement (WEEE).
RoHS Compliant: ViewCast Corporation is committed to compliance with the European directive on the Restriction of the Use of Certain Hazardous Substances in Electrical and Electronic Equipment, Directive 2002/95/EC, the RoHS directive.
For current RoHS statement, see
Osprey? and Simulstream? are registered trademarks of ViewCast Corporation. Microsoft?, Windows? XP, NetMeeting?, NetShow?, and Video for Windows? are trademarks or
registered trademarks of Microsoft Corporation. Any other product names, trademarks, trade names, service marks, or service names owned or registered by any other company
and mentioned herein are the property of their respective companies.


Getting Started with Your Osprey Video Capture Card

System Requirements
Please note that the following system requirements relate to your Osprey Capture card only. The video capture or encoding applications you use will likely require a much more powerful system than that which is listed below. Please consult your software documentation for applicable system requirements.

Minimum System Requirements:
? Direct Mode: 600 MHz Intel? Pentium? 3 processor or equivalent
? PostProcessing Mode and SimulStream: 2 GHz Intel? Pentium? 4 processor or equivalent, 3 GHz recommended
? Microsoft? Windows? XP Professional or Home Edition, Windows Server? 2003
? Up to 7.5 MB of available hard disk space
? 256 MB of RAM, 512 MB recommended
? One available PCI slot

Installation Steps
In all cases, the most efficient and complete installation method is to run the setup.exe program on the product CD or in the web package that you downloaded. The setup program automates the Plug and Play steps required to install the drivers and ensures that they are performed correctly. It also installs the bundled applets and User’s Guide. If you have multiple Osprey capture cards in the system it configures all of the boards at the same time.
This is the method that we recommend if you are installing an Osprey card for the first time on a system, and the Osprey software has not yet been installed. After the install is run, as soon as an Osprey card is installed in the PC, it is detected and its drivers are started automatically.
If you are updating Osprey software, you should uninstall the software and reboot your computer before installing the update.

Installing the Osprey AVStream Driver
Insert the Osprey Software CD into your CDRom drive. If you have autoplay enabled, the main menu for the Osprey software CD will automatically appear. (Autoplay should be enabled by default. If the main menu does not automatically appear, see “Manually Accessing the CD Menu”)
In the CD main menu, select your Osprey card from the list.
The “Osprey AVStream - InstallShield Wizard” will appear. This Installation Wizard will guide you through the following installation process:
1. ”Welcome” window: Click “Next.”
2. License Agreement window: Click the radio button next to “I accept the terms in the license agreement” and click “next.”
3. Customer Information window: Enter your name and the name of your organization (if any), choose whether you want to install the software for all users, and click “Next.”
4. Video Standard window: Select a default video standard for the AVStream driver and click “Next.”
For more information on video standards, see “Video Standards and Sizes” on page 29 of this guide.
5. Setup Type window: Select “Complete” or “Custom” installation and click “Next.” If you select “Custom” installation, please see “Custom Installing the AVStream Software” on the following page for more information.
6. Ready to Install the Program: Click “Install.”
7. Installing Osprey AVStream: This window will show the progress of the installation. If, during the installation, a warning window appears regarding Windows Logo Testing, click “Continue Anyway” to proceed with the installation.
8. InstallShield Wizard Completed: Click “Finish.”

Custom Installing the AVStream Software
If, during step 5 of the installation process, you choose a “Custom” installation, you will see the following window:
This window will allow you to choose individual components you want to install. Click on each components to see the amount of hard drive space it will require. You can also change the location on your hard drive in which the components will install. This installation option is recommended for advanced users only.

Installing Your Osprey Video Capture Card
When you install your Osprey Video Capture Card, please keep in mind that all computer cards are sensitive to electrostatic discharge.
Slight discharges from your clothing or even from the normal work environment can adversely affect these cards. By following these simple guidelines, however, you can minimize the chance of damaging your Osprey card.
? Handle cards only by the non-conducting edges.
? Do not touch the card components or any other metal parts.
? Wear a grounding strap while handling the cards (especially when located in a high static area).
? Provide a continuous ground path by leaving the power cord plugged into a grounded power outlet.
? Ensure that the workstation is powered OFF before installing any components.
? If you are not familiar with how to install a PCI bus card, refer to your system’s documentation for more complete, step-by-step instructions.
? To be used only with UL Listed computers that include instructions for user installed accessories.

To install your Osprey card...
1. Power down your computer and disconnect the power cable.
2. Remove the computer’s cover and locate an empty PCI slot.
3. Remove the cover screw from the empty PCI slot’s cover, set the screw aside.
4. Remove the slot cover.
5. Remove your Osprey Video Capture Card from its anti-static bag.
6. Insert the Osprey card into the empty PCI slot and make sure that it is seated evenly.
7. Secure the back panel of the card with the slot’s cover screw.
8. Replace the computer cover.
9. Turn the computer on.

Multiple Board Types, and Adding or Moving Boards
There are six classes of Osprey devices, as follows:
? class 1: o100, o200, o210, o220, o230
? class 2: o300
? class 3: o440
? class 4: o530, o540, o560
? class 5: o700HD and later DSP-based PCI-Express products
? class 6: o240 and related non-DSP PCI-Express products
Each of the six device classes has a separate driver. This user guide applies only to classes 1 through 4.
Therefore if you have both an Osprey-230 and an Osprey-560 in the same machine, then you have to install a separate driver for each
When you add or move boards after the AVStream 4.0.0 driver is already installed, there are two possibilities:
A: You add a board of a different class from what is already in the machine. For example, there is already an Osprey-230 in the machine with the current driver installed, and you want to add an Osprey-560.
For this case you have to obtain and install the driver install package for the new board.
B: You move a board from one slot to another, or if you add another board of the same type. For example, you might have an Osprey-230 in the machine, and want to add another Osprey-230. In this case, the following sequence will begin:
The New Hardware Wizard runs and displays the Found New Hardware window followed by the Digital Signature Not Found window.
1. Click Continue Anyway. (This window will only be displayed on drivers that have not been WHQL Certified; WHQL Certified drivers will skip this step.)
2. The Controller installing window (not shown) displays, and the text inside this window changes to “Osprey Video Capture Device, Installing ...” . Then the Digital Signature Not Found window appears on top of it.
3. Click Continue Anyway. (This window will only be displayed on drivers that have not been WHQL Certifi ed; WHQL Certified drivers will skip this step) The Completing the Found New Hardware window displays.
4. Click Finish. The Digital Signature Not Found window displays.
5. This window displays once for each Osprey board you are installing. The Systems Setting Change window displays.
6. Click Finish to restart the computer.

Setting the AVStream Driver Properties

Accessing Your Osprey Video Capture Card Properties
After you have installed your Osprey Card and the AVStream driver, you will be able to access the properties for your card through most major DirectShow applications (such as Windows Media Encoder or RealProducer?). For detailed information on how to select your Osprey Card and access its Video Properties window from 3rd-party applications, please refer to the documentation for your encoding application.

The Video Capture Properties Window
The Properties are organized as tabs or pages in a dialog box entitled “Video Capture Properties.” The tabs are as follows:
? Video Proc Amp ? set brightness, contrast, saturation, hue, and sharpness.
? Video Decoder ? select the video standard ? NTSC, PAL, SECAM.
? Input ? select the video input and NTSC / PAL / SECAM video standard.
? Filters ? SimulStream, processing mode, gamma, deinterlace, and detelecine.
? Device ? various less frequently used controls.
? RefSize ? set the reference size for cropping.
? Size and Crop ? set default size, enable cropping, set the cropping rectangle.
? Logo ? set up on-video logos.
? Captions ? set up on-video caption rendering.
? Capture and Preview Pin Properties ? the default DirectShow pin controls.
In some applications you may see additional tabs besides those listed above. The additional tabs are system-supplied, for-your-information only, and contain no controls that you can set.
Please note that these property tabs are not where you set frame size and frame rate. These are part of the “pin properties”, and are explained in Pin Properties, below.
Some controls are interactive ? changes you make are immediately updated on the video. Examples are the brightness, contrast, hue, saturation, and sharpness controls, the graphical gamma control; and the graphical sizing and positioning controls for logos. The OK, Cancel, and Apply buttons have no effect on these controls. It is also important to note that the OK and Apply buttons commit only the changes on the currently displayed page.

Per-device Controls, Per-pin Controls, and Global Controls
Some controls operate on the device as a whole, while other controls operate on individual filters and pins. Specifically, controls on the following tabs are per-device. A change to any of the following controls affects all pins and filters on the device.:
? Video Proc Amp
? Video Decoder
? Input
? Filters
? Device
? RefSize
Controls on the following tabs are per-filter and per-pin. Changes here affect only the filter or pin specified:
? Crop
? Logo
? Captions
For more information on filters and pins, please see “Overview of Filters, Pins, and Properties” in Chapter 3 of this guide.
At the top of these three tabs is a control group named Pin Select.
The three buttons in this group determine whether changes you make will select both the capture and preview pin associated with the filter, or just the pin ? preview or capture ? that you have selected.
When the “Both” radio button is selected, changes you make to the setup apply to both the capture and preview pins.
If you like, however, you can have different setups for the two pins.
For example, you could enable a feature on the capture pin but not on the preview pin. When you select the “Capture” radio button, the current logo settings for the capture pin are loaded, and changes you make apply only to the capture pin, not to the preview pin. The “Preview” button works the same way.
Please note that the Osprey SwiftCap capture application greys out the Pin Select choices and forces the “Both” selection. This application expects settings for Capture and Preview to be locked together. Some other Osprey applications may do this, by intention, as well.
The DirectShow Pin Properties that applications may display for Capture and Preview pins are always per-pin.
Some of the controls on the Filters tab and the Device tab are global to all Osprey-2XX, -300, -440, or -530/540/560 devices. Global controls are noted as such in their descriptions. The rationale is either that the control is logically global to all devices or that it is a rarely used, less important control, such that users will prefer the convenience of setting the control just once for all devices.
The groupings of Osprey board models to driver binaries are as follows (“o100”, etc., are short for Osprey-100, etc.).
? o200avs ? o100, o200, o210, o220, o230
? o300avs ? o300
? o440avs ? o440
? o540avs ? o530, o540, o560
If a control or setting is described as “global”, it affects all devices on the system within the group to which it belongs. That is a global change made in an Osprey-230 property page will affect an Osprey-210 in the system, but not an Osprey-560 in it.

The Video Proc Amp Tab
Use the slider controls to set Brightness, Contrast, Hue, Saturation, and Sharpness. If preview or capture-to-screen video is running
when you access this page, you can see your adjustments interactively.
Hue: The Hue adjustment functions for NTSC video only and will be disabled when PAL, SECAM, or Osprey-530/540/560 digital video is selected.
Sharpness: This slider has six positions corresponding to six hardware filter settings. Generally, the positions to the left result in smoother video, the positions to the right result in sharper video.
Since each step engages a different combination of discrete filters, the control may be non-linear in its action. That is, some steps may result in slight differences while other steps may result in large differences. The specific filters engaged by each step may differ from input to input. This is especially true on the Osprey-530/540/560 when switching between analog and digital inputs. So, if you use different inputs on the Osprey-530/540/560 you may want to adjust each input individually. If the video source is capable of being paused, the effects of different sharpness settings are most easily seen by pausing the video.
Please note that because this is a DirectShow standard dialog, this dialog includes features that are not implemented on the Osprey cards and are therefore greyed out. The Osprey driver does not implement White Balance and Backlight Comp controls, and the Auto checkboxes do not function because the driver does not implement automatic setting of the Proc Amp adjustments. The Osprey driver does have a Gamma control, but it is located on the Filters property page.
For all of the Video Proc Amp controls the driver maintains one set of settings per Osprey device. It does not maintain individual settings
for each input or type of input.
Changes made on this page apply to all video preview and capture pins on the currently selected device.
When you change the video standard or video input you will not see changes in the slider controls ? such as the Hue button becoming disabled ? until the driver properties dialog is closed and re-entered.
Osprey-530/540/560 notes:
When a digital video (SDI or DV) input is selected, the Hue adjustment does not function and will be disabled.
When a digital video input is selected and the checkbox “Bypass Color Correction” on the Input tab is checked, all four of the Brightness, Contrast, Hue, and Saturation sliders are disabled.
When a digital input (SDI or DV (1394)) is selected, the analog controls are greyed and three controls relevant to digital inputs are enabled.
On the Osprey-530/540/560 the driver cannot decode Closed Captions when brightness or contrast are set at extreme values.
This will only be a problem when they are set to such extremes that normal video will not be viewable.

The Video Decoder Tab
The VideoDecoder Tab is a DirectShow standard control for setting the NTSC/PAL/SECAM video standard. Note that these controls are also on the Input Tab. Most users will find the Input Tab more convenient to use.
Changes apply to all video preview and capture pins on the currently selected device. If you have multiple Osprey cards, set the input individually for each of them.
Changes made with this control take effect immediately ? the Apply button really has no function on this tab. If video is running and a standard is selected that does not match the incoming signal, the video is likely to freeze or glitch until the signal matches again.

The Input Tab
All controls on the Input tab apply to all filters and pins on the currently selected device. If you have multiple Osprey cards, set the input individually for each of them.
Changes take effect when you click the Apply or OK button.

Video Input Group
The main Video Input control is a drop list for selecting the video signal source. The inputs shown on the list are tailored to the inputs available on your hardware.

Video Standard Group
The Video Standard control group is a copy of the controls on the Video Decoder tab.
The North American standard is NTSC. The Japanese standard is NTSC-Japan. The five PAL standards, B, D, G, H, and I are very similar, and are treated the same way by the Osprey driver. The driver also supports SECAM video.

Input Format Group: Analog Inputs
On the Osprey-2X0, -300, and -440 analog cards, and for the Osprey-530/540/560 when an analog input (composite or svideo) is selected, the following controls provide additional adjustments.

B&W composite camera:
This checkbox improves the clarity of video from monochrome sources. This checkbox is only enabled when a composite input line is selected; otherwise it is greyed and the control has no effect.
When a composite input line is selected, and a monochrome device is attached, this checkbox should be checked ? the result will be a sharper image, as shown in the “notch kill” item of the image pair below. If a device that has color capability is used, this checkbox should be unchecked, or else the image will be textured and unstable. Note: this control is only for true monochrome devices, without color capability. For example if you are looking at a DVD of a black and white film, this checkbox should not be checked because a DVD player has color capability. If this control is checked with a color source, the image will appear shimmering and unstable.

Reverse field order
This control might be useful if you are capturing video from a digital camera, and routing through the Osprey card’s analog composite or s-video input. The normal field pairing order for NTSC cameras is Odd-Even. However, some progressive video cameras and video footage that originated on film may have a different field dominance that requires pairing of even/odd fields into frames. If you notice that there are problems with interlaced video such as “comb” effects where alternate lines are reversed, the Reverse Field Order setting might clear up the problem.

Input Format Group: Digital Inputs(Osprey-530/540/560 only)
The Osprey-530/540/560 controls for analog inputs are the same as for the analog cards, as described above.

Progressive scan
This control affects capture of video from a digital camera, routed usually through the Osprey card’s DV input (540 and 560 only). In normal video, including many digital cameras, field 1 containing lines 1, 3, 5… of the video is transmitted in its entirety followed by field 2 containing lines 2, 4, 6…. The capture card interleaves the two fields together, and the progressive scan setting should be turned off. A digital camera, however, may transfer data in progressive mode, meaning that the data is transferred as a single field of lines 1, 2, 3, 4, 5…. You will know that you need to use the Progressive Scan setting if the video displays as two separate half-height fields, one on top of the other.

SDI 486-line mode
This control is important and will be needed with many NTSC SDI setups. The NTSC standard provides 485 lines of video. The lines appear to a video capture devices as interleaved from two fields, with 243 lines from field 1 and 242 lines from field 2.
SDI sources may add a 486th line, which will be line 283 at the top of the above list, before line 21. This reverses the apparent field order as seen by the Osprey-530/540/560, and alters the lines on which captioning data will appear.

Check the SDI 486-line control:
1. If you do not see closed captions with CC1 enabled, or see spurious incorrect captions.
2. If you do see CC1 captions correctly when the CC3 caption channel is selected.
3. If no XDS data can be decoded from a source that is known to have XDS data.
4. If, using a broadcast source, on the RefSize page, having selected “Start Video at Lines 23/286”, you see a single line of ancillary data (line 285) at the top of the screen.
This control is mainly for use with SDI sources but it is enabled with DV sources as well. Therefore, if you are using a 486-line SDI source along with a 485- or 480-line DV source, you will have to manually change this line each time you switch between these inputs. 486-line mode is automatically inhibited for the analog inputs ? composite and svideo ? so you do not have to switch it off when you select one of these inputs.

Bypass Color Correction
When a digital video input is selected (SDI or DV), a checkbox entitled “Bypass Color Correction” is enabled. When this box is checked, default values for Brightness, Contrast, and Saturation are used, and the user-accessible controls on the Video Proc Amp tab are disabled. The Video Proc Amp controls become enabled or disabled only when the driver’s properties dialog is exited and re-entered.

The Filters Tab
Use this control group to enable SimulStream or SimulStream evaluation mode, and specify how many filters will be exposed.
For more background about Devices, Filters, Pins and their relation to SimulStream, please refer to “Overview of Filters, Pins, and Properties” in Chapter 3 of this guide.
NOTE ? users of versions of the Osprey AVStream driver prior to 4.0.0 will find that the method of representing and managing multiple video capture and preview pins is greatly revised for 4.0.0. We recommend that you review the following material even if you are thoroughly familiar with 3.X.X SimulStream.
SimulStream is a purchased software option. It makes a single hardware device appear as several separate devices capturing the same input stream. Each stream can have different size, color format, frame rate, crop, logo, and captioning. You can have multiple video capture streams in a single application, or multiple applications each with one or more capture streams.
For details about purchasing and installing SimulStream, refer to
The base AVStream driver includes an evaluation version for you to try out for free.
When SimulStream is installed the controls in this group affect the fully licensed SimulStream mode, as opposed to the free evaluation mode. When SimulStream is not installed, they control evaluation mode. Evaluation mode works the same as full SimulStream except that an evaluation logo is displayed on the video. If you have set up a custom logo, the evaluation logo preempts it as long as evaluation mode is turned on.

Background: Filters.
From a practical point of view, Filters have two interrelated purposes:
1. They allow applications to enumerate and list DirectShow video capture and preview pins or streams (each with different settings) as named entries in their video device select list. You can set up the driver to show 1 to 10 fi lters per device. Each fi lter has one preview pin and one capture pin.
Standard applications can access a particular fi lter without any custom programming specialized for Osprey devices.
2. Each fi lter has independent settings for cropping, default output size, logos, and captions, that can be stored between sessions. Compared to the previous “pin-based” method, there are no requirements for a particular startup order, in order to associate settings with instantiations.
If you are familiar with GraphEdit, the best way to visualize SimulStream filters is to construct a multifilter graph with GraphEdit, and apply different crop, logo, and caption settings to each filter.

The Enable Checkbox
The checkbox at the top of the group turns on SimulStream for the currently selected device.
If you have a full SimulStream license installed, this checkbox controls full SimulStream. If you have a SimulStream license installed but have not turned on SimulStream, the text line at the top of the control group will say that SimulStream is “installed”. If you do have SimulStream turned on, the text will say that SimulStream is “enabled”.
If you do not have a purchased SimulStream license, this checkbox controls SimulStream evaluation mode. If the Enable checkbox is unchecked, the text line at the top of the control group will say that SimulStream evaluation mode is “installed”. If you check the checkbox, the text will say that SimulStream evaluation mode is “enabled”.
When you change the SimulStream Enable status and click Apply or OK, a message box comes up asking to restart the system. It is strongly recommended that you do so. If you do not, SimulStream may partly work, but the filters may be incorrectly named and their pins may be incorrect.
When SimulStream (or SimulStream evaluation mode) is enabled, the driver always works in “Postprocessing Mode”, as described below in the Mode control group. The Mode control will be forced to Postprocessing Mode, and the “Direct Mode” control will be disabled.

Show N filters per device.
With this control you can set up the driver to expose 1 to 10 filters per device for enumeration and selection by applications. If, for example 4 filters per device is chosen, device lists in applications will show four entries for the current device. For device 1, they are designated as 1.1, 1.2, 1.3, and 1.4.
This is a global setting, affecting all Osprey-2XX, -300, -440, or -530/540/560 devices as a group.
When you apply this change, a message box comes up asking you to restart the system - it is important that you do so. The number of filters you have requested will not display or work correctly until the system is restarted.
Note ? while it is possible to expose and enumerate up to 10 filters per device, the practical number of working filters will be less than this. The practical number of filters depends on the capability of the system, the types of filtering turned on in the driver, the types of scaling and color format conversions requested in the driver, and the type of processing being done by the downstream application.
When video is being directly rendered to the screen, the video format and type of renderer used can make a major difference in system performance and in the number of streams that are possible.
If multiple capture devices are in the system, the number of filters is the total across all the devices; in addition, some times of processing such as deinterlacing and gamma correction that are performed once per device may in this case occur multiple times. So, in summary, a high-end, multicore or multiprocessor system can support 5, 6, or more concurrent filters on one device if the processing per filter is light; but only 2 or 3 if the processing load inside or outside of the driver is particular heavy.

Allow multiple instances of each filter
This control enables you to run multiple instances on one device of applications that do not have device select controls.
It is recommended that you leave this turned off unless you have a specific need for it. Turning it on will affect some of the above description. Specifically, crop, logo, and caption settings cannot be kept separately for applications sharing a filter, and may interfere with each other in a confusing way. The most recent crop, logo, or caption setting will be the one that is saved ? it will overwrite settings that might have previously been saved from another application.
This is a global setting, affecting all Osprey-2XX, -300, -400, or -530/540/560 devices as a group.
When you apply this change, a message box comes up asking to restart the system ? this change will not work correctly until you do so.

The Mode group selects the two main functional modes of the driver - Maximize Video Quality and Maximize Video Throughput(EaseStream). For essential background on these operating modes, refer to Overview: Direct Mode and PostProcessing Mode in Chapter 3 of this document. Please see Chapter 3 for an EaseStream overview.
Deinterlace / inverse telecine and gamma correction are applied to all filters on the device and must have the same settings for all filters.
Crop, logo, and caption settings can be different for each pin of each filter, and the driver saves settings between sessions separately for each filter.
Video size, color format, and frame rate can also be different for each pin, but it is the responsibility of the application to save these settings.

The deinterlace group has four radio buttons:
? Off ? Perform no deinterlacing of any kind.
? Motion Adaptive ? Apply motion adaptive deinterlacing to all video.
? Inverse Telecine ? Apply inverse telecine deinterlacing to all telecine video. Perform no deinterlacing of video that is not telecine. Available for NTSC video only.
? Auto - Apply inverse telecine deinterlacing to all telecine video. Apply motion adaptive deinterlacing to all video that is not telecine. Switch dynamically between the two modes as the content changes. Available for NTSC video only.
Deinterlace settings are applied and stored per-device and are applied to all filters and pins associated with a device.

Background - telecine and inverse telecine:
Telecine video is NTSC video that was originally created on film at 24 frames per second. In the telecine conversion process certain fields are repeated in a regular, recurring sequence. If a telecined sequence is viewed directly on a progressive screen, interlacing artifacts will be visible.
The process called Inverse Telecine is the reverse of Telecine - it drops the redundant fields and reassembles the video in a 24 fps progressive format. Interlacing artifacts are 100% removed. If the video is viewed at 24 fps, you will see the exact timing and sequencing that was on the original film. If the video is viewed at 30 fps, every 5th frame will be repeated; however, there will be no deinterlacing artifacts.
Telecine and inverse telecine only apply to NTSC video. They are not used for PAL and SECAM video. The Auto and Inverse Telecine buttons will be disabled when PAL or SECAM is selected as the video standard.

Background ? motion adaptive deinterlace:
Motion adaptive deinterlace is an algorithm for deinterlacing pure video (non-telecine) content. It detects which portions of the image are still, and which portions are in motion, and applies different processing to each.

The Currently Using Group
These indicators show which algorithm is currently being used.
These are NOT control buttons ? they are read-only indicators.
They are mainly useful in Auto Mode, to indicate which algorithm ? Inverse Telecine or Motion Adaptive ? is currently being applied.
They are also useful in Inverse Telecine mode to show whether telecine content is present and the Inverse Telecine algorithm is being applied.
The mode currently in use is marked by a green arrow. A mode that is possible under current control settings but not currently in use is marked by a dark grey arrow. A mode that is not available with the current control settings is marked by a pale outline arrow.
With inverse telecine enabled, when telecine content is detected, the five Cine Phase dots show whether the 3:2 pulldown sequence is shifting. If it is shifting, the green marker will shift. This will happen in mixed telecine/video content, and also in content that was converted to telecine and then post-edited in the video domain.
Whenever a shift happens, there will be a few frames that are not deinterlaced. If these shifts are frequent, you may have to switch to Motion Adaptive deinterlacing for consistent quality.
When the telecine detector locks the first time in a streaming session, the leftmost Cine Phase button will be green. If the telecine sequence is perfectly coherent, the phase will never shift. Once it does shift, the absolute phase of the Cine Phase display (which of buttons 1 through 5 is green) is not significant ? the only significant fact is that phase shifts are occurring. When the sequence relocks, all phase button are equally correct.

The Tweek… Dialog:
Use the tweek dialog to adjust the parameters that control motion adaptive deinterlacing.
Note: When the driver is using the Inverse Telecine algorithm, either in Telecine mode or Auto mode, the Tweek settings have no effect at all, and Test Mode is inoperative.

Test Mode: When the Test Mode box is checked, the motion adaptive algorithm enters a test mode that displays motion pixels as bright green dots. The dots will mainly be along edges that are in motion, but if the motion threshold is set too high there may also be a random distribution of green dots caused by pixel jitter and instability of the video signal. The extensiveness of the green areas will vary according to the settings of the other tweek controls. Test mode is always automatically exited when you exit the Tweek dialog.

Motion Threshold: The Motion Threshold slider and edit box adjust the threshold of difference from spatially and temporally related pixels that is judged to be “motion”. If you enter Test Mode and move the slider to the right, the number of pixels that are considered in motion will be greatly reduced. As you move the slider to the left, the number of motion pixels will greatly increase until nearly the entire screen is considered in motion. The recommended default is 16.

Sharp and Smooth Motion: When the Sharp Motion radio button is selected, detail in motion areas will be sharper, but at the expense of somewhat jagged diagonal edges.
When the Smooth Motion radio button is selected, there will be more loss of detail in motion areas, but edges will be smoother.
Since the eye does not see detail clearly in areas of motion anyway ? whereas edge artifacts are always highly intrusive ? the Smooth algorithm should be preferred for most applications. The Smooth algorithm uses a bit more CPU.
Both algorithms treat still areas (areas that are not green in Test Mode) the same way, and there should be no loss of detail in still areas.
In Test Mode, with the Sharp algorithm green speckles will be on alternate lines only, and with the Smooth algorithm they will be on all lines.
1. If your video format results in exact 2:1 or 4:1 vertical scaling for a particular pin, then all the video will come from one field. This will be the case for uncropped NTSC CIF (320x240) or QCIF (160x120). It may be the case for special cases of cropped video as well.
In the PostProcessing sequence as currently implemented, the “sharp” motion adaptive deinterlacing algorithm has no effect on single-fi eld streams, since it alters only the fi eld that these streams do not use. The “smooth” algorithm operates on both fi elds and may have a detectable blurring effect on areas of motion. (“Sharp and “smooth” are set in the Tweeks… subdialog.)
Inverse telecine if enabled does not affect the individual fields for a one-field pin; however, if the pin’s frame rate is 24, the driver will detect and remove the frames that are repeats. If you are streaming multiple pins, and the exact single-fi eld special scaling case holds true for one pin but not another, different processing will be applied to the two pins.
2. When Auto mode is selected, some kinds of content will cause the driver to frequently switch between Inverse Telecine and Motion Adaptive processing. Content such as title sequences and commercials is often telecine, but cuts between scenes generally break the telecine sequence, forcing the driver to resynchronize. It takes it a number of frames to lock on to the new sequence. The driver will drop back to the Motion Adaptive algorithm as soon as it becomes aware that telecine sync has been lost. However, it may take it several frames to discover that this has happened; these frames will not be correctly deinterlaced.
You should decide whether to use Auto, Inverse Telecine, or Motion Adaptive mode depending on the type of content you expect.
If the content is consistently telecine, then either Auto or Inverse Telecine is recommended for perfect recovery of the original progressive format.
If the content is telecine with post-detelecine video-based editing, Auto mode will result in the best overall quality ? but there may be several frames that are not deinterlaced every time the pulldown phase sequence has to be relocked.
If the content format is a rapidly changing mix of telecine and video, or is all video, or is of unknown type, the Motion Adaptive setting will give the most consistent results. The quality of telecine sequences will not be the best possible, but there will be no instances of frames not deinterlaced at all due to telecine re-locking.

Gamma Correction
This control adjusts the gamma of the incoming video. “Gamma” refers to the response curve of video cameras and CRTs. When video is captured at a camera, the response of the camera is deliberately nonlinear ? low lumen values are boosted, and high lumen values are compressed. This is done for two reasons: (1) It increases the effective bandwidth in the low lumen range, where it is needed, at the expense of the high lumen range, where it is less needed; (2) it matches the response characteristics of TV sets and monitors.
The calibration specified in video standards matches the requirements of cameras and TV sets in broadcast use, but generally does not match the needs of computer-based applications or the response curves of computer monitors. So a correction inverse to the original bias is often needed, and you may want to tune for the characteristics of a particular monitor.
When the gamma correction filters is disabled, either by unchecking the Gamma Correction checkbox or by setting the gamma correction value to exactly 1.00, the software-based gamma filter works in passthrough mode, with no effect on the video and with no processing bandwidth used. When gamma correction is enabled, the factor applied is as shown in text box and in the graphic. If you are running preview video while adjusting the filter, you will see the effects of your adjustments interactively.
There are four ways to adjust the gamma correction value:
1. By directly entering text in the numeric text box.
2. By clicking the [+] and [-] buttons.
3. By dragging the mouse with the left button down between the upper left and lower right.
4. By clicking the button marked “2.20” (NTSC) or “2.80” (PAL/SECAM). These values are the inverses of the gamma bias that was applied at the video source according to the video standard, so that the resulting video is gamma-neutral.
The graphic, in addition to showing the transfer function as a red curve, shows the visual effect via the two greyscale bands on the adjustment square. The lower third of the square shows a nonvarying linear adjustment range. The upper two thirds shows the greyscale mapping of the current setting. When the setting is 1.00, the two portions are identical.
Gamma correction is enabled only when Postprocessing Mode is selected.
Gamma correction applies to all filters and all output pins on each device. The gamma correction can be different for different physical devices.

The Device Tab
These controls are less often used items.
Unless specifically noted, changes made on this page apply to all filters and all video preview and capture pins on the currently selected device. Unless noted, different settings may be set and stored for different devices.
? PCI Compatibility Mode
? Processor Assignment
? Device Info…
? Extras…

Processor Assignment
This control is relevant only on machines with two or more processors, and with two or more Osprey devices of a particular class(Osprey-2XX, -300, -440, -530/540/560) installed. On single-processor machines, this control is greyed.
Normally, when a machine has multiple processors and multiple Osprey devices, best performance is achieved by letting the Windows dispatcher assign devices to processors dynamically. The processing for a device will generally end up on the first processor to become idle, and load balancing between processors will occur naturally.
On a few machines, however, it has been noticed that Windows will run all Osprey devices on one processor, resulting in unbalanced loading and reduced performance.
The upper button in the control group sets the usual, default case whereby Windows if free to assign any device to any processor.
The lower button is for those few cases where the default setup does not work right. It causes each Osprey device to be hardwired to a specific processor ? device 0 to processor 0, device 1 to processor
1. The assignment is round-robin, so if there are four Ospreys on a two-processor machine, device 2 will be assigned to processor 0, and device 3 to processor 1.
Changes made to this control will take effect when you restart the machine.
If you have mixed classes of Osprey devices ? for example an Osprey-230 in the same machine as an Osprey-560, overriding the default of this control is not recommended. The two device types run under different drivers, and both drivers will consider their device to be “device 0”, and both will assign it to processor 0.

PCI Compatibility Mode
Some PCI bridges present compatibility problems for the Osprey hardware, especially systems using the 430FX chipset. The symptom will be dropping of a significant amount of audio and/or video data.
Use the “Normal” setting unless you are seeing this symptom, but if you are seeing it, try setting this control to “430FX”, or, possibly, to “VIA/SYS”. The change will take effect as soon as you click “Apply” or “OK”.

Device Info…
This button display useful information about the capture card and the driver, including
? The DirectShow name of the device.
? The device and filter number.
? The PCI bus and slot numbers of the device.
? The device type code.
? The serial number of the device.
? On Windows XP x64, whether the application is 32-bit or 64-bit.
? The versions of the kernel driver and user mode DLL (AX).
? The versions of the interfaces between the kernel driver and user mode DLL..
? The file name of the kernel driver binary.

“Extras” are features of the AVStream driver that are new, not fully defined, or subject to change. Extras may also include workarounds to apparent DirectShow issues that are expected to be resolved fairly soon. Extras should be expected to change more frequently than other aspects of the driver. The current Extras are the following:
? Timecode Video Marking: Refer to the Vertical Interval Timecode section on page 31 of this guide for more information.
? Closed Caption Timestamping: This control is a workaround to what we currently believe to be a problem in DirectShow with capture of CC to AVI files. If you attempt to capture a CC character pair stream along with a video stream to an AVI file with “Normal” timestamping, the file will become extremely large and the capture will fail within a few seconds. “AVI-Compatible” mode allows capture of CC to AVI. Unfortunately, the problems with timestamping mean that time synchronization between the video and CC streams depends on their physical interleaving in the file, so that time synchronization will be quite poor; we do not have a workaround for this at this time. For all applications other than capture to AVI, this control should be set to “Normal”. WME9 among others requires the “Normal” setting if CC is used.
Vbi Pin (Osprey-530/540/560 only): The Osprey-530/540/560 do not provide full Vertical Blanking Interval (VBI) support, and do not normally expose a VBI Pin. Windows Media Encoder 9, however, has a Closed Captioning scripting capability that requires a workaround: Although this application connects to the driver’s Closed Caption Pin for delivery of actual Closed Caption data, it looks for a VBI Pin in its capability enumeration phase. This control directs the driver to expose a logically correct but non-functioning VBI pin so that the WME9 scripting capability can be used. We recommend hiding the VBI Pin for other applications, since no valid VBI data will be delivered. Changes to this setting only take effect when the you restart the device either with the system’s Device Manager, or by rebooting the system.

The RefSize Tab
The RefSize tab controls features related to the reference size, format, and proportions of the video. These controls are not commonly used. Most users can set up this page once and never refer to it again. Note that this page does not provide everyday control of the final output size of your video. Control final output size either from your application, from the Crop tab, or from the Pin Properties dialog described in the next section.
Changes made on this page apply to all video preview and capture pins on the currently selected device.
? Horizontal Format
? 525-Line (NTSC) Vertical Format
? Reference Size for Crop and Logo Placement
? Horizontal Delay
? Source Width (Osprey-530/540/560 only)

Horizontal Format
Use the Square Pixels setting for video that will be viewed via a computer monitor. This setting results in a square aspect ratio sampling of the source video. This results in a source image of 640x480 for 525-line standards and 768x576 for 625-line standards.
Use the CCIR-601 setting if the captured video will be later viewed on a dedicated video monitor. This setting results in a CCIR-601 aspect ratio sampling of the source video. It results in a video input horizontal size of 720 pixels for both 525-line and 625-line standards. This sizing is standard for dedicated monitors but results in video that appears horizontally stretched(525-line) or squeezed (625-line) on a computer monitor.
It is more efficient to set the horizontal mode to match the size of the output. For example, if your target video size is 640x480, using Square Pixel sizing in PostProcessing Mode will avoid an unnecessary software scaling step in the driver.
On some systems, for reasons external to this driver, 640x480 video will render a lot faster than 720x480 video ? that is, the speed difference will be a lot more than the 9:8 ratio of numbers of pixels.
Osprey-530/540/560 note: This control is implemented only for 525-line standards. When a 625-line standard (PAL or SECAM) is selected, CCIR-601 720-pixel sampling is automatically selected, and the control is greyed.

525-Line (NTSC) Vertical Format
This control is only meaningful for NTSC users. It has no effect for PAL and SECAM 625-line video standards.
Select 480-line video for all normal applications. Select 485-line video for specialized applications.
When 480-line video is selected, you can select which of three video lines should be the top line of displayed or captured video. Lines 21 and 284 are used for Closed Caption in films and broadcast video.
Lines 22 and 285 are sometimes used for ancillary data in broadcast video. If these lines are used for data they will appear as moving bands or streaks across the top lines. Therefore, the most generally useful start lines are 23 / 286. For cameras and some packaged content, however, all video lines starting with 21 / 284 can be part of the displayed video.

Reference Size for Crop and Logo Placement
This part of the dialog is read-only because you do not set it directly ? rather, it shows the results of more fundamental settings made elsewhere in the dialog.
The settings shown by the 525-line / 625-line buttons reflects the video standard selected in the Input or Video Decoder tab. NTSC formats result in 525-line, 29.97 frame per second video. PAL (other than ?M) and SECAM formats result in 625-line, 25 frame per second video.
The Height and Width boxes show the size of the incoming video based on all the settings you have made.

Horizontal Delay
The Horizontal Delay control moves the video horizontally in the capture or preview frame. Video devices differ in their timing characteristics, so some devices may need different adjustments from other devices. Adjust this control if you are seeing a black line to the left or right of the video. Use the left and right arrow buttons to move the video to the left or right. Click [0] to restore the default zero setting. The allowed range is -15 to 15. With uncropped video, the video will shift only on every second increment 0, 2, 4….

Source Width (Osprey-530/540/560 only)
The Source Width control can be used to trim the black left and right edges of an image. This control is only available for NTSC video, and only when the Horizontal Format is set to Square Pixels such that the reference size is 640x480.
The suggested procedure is as follows:
1. With video preview running, click [720] to display the entire image, which will usually include black left and right edges. Changes will appear interactively.
2. Use the Horizontal Delay control immediately above this control to center the image so that the black edges are of equal width.
3. Click [704] to trim the image to the nominal borderless width.
4. Click [+] and [-] to adjust the trimmed size so that the black edges are completely removed but no active video is lost. The allowed range is 688 to 720.
It is possible to obtain the same result using the cropping control(Size and Crop Tab) but there are some differences.
1. The Source Width control affects all pins and all filters on the device, whereas the crop control would have to be set separately for all SimulStream filters.
2. In Postprocessing Mode this operation is often more efficient in terms of processing than a crop operation. The crop and scale are done in hardware, so if you are using the resultant 640x480 image directly without further cropping there is no scale/crop processing cost incurred.

The Size and Crop Tab
This tab has two functions.
? It sets the default output size, whether or not cropping is enabled.
? It enables and disables cropping, and sets the cropping rectangle.
The default output size is the video size that appears in the DirectShow pin properties dialog as the “default” choice. It is a pathway for setting a custom or nonstandard video size in applications that do not have a custom video sizing controls built into them.
“Cropping” means removal of unwanted video around the edges of the incoming image. For example, if the incoming video is letterboxed, with an aspect ratio wider than 4:3, you can crop away the black slivers at the top and bottom of the image and capture just the active portion.
Changes made on this page apply to all video preview and capture pins on the currently selected device.
? Pin Select
? Reference Size
? Granularity
? Enable Cropping
? Default Size

Pin Select
When the “Both” radio button is selected, changes you make to the crop setup apply to both the capture and preview pins. This is the default setting and is what most users will want.
If you like, however, you can have different setups for the two pins.
For example, you could enable cropping on the capture pin but not on the preview pin. When you select the “Capture” radio button, the current crop settings for the capture pin are loaded, and changes you make apply only to the capture pin, not to the preview pin. The “Preview” button works analogously.
Note: The Osprey SwiftCap capture application greys out the Pin Select choices and forces the “Both” selection. This application expects the Size and Crop settings for Capture and Preview to be locked together. Some other Osprey applications may do this, by intention, as well.

Reference Size
The reference size information is always read-only on this dialog tab.
It is determined by settings made on other tabs ? specifically, the Input tab, where a 525-line or 625-line standard is selected, and the RefSize tab, where Square Pixel or CCIR proportioning is selected.
The read-only text box describes which of these options is currently governing the reference size.
The reference width and height represent the full uncropped size of the incoming video. Your crop settings are interpreted relative to this reference size. For example, if you are capturing 525-line video, with a reference size of 640x480, and your crop rectangle is (0, 0, 640, 480), then your video is effectively uncropped. But if you are capturing 625-line video, with a reference size of 768x576, the same(0, 0, 640, 480) crop specification will truncate the right and bottom edges of the video.

Granularity and Alignment
Osprey products impose restrictions on the possible width and/or height of the video, referred to as “granularity” restrictions. For example, the I420 capture format requires that the capture width be a multiple of 16 and the capture height be a multiple of 2. When video is cropped they also impose a requirement for alignment of the left side of the cropped video field. The specific requirements for the 4.0.0 driver are changed from the 3.X.X driver versions. They are as follows:

Granularities of Supported Color Formats





























































The Granularity controls show you the granularity restrictions for the selected video format, and assist you in choosing crop and output sizes that observe those restrictions. Since alignment is the same for all formats, there is no control for it.
Since the preview and capture pins may be set to different color formats, they may have different granularities. When the Crop tab is opened, the two drop boxes titled Capture and Preview are initialized to the current or most recently used format for the selected pin.
If your Pin Select setting is “Capture”, only the Capture granularity box will be enabled; similarly for Preview. The two small read-only edit boxes to the right of the group show the horizontal and vertical granularities for the selected color format for the selected pin type.
If your Pin Select setting is “Both”, both the Capture and Preview drop boxes are enabled, and the two boxes to the right of the group show the worst-case granularity that works for both the Capture and Preview color formats. For example, if the Capture color format is I420 and the Preview color format is YUY2, the resultant granularity is I420’s more stringent 16x2 requirement.
The granularity and alignment settings affect values you subsequently enter for crop width, crop height, and default output width and height - they will be adjusted to these granularities.
Adjustments are made when you click “Recalc”, “Apply”, or “OK”.
You can change the video format in the drop box, so that granularities are set for a different format. Note that this does not automatically cause the pin to have this format ? you still have to select that format using the Pin Properties dialog or via your application. It just ensures that the sizes you select will work correctly when you do select this color format in the application.
If you set up your crops with a less restrictive granularity (for example, YUY2) and then capture with a more restricted granularity(for example, I420), the driver may automatically adjust the video crop and/or output size without notifying you. Or, the capture may fail. You may also find that in the Pin Properties dialog the default size you wanted is not listed ? because it is not a legal size for this format.
If you select “[none]” as the color format(s), the minimum granularity and alignment adjustments are applied to your crop and size data.
If you select “[any]” as the video format, the coarsest granularity required by any of the available formats is applied to your crop and size data. In practice, “[any]” is the same as YVU9, that is, 16x4.
You are guaranteed that your crop and output sizes will never be adjusted, regardless of what video format you select now or in the future.

Enable Cropping
If you uncheck the Enable Cropping checkbox, your video will not be cropped regardless of any crop settings you might previously have made. The edit boxes showing the edges, height, and width of your crop will be read-only and will show settings for full-frame, uncropped video.
If you check the Enable Cropping checkbox, your video will be cropped to the indicated boundaries. Previously stored crop settings will be recovered. The six edit-boxes are enabled. The Top and Left boxes set the top left corner of the cropping rectangle. The Right and Bottom boxes set the bottom right. The Width and Height boxes set the size of the rectangle.

The Recalc Button
The Recalc button recalculates the whichever of the six crop edit boxes you have not filled in. For example, if you set Top, Left, Width, and Height, Recalc will calculate Right and Bottom. If you set Top, Left, Right, and Bottom, Recalc will calculate Width and Height.
Whichever of the vertical group was least recently touched, is the item that will be recalculated; similarly with the horizontal group. If you have only changed one box of the group, you can force the order of recalculation by clicking one of the other two boxes. For example:
If you have changed Left, and you want to preserve Width (but alter Right), then click on Width before Recalc. If you have changed Left, and want to preserve Right (but alter Width), then click on Right before Recalc.
If your specification will result in a crop rectangle that is too large or too small, Recalc will adjust it appropriately. If it can’t set up an allowed size by changing just the third most recently clicked setting, then it will try to change the second most recently clicked setting instead or as well. If it has to it will change your most recently changed setting.
Recalc will also factor in granularity and positioning requirements as required.
In the Default Output Size group, Recalc will change the default output size if Auto Size is checked. If Auto Size is not checked, Recalc will leave the output size alone.
1. Note that the crop width and height are subject to the granularity requirements of the selected video format, as explained in the previous section. For example, if your video format is I420 and you try to set a crop width of 360, it will get adjusted down to 352.
2. If you enable cropping, key in some custom settings, and then disable cropping, an uncropped specifi cation will be displayed and your settings will disappear from view.
However, the driver does remember your custom settings, and if you enable cropping again, they will reappear.
3. Versions 4.0.0 and later of the Osprey AVStream driver can upscale cropped video, up to the reference size.
4. Cropping rectangles are frame-based rather than fi eldbased.
Thus if a crop rectangle is set up defi ning a 320x240 area, then a capture of video sized at 320x240 will result in video being captured from two fi elds. You may therefore see interlacing artifacts in the captured video, unless a deinterlacing fi lter is applied. This may be initially confusing since most users typically think of 320x240 video capture only coming from a single fi eld and thus would not have interlaced artifacts. However, in this case, the source video is only 320x240 in size (i.e. the crop rectangle) and thus any captured video that is greater than the fi eld height within the crop rectangle (equal to ½ cropped ROI height) will result in a scaled capture of multiple fi elds. Also, the driver will use both fi elds whenever they are needed to interpolatively scale the output with best possible accuracy.

Default Size
The standard DirectShow Pin Properties dialog allows you to select the height and width of captured video from a dropdown list. The dropdown list has a particular range of choices that may or may not fit your needs. The dropdown list includes one default size that is provided by the capture driver. The Default Size control allows you to set up what default size will be shown.
If you check the Auto Size checkbox, your default video size will be automatically sized to your crop settings. The three radio buttons, 1X Crop, 1/2X Crop, and 1/4X Crop, determine whether the output size is scaled down from the crop size.
? Example 1: If you are running standard 640x480 NTSC video, and the Enable Cropping checkbox is not checked, your crop size is 640x480. With Auto Size checked, and the 1X Crop radio button selected, your default size will be 640x480; with 1/2X Crop, 320x240; and with 1/4X Crop, 160x120.
? Example 2: If you have enabled cropping with size 320x240(one quarter of the full video area), the default Auto Sizes are as follows: 1X, 320x240; 1/2X, 160x120; 1/4X, 80x60.
If you leave Auto Size unchecked the default size radio buttons are disabled and the height and width edit boxes are enabled. You can set any default size with the following two restrictions:
? Since the driver does not upscale video, the default size must be smaller than the crop size. For example, if the crop size is 320x240, you cannot set default size 400x300.
? Sizes are subject to the granularity requirements of the selected video format, as explained in the Granularity section above. For example, if your video format is I420 and you try to set a default width of 360, it will get adjusted down to 352 as soon as you click on another control.
Note that Pin Properties dialog default entry does not appear in the default VFW/DirectShow mapper dialog. Thus, unless a VFW application, like Virtual Dub, specifically allows for custom resolutions, the VFW app will only be able to select from the options the VFW/DirectShow mapper lists.

The Logo Tab
The logo property superimposes a graphic over captured video using the logo property controls.
Logos have the following characteristics:
? Any RGB-24 bitmap in .bmp file format can be used.
? A selectable key color can be specified; all parts of the logo graphic with that color are not drawn on the video.
? A transparency control can be used to blend the logo graphic with the background video.
? The logo can be interactively positioned and scaled.
? The logo appears on both captured and previewed video. If the capture and preview video are different sizes, the logo is scaled to look the same on the preview video.
The logo property controls work best when you are already running preview video. With preview video running, you can view your changes interactively. (If your application displays capture video in real time, capture video can be used instead.)
The logo property is organized as three sub-pages ? File, Color, and Position. The Pin Select control group and Enable Logo are common to all three. For other controls, click the File, Color, or Position radio button to bring up the right sub-page.

Logo Pin Select
When the “Both” radio button is selected, changes you make to the logo setup apply to both the capture and preview pins.
If you like, however, you can have different setups for the two pins.
For example, you could enable the logo on the capture pin but not on the preview pin, and thereby save some CPU time. When you select the “Capture” radio button, the current logo settings for the capture pin are loaded, and changes you make apply only to the capture pin, not to the preview pin. The “Preview” button works analogously.
Note to SimulStream users: The Pin Select control group is different when SimulStream is enabled. Refer to the SimulStream section of this guide for a description.
Another note: The Osprey SwiftCap capture application greys out the Pin Select choices and forces the “Both” selection. This application expects the Logo settings for Capture and Preview to be locked together. Some other Osprey applications may do this, by intention, as well. However, several other applications, such as Windows Media Encoder, do not grey out the Pin Select choices, and you have the options to choose “Capture,” “Preview,” or “Both.”
Please see the screenshot below.

Logo File and Color
The Enable Logo checkbox, which is repeated on both sub-pages, enables or disables logos. If you disable logos, all your other logo settings are retained for when you re-enable logos again.
The [Browse…] button brings up a standard file select dialog. Logo files must be:
? In .bmp format with a .bmp filename extension.
? In RGB-24 format.
If you have a graphic that is in another format, edit it with a drawing or photo edit program such as Windows Paint, and save it as RGB-24.

You can control the key color and the transparency effect. If preview video is running, you will see your changes interactively.
A “key color” is a color that disappears from the graphic so that the underlying video shows through unchanged.
If the Enable Key Color checkbox is unchecked, all colors are displayed.
If the checkbox is checked, key coloring is activated. The five radio buttons are activated. You can select one of four standard colors ? dark gray, medium gray, cyan, or magenta ? or a custom color. It you select Other, for a custom color, the three edit boxes ? Red, Green, Blue ? are activated, and you can enter any color value into these boxes.
Keycolors to identify transparent portions of logos can be exact or inexact. The Tolerance control determines this. If Tolerance is 0, then all keycolors have to exactly match the Red / Green / Blue values shown in the key color control group. If Tolerance is nonzero, then the Red / Green / Blue values can deviate from the keycolor by the tolerance value and still be treated as being equal to the keycolor.
For example, it Tolerance is set to 5, and the keycolor is set to grey(192, 192, 192), then pixels in the bitmap with value (187, 187, 187) will also be transparent.

Array Array
The degree of transparency of the logo is variable through 256 steps.
If the setting is 255, the logo will be opaque. If the setting is 0, the logo will be completely transparent. If you have set a keycolor, the weighting or transparency value is applied only to pixels that do not match the keycolor and hence are always completely transparent.
You can set the weighting either with the slider or by editing the number in the edit box.
Note that the SimulStream Eval logo is a special case ? it is restricted to the range 128...255 so that it cannot be made completely transparent.

Logo Position and Size
The Logo Position and Size sub-page lets you position and scale the logo. It is strongly recommended that you have preview video running when you use these controls.
The large indented rectangular area at the top of this sub-page represents the video area where the logo can be positioned. The smaller rectangle represents the logo. To position the logo, click on the logo rectangle and drag it to the new position.
The four “Nudge” buttons, L, R, U, and D, move the logo left, right, up, or down exactly one pixel at a time on the output video. Since the positioning rectangle may be scaled down from the full video size, the Nudge buttons allow more accurate positioning of the logo.
The slide control at the bottom right of this sub-page controls the scaling of the logo. The [1X Scale] button returns the size to the original size of the .bmp graphic. The quality of a scaled image will not be as good as the quality of the 1X image. We recommend that wherever possible for production work you prepare artwork of the exact size at which it will be used.

Notes on Logos:
? Because the logo properties tab is used to set up a logo interactively on live video, its behavior is different from the behavior of the other tabs. The driver updates the controls on the logo tab immediately, without waiting for you to click [Apply]. You will see that [Apply] enabled only right after you select a different pin spec. As soon as you make any change to any logo control, [Apply] becomes disabled and stays that way until you change to another pin spec.
? If you set up a logo with video set to one size, then resize the video, the logo is not scaled correspondingly. This may not be desirable, since you may want the logo to expand to the same scale as the video window. Click the [1X Scale] button to restore the logo to its unscaled size or import a logo prescaled to the new desired size to ensure the best image quality.

The Captions Tab
Osprey-530/540/560 note: With these products the driver cannot decode captions when video brilllghtness or contrast are set at extreme values. This will only be a problem when they are set to such extremes that normal video will not be viewable.

CC Pin Select
When the “Both” radio button is selected, changes you make to the captioning setup apply to both the capture and preview pins. This is the default setting.
If you like, however, you can have different setups for the two pins.
For example, you could enable cropping on the capture pin but not on the preview pin. When you select the “Capture” radio button, the current captioning settings for the capture pin are loaded, and changes you make apply only to the capture pin, not to the preview pin. The “Preview” button works analogously.
Note: The Osprey SwiftCap capture application greys out the Pin Select choices and forces the “Both” selection. This application expects the Size and Crop settings for Capture and Preview to be locked together. Some other Osprey applications may do this, by intention, as well.

Render NTSC Closed Captions on Video
The 4.0.0 driver can internally render closed captions on video when NTSC video is selected on the input. There is a control to select which channel to render (although CC 1 is the only channel that is commonly used).
Note that this control only affects rendering on video performed internally by the driver. The AVStream 4.0.0 driver has two additional ways of delivering captions.
First, it exposes a DirectShow-standard CC pin. This pin can be used directly by applications such as Windows Media Encoder’s scripting facility.
Second, the driver has a proprietary Closed Caption API for use by C++ developers. It delivers raw captioning data from any CC or Text channel. It also delivers line-interpreted data from these channels, suitable for a scripting display or for capture to an ASCII file. Is also delivers XDS - “Vchip” and other ancillary data ? in raw form. The applet named CCChannels.exe that is included with the driver release demos these capabilities.
The control group “Render Logical White As” maps white captions to a color other than white. This is a proprietary extension to the Closed Captioning standard. When logical white is mapped to, for example, red, the CC standard captioning red also works; however, it is not possible to distinguish “logical white” red captions from “standard colored” red captions. Since standard colored captions are so little used, this characteristic has little practical effect.

CC Pin
This group controls whether the closed caption character pairs emitted by the DirectShow CC pin are from field 1 or field 2 of the video. The DirectShow specification is that CC on a CC pin is always from field 1; however, this extension allows application developers to access field 2 data such as XDS data (including vchip) via a DShow standard pin.

Capture and Preview Pin Properties
This dialog is the default DirectShow way for obtaining a user’s settings for the output format of captured video.
Changes made in this dialog apply to the currently selected pin only.
The settings for the capture and preview pins are independent; in applications like GraphEdit or AMCap, both must be set before both pins are used.
Access to the Pin Properties dialogs is application-specific. For example, in the AMCap capture application, access is by two entries in the Options menu, Video Capture Pin… and Video Preview Pin….
In GraphEdit, right click on the pin you wish to set the properties for.
Many applications do not use these dialogs; they instead have their own built-in ways of setting these parameters.
The three active fields of the dialog set the Color Space or pixel format of captured video; Output Size of the video, and Frame Rate.
The recommended order for setting these parameters is: First, Color Space; second, Output Size; third, Frame Rate. If you set the frame rate before the other two, it may be lost so that you have to reset it.
The Output Size drop box displays a selection of standard size settings plus one additional setting designated as “default” that DirectShow obtains from the capture driver. You can obtain specialized video sizes by a two-step process: First, go to the Filter Properties Crop tab described above and set the Default Size to a custom value. Then, enter the Pin Properties dialog and select the default entry, which will now be set to your custom value.
For more information about the supported color formats, refer to Video Driver Topics, Color Formats.
The area of the dialog marked Compression is not relevant for the Osprey AVStream driver.
The Video Standard setting is read-only in this dialog. To set the video standard, go to the Video Decoder tab of the filter property pages.

AVStream Driver Reference Information
Overview of Filters, Pins, and Properties
In DirectShow the words “filter” and “pin”, as well as “driver” and “device”, are frequently used. The following diagram shows their relationship as they apply to Osprey hardware and drivers.
At the bottom this diagram are one or more physical Osprey hardware devices. All Osprey devices of a given type (such as Osprey-230 or Osprey-560) are controlled by a single Osprey binary, the Osprey AVStream Driver. For each physical device the AVStream Driver creates one logical Video Device and one logical Audio Device.
On top of each Osprey logical Video Device, one or more Video Filters is created. If the SimulStream option is not installed, there is a single Video Filter for each Video Device. If SimulStream is installed, there can be multiple Video Filters for each Video Device
The distinction between “Device” and “Filter” is important mainly to SimulStream users. For non-SimulStream users, Device and Filter effectively mean about the same thing. For SimulStream users, each SimulStream Filter acts as a “virtual device” that can be accessed by name and can deliver a separate video stream with its own independent control settings.
When SimulStream is enabled, some functions and capabilities are device-level, and others are filter-level. Examples of devicelevel functions are input select, and the controls for brightness, contrast, hue, saturation, and sharpness. These are closely tied to the underlying hardware of the device, which inherently allows only one input to be selected at a time, and one set of hardware control settings to be applied. Examples of filter-level functions are crop, logo, and caption settings, which can be different for each video filter, and in fact for each pin of each filter. Some other capabilities such as deinterlace and software gamma correction could logically be either device-level or filter-level, but are treated as device-level
for practical reasons.
Each Video Filter has one Capture Pin and one Preview Pin. A “pin” is the source or destination of a video or audio stream. A video capture pin is a general purpose pin used for capture to a file, an encoder, an on-screen renderer, or any other destination. A video preview pin is mainly intended for on-screen rendering. Each Osprey Video Filter also has a Closed Caption pin and a Vertical Blanking Interval (VBI) pin for capture of specialized ancillary data.
On top of each Osprey logical Audio Device, one Audio Filter is created, with one or more pins capable of sourcing one or more audio streams. There is not much practical distinction between an Audio Device and an Audio Filter in either the SimulStream or non-SimulStream cases.
Both devices, filters, and pins may have associated “Properties”.
“Properties” are control parameters that can be read from or written to the component. Some Property Pages are standard Windows DirectShow pages. For example, the Property Page for an individual pin is a standard DirectShow page. The “Video Proc Amp” and “Video Decoder” Pages are also DirectShow-standard. The rest are proprietary to the Osprey driver.
As a user, you interact with Property though visual “Property Sheets”, “Property Pages”, or “Property Tabs” that are part of a tabbed dialog. As a programmer, you can set properties directly from within the code of your application, using either the standard DirectShow API or the custom Osprey extension API that is available from ViewCast Corp in an SDK.

Overview of Direct Mode and PostProcessing Mode
Maximize Video Quality
The 4.0.0 driver has two distinct operating modes. Direct Mode is a simple, low overhead mode for basic capture. PostProcessing Mode enables a number of filters, transforms, and renderers within the driver, and supports the SimulStream option.

Direct Mode
The purpose of Direct Mode is to capture and/or preview video with very low CPU overhead. It is meant for low capability machines, and for other cases where it is imperative for the driver to use as little CPU as possible. Scaling, cropping, and color conversion are done in hardware, incurring no processing overhead ? but at the cost of reduced flexibility.
The drawing shows a graph of Direct Mode processing; the drawing is mainly interesting as a comparison point for the PostProcessing Mode drawing in the next section.
In Direct Mode, each device has one video capture pin, and one video preview pin. Video can be cropped and scaled, and the crop and scale specifications can be different for two pins.
In Direct Mode, the driver does not apply deinterlacing, gamma correction, logos, or on-video captioning.
There is no SimulStream in Direct Mode; if SimulStream is turned on, the Direct Mode control is deselected and disabled.
In direct mode the driver is somewhat restricted in the combinations of capture and preview video that it can produce at the same time.
If the capture pin alone is used or the preview pin alone is used, the driver can produce video in any size and rate.
If both the capture and preview pins are used, the limitations to video size and rate are as follows: The capture stream is preemptive over the preview stream, in accordance with Microsoft recommendations for video capture drivers. That is, if (1) there are both a preview and a capture pin; (2) the capture pin frame rate is 29.97 frames per second (25.0 PAL/SECAM); and (3) the source video of either or both pins is interlaced, using both video fields, then there will be NO preview video ? the preview window will be blank.
If the above conditions hold except that if the capture pin frame rate is less than 29.97, then the preview rate will be 29.97 minus the capture rate. In other words, the preview pin will obtain a video frame only in time slots when the capture pin does not require one.
The driver never copies video from one pin to another in Direct Mode.
On the Osprey-2X0, -300, and -440, Direct Mode supports Closed Captioning delivered to the DirectShow CC pin, as well as to the new Osprey-proprietary CC streaming interface demo’ed by the CCChannels applet supplied with the driver. The Osprey-530/540/560 implements Closed Captioning differently, and captioning of all types requires Post Processing Mode. Direct rendering of captions on video within the driver requires Post Processing Mode for all Osprey boards.

PostProcessing Mode
The drawing shows a possible graph of video data flow within the driver in PostProcessing Mode. This particular graph assumes that SimulStream is activated so that more than two video pins are possible. There are four video output pins, represented by the pale yellow round rectangles:
? The upper pin produces scaled and/or cropped I420 video, with a logo (bug) and Closed Captions rendered on the video.
? The second pin produces scaled and/or cropped YUY2 video with a logo but no captioning. In this particular graph, the upper two pins are scaled and cropping identically, so a single scaling operation can service both pins.
? The third pin has a different scale/crop specification, so its video runs through a separate scaler/cropper. The video is captioned and converted to Rgb15.
? The lower pin produces unscaled, uncropped D1 YUY2 video with no logo or captioning.
The video routed to all pins is in this example deinterlaced and gamma-corrected. Deinterlace or inverse telecine if used are always applied globally to all pins, as is gamma correction. Scaling, cropping, logoing, captioning, and color format conversion are performed separately for each pin.
Compared to Direct Mode, Postprocessing Mode adds the following capabilities:
1. With SimulStream disabled, there is still a maximum of one capture pin and one preview pin on the device at a time.
However, there are no restrictions on combinations of video size and rate, color formats, or crop settings. The driver will color convert and copy video as required to deliver up to 25 or 29.97 frames per second in any format to the two pins.
2. With SimulStream enabled, there can be multiple capture pins and multiple preview pins. Each capture and preview pin pair is placed on a separate fi lter. The maximum number of each type of pin is the same as the maximum number of fi lters you have elected to expose in the SimulStream control group. Any pin can produce video at any size, rate, color format, and crop setting. Of course, there will be practical limits imposed by the bandwidth of the machine.

The EaseStream™ feature is a proprietary postprocessing technique ViewCast has added to the AVS driver that allows for greater data throughput on the PC bus.
The user has the option to choose between Maximize Video Quality or Maximize Video Throughput (EaseStream).
In the Video Capture Properties Dialog box, the Filter tab has a section for the Postprocessing Mode.
? If you choose Maximize Video Quality, EaseStream is disabled.
? If you choose Maximize Video Throughput (EaseStream) Postprocessing, this allows for more data throughput, which simultaneously allows for higher resolution capture on more channels.
3. The following post processing fi lters can be applied, with or without SimulStream enabled:
- motion adaptive deinterlacing and inverse telecine
- gamma correction
- logos
- on-video caption rendering
Some of these filters operate globally on all filters and pins of a devices, and some operate on a per-filter or per-pin basis:
? The Video Proc Amp controls ? brightness, contrast, hue, saturation, and sharpness ? are applied globally in hardware to the incoming video.
? The basic reference size ? CCIR-601 or square pixel ? is established in hardware. Horizontal delay and Osprey-530/540/560 720/704 width select are also performed in hardware.
? Deinterlace / inverse telecine and gamma correction are applied to all filters and pins on the device and have the same settings for all filters and pins. (Adaptive deinterlacing does not affect quality of single field 2:1 or 4:1 exact-scaled video, so long as the “sharp” algorithm is used. Inverse telecine does not affect single field exact-scaled video.)
? Crop, logo, and caption settings can be different for each pin of each filter, and the driver maintains separate settings for each filter and pin.
? Video size, color format, and frame rate can also be different for each pin. It is the responsibility of the application to maintain these settings.

Efficient Video Rendering
The following information is primarily useful to developers, but may also be helpful for those who want to fine-tune existing applications.
If you are seeing poor rendering performance, in terms of either excessive CPU utilization or jerky, stuttering video, read this section.
There are at least four basic ways to render video from the capture driver onto the screen. They vary greatly in their efficiency, and applications do not always make the best choice of renderer.
In these descriptions it is assumed that the AVStream driver’s Preview Pin is being used. The results would be the same if the Capture Pin were used instead.

Preview Pin to Video Renderer
“Video Renderer” is the oldest and simplest DirectShow renderer.
It does not use DirectDraw in the rendering process, which makes it substantially slower than VMR7 described below. It is the default rendering pathway that will be chosen when an application says “Render” without specifying a preferred pathway. For this reason, many applications deliver unnecessarily slow rendering performance.
Video Renderer works best when your output format is RGB rather then YUV, with the RGB format matched to your screen depth. On most modern systems that means RGB32 is the preferred format. If a YUV format is used, an extra filter, “AVI Decompressor” will be inserted into the graph to convert the YUV to RGB. The driver can do this conversion faster internally.

Preview Pin to Overlay Mixer to Video Renderer
Compared to a direct connection of Preview Pin to Video Renderer, the combination of Overlay Mixer plus Video Renderer provides performance that is …different. It is hard to be more specific than that without reference to specific machines; refer to the data tables below.
This is the only pathway that renders closed captioning correctly when a DShow CC or VBI pin is used rather than the driver’s internal rendering. For CC rendering, the output of the Line 21 filter connects to an input of the Overlay Mixer.
The best video format to use with Overlay Mixer is YUY2.

Preview Pin to VMR7
VMR7 is short for “Video Mixing Renderer 7”. VMR7 is a newer renderer that is generally much faster than the old Video Renderer.
When the driver is running in Direct Mode, VMR7 uses an efficient DirectDraw configuration to render with almost no CPU overhead, especially when YUY2 video is used. When the driver is running in PostProcessing Mode, DirectDraw is not used but it is still the fastest renderer.
Unfortunately, VMR7 is not the default video renderer in building a filtergraph ? an application must explicitly ask for VMR7 in its graph in order for it to be used. This causes many simpler applications to render video much less efficiently than they might.
VMR7 works best with YUY2 video and there is usually little reason to use any other format. It will, however, work fairly well with the RGB format ? usually RGB32 ? that matches the current screen depth.
We recommend letting DirectShow choose the video format. It will generally make the correct choice. In particular, on some (usually older) systems, if two video frames are to be rendered with VMR7 at the same time, only one can be YUY2; other(s) will be RGB, with a conversion filter inserted into the graph if necessary.
We do not provide an RGB24 option on the preview pin for use with 24-bit screens because on at least some display adapters the rendering of RGB24 to VMR7 is incorrect.
Note that VMR7 cannot be used when closed captions are to be rendered from the driver’s DShow-standard CC or VBI pin ? use the Overlay Mixer to Video Renderer pathway instead. If the driver’s internal rendering is used, the VMR7 will work and is recommended.

Preview Pin to VMR9
Video Mixing Renderer 9 is the newest video rendering method and the one on which Microsoft supposedly will base its future development. The intent is to combine the functionality of the Overlay Mixer plus Video Renderer in one module that takes advantage of the latest developments in DirectShow. We are finding that at its present stage of development, with our hardware, VMR9 does not achieve the very high efficiency of YUY2-to-VMR7. Also, although VMR9 is supposed to function as an overlay mixer for rendering captioning from the driver’s DShow CC or VBI pin, we have
never seen it function correctly.

Some Data Points
The following measurements are CPU percent on two machines ? a fairly old P4, and a newer dual Opteron 244. The video size is 640x480. The screen depth is 32 bits. The following abbreviations are used:
? YUY2 = the Osprey driver’s preview pin in YUY2 format
? RGB15 = the Osprey driver’s preview pin in RGB15 format
? RGB32 = the Osprey driver’s preview pin in RGB32 format
? VR = old Video Renderer
? VMR7 = Video Mixing Renderer 7
? VMR9 = Video Mixing Renderer 9
? AVI = AVI Decompressor
? OVL = Overlay Mixer
The PostProc results are shown in two modes: with all post processing filters turned off, and with the adaptive deinterlace filter turned on.
Generally these results show the following:
1. The great desirability of newer machines for video processing. This has to do with system architecture more than raw CPU speed.
2. VMR7 is generally fastest. If you don’t need the driver’s PostProcessing, then Direct Mode with VMR7 is especially fast.
3. Results for specifi c pathways can be inconsistent across different machines. For example, on the P4, YUV to VR is faster than RGB to VR; on the Opteron, RGB is faster.
In evaluating these benchmarks, bear in mind that all of them involve video rendering to the screen. Depending on the exact pathway, video rendering can result in CPU utilization that is a lot higher than for other capture scenarios. Specifically, writes to display adapter memory that are performed by the CPU rather than with direct memory access (DMA) operations may be inordinately slow. If you are streaming video or capturing to file you will not see numbers that are this high. If you are encoding video, you may see high CPU utilization, but much or most of it will be from the encoder rather than the driver.

Dual Opteron 244, 1.8 GHz, 3GB, NVIDIA GeForce 6600 PCIe x16

Rendering Pathway

Direct Mode

PostProc w/o Deilace

PostProc w/ Deilace

Video Renderer

RGB15 -> VR




Video Renderer

RGB32 -> VR




Video Renderer

YUY2 -> AVI -> VR




Video Renderer

YUY2 -> OVL -> VR





RGB32 -> VMR7





YUY2 -> VMR7





YUY2 -> VMR9




P4, 2.0 GHz, 512MB, Rage Fury Pro/Xpert 2000

Rendering Pathway

Direct Mode

PostProc w/o Deilace

PostProc w/ Deilace

Video Renderer

RGB15 -> VR




Video Renderer

RGB32 -> VR




Video Renderer

YUY2 -> AVI -> VR




Video Renderer

YUY2 -> OVL -> VR





RGB32 -> VMR7





YUY2 -> VMR7





YUY2 -> VMR9




Video Standards and Sizes
Video Standard refers to whether the video signal format is NTSC, PAL, or SECAM. Depending on the exact product version you have, some or all of the following standards will be available:
525-line formats:
* NTSC-M ? North America
* NTSC-J ? Japan
625-line formats:
* PAL-B, D, G, H, I ? many countries in Europe and elsewhere.
B, D, G, H, and I refer to five nearly identical subformats.
Full-sized NTSC-M and NTSC-J have 525 lines total, 480 lines visible, per frame and a display rate of 59.94 fields per second, or 29.97 interlaced frames per second. Although capture-to-PC applications normally use only 480 video lines, the full NTSC frame actually contains 485 video lines, and the AVStream driver provides a control to capture all 485 lines. The control is located on the RefSize property tab.
Full-sized PAL and SECAM have 625 lines total, 576 lines visible, per frame and a display rate of 50 fields per second, or 25 interlaced frames per second.
The standard frame sizes are different for NTSC and PAL. For example, the half-frame size in pixels is 360x240 for NTSC, and 360x288 for PAL. The driver automatically adjusts the reference size and default size for the video standard you are using.
Note that the Osprey-300 always uses CCIR-601 horizontal proportioning, which is based on a 720-pixel full line width.

Color Formats
The Color Format is the arrangement of data bits representing the colors of each pixel. For example, in the RGB555 format, each pixel of data is stored as 5 bits of red, 5 bits of green, and 5 bits of blue color information.
Video delivered by the Osprey board to the system is in uncompressed format. It is possible to compress the video at a subsequent stage of processing. However, this dialog field refers specifically to the uncompressed raw video that the board delivers to the system.
The Osprey AVStream driver supports the following capture pin formats.
* YUY2 and UYVY - Each pixel is represented with a total of 2 bytes (16 bits) of data. The data is encoded as separate data for luminance (intensity) and chrominance (color). This mode is mainly used as an input to software compressors.
See YUV Format Details below.
* YUV12 planar - Also known as I420. This is a complex format in which there are in the aggregate 12 bits of data per pixel. Each pixel has 8 bits of luminance data. Each group of 4 adjacent pixels arranged in a 2x2 square shares two bytes of chrominance data. See YUV Format Details.
* YVU9 planar - Similar to YUV12 planar, except that there are in the aggregate 9 bits of data per pixel, and each byte pair of chrominance data is shared by 16 adjacent pixels arranged in a 4x4 square. See YUV Format Details.
* RGB32 - Each pixel has four bytes (32 bits) of data - one each for red, green, and blue, plus one byte that is unused.
The pixel has 256 shades of each of the three colors, for a total of 16.7 million colors.
* RGB24 - Each pixel has three bytes (24 bits) of data - one each for red, green, and blue. This is another “true color” mode with 16.7 million colors.
* RGB555 - Each pixel has two bytes (16 bits) of data. There are 5 bits each of red, green, and blue data; the sixteenth bit is unused. This is a “high color” mode, also known as “5:5:5.”
* RGB8 (Greyscale) ? The Osprey AVStream driver uses the RGB8 format for greyscale video. RGB8 is a palletized format. Each pixel is represented by one byte, which indexes one of 256 colors in a color palette specified by the driver. The Osprey driver sets the color palette to greyscale entries, and captures “Y8” luminance-only data.

YUV Format Details
YUY2, UYVY, YVU9, and YUV12 are YUV formats. In these formats, each pixel is defined by an intensity or luminance component, Y, and two color or chrominance components, U and V. Since the human eye is less sensitive to color information than to intensity information, many video formats save storage space by having one luminance byte per pixel while sharing the chrominance byte among two or more pixels. YUV is also very similar to the color encoding used for analog color television broadcast signals.
YUY2 mode, sometimes referred to as 4:2:2 packed mode, consists of a single array of mixed Y, U, and V data. Each pixel has one Y(intensity) byte. Each pixel shares its U and V bytes with one of the pixels horizontally next to it.
YUY2 uses the same number of aggregate bytes per pixel as RGB15, which is two. However, YUY2 is more efficient than RGB15 because it stores relatively more of the intensity information to which that the human eye is most sensitive.
UYVY mode is very similar to YUY2 except that the bytes are swapped as follows:
YVU9 and YVU12 are “planar” modes - the Y, U, and V components are in three separate arrays. It is easiest to explain the format with an example: Let’s say you have a 320x240 YVU9 format. The buffer has 320x240 bytes of Y data, followed by 80x60 bytes of V data, followed by 80x60 bytes of U data. So each U and each V byte together contain the color information for a 4x4 block of pixels.
Similarly, a 320x240 YUV12 format has a 320x240 Y array, followed by a 160x120 U array, and then a 160x120 V array.
Note that in the I420 format used by Osprey, the order of the U and V arrays is reversed from the order in the YVU9 format.

Closed Captioning (CC)
The Osprey AVStream driver supports NTSC closed captions in three separate ways.
1. Through standard DirectShow CC and VBI pin.
2. By rendering captions directly onto video on the capture or preview pin. The captioned video can be streamed, written to fi le, or rendered directly.
3. Through an Osprey custom property.
On products other than the Osprey-530/540/560, the driver also provides PAL/SECAM captions as well as teletext data in raw form via the VBI pin (not through the CC pin). Refer to the next section on Vertical Blanking Interval (VBI) Capture for more information. The rest of this section is specific for NTSC captioning only.

Captioning via CC or VBI Pins
The driver supports the standard DirectShow CC and VBI pins (on the Osprey-530/540/560, the CC pin only; on the other products, both pin types). The CC character pair data can be streamed to applications such as Windows Media Encoder 9, or rendered directly to the screen using the DShow Overlay Mixer filter. The 4.0.0 driver can be set to output CC field 2 character pairs on the CC pin, instead of the standard CC field 1 data. XDS (vchip) data is embedded in the field 2 stream.
The GraphEdit filtergraph shown here displays CC on rendered onto preview video. The Line 21 Decoder downstream of the Osprey-530/540/560 capture filter interprets the CC pairs and renders an overlay of the characters. The Overlay Mixer combines the CC overlay with the preview video, which is then rendered onscreen. It is also possible to capture the character pair stream as a standard stream of an avi file, (although there will be problems with timestamping and synchronization); or, to directly manipulate the CC stream in a standard way with a custom application.
Our testing with the current version of DirectX 9 indicates that closed captions do not render properly with the VMR9 renderer in place of the Overlay Mixer / Video Renderer combination. Therefore, the default Video Renderer in combination with Overlay Mixer should be used.
When SimulStream is not installed, the driver supports two CC pin instances. One could be associated with the video capture stream, the other with the preview stream. In practice, a DirectShow Smart Tee Filter can be inserted into the graph to make any number of VBI pins. When SimulStream is installed, you can have two CC pin instances per SimulStream filter.
There are three user-accessible controls built into the driver that affect Closed Captioning.
1. On the RefSize property page, in the control group shown below, 480-line video must be selected and the radio button to start video at either “Lines 23/286” or “Lines 22/285” must be selected.
2. On the Captions property page, most of the controls relate to the driver’s internal direct rendering on video. The following control selects fi eld 1 or fi eld 2 as the fi eld to be streamed through the CC pin. This control is per-fi lter; both available pins on the fi lter are set the same way. For SimulStream users, the pins on different fi lters can have different settings.
3. On the Device -> Extras… property page, you have the choice to set with “Normal” or “AVI-Compatible” timestamping of Closed Caption samples.
This control is a workaround to what an apparent problem in DirectShow ? if you attempt to capture a CC character pair stream to an AVI file with “Normal” timestamping, the file will become extremely large and the capture will fail within a few seconds. The “AVI-Compatible” mode allows capture of CC to AVI. Unfortunately, the problems with timestamping mean that time synchronization between the video and CC streams depends on their physical interleaving in the file, so that time synchronization will be poor.
If the AVI file is set up to be “non-interleaved”, synchronization is not very good. If the AVI file is set up to be “interleaved”, synchronization is very poor.
For all applications other than capture to AVI, this control should be set to “Normal”. WME9 among others requires the “Normal” setting if CC is used.
Windows Media Player will not play back an AVI file with an embedded CC stream. The following GraphEdit filtergraph will playback an AVI file containing a video stream plus a CC stream, with the CC rendered on the video:

Direct CC Rendering on Video
The driver can render closed captions directly onto capture or preview video. The captioned video can be encoded, written to file, or rendered directly to the screen. The driver has to be in PostProcessing Mode.

CC Streaming Interface
The driver supports an Osprey custom property which provides the closed caption character stream for use by custom applications.
The Osprey filter named, supplied with the driver package, provides user-mode support for this captioning mode. The Osprey sample applet named CCChannels.exe, also supplied with the driver package, demos a CC line interpreter and XDS (vchip) extraction and display. Refer to the description of CCChannels.exe in chapter 5. Refer to the documentation for the Osprey AVStream SDK, version 4.0.0, for a description of this interface for developers.
Both the filter and the applet are provided in source code form in the SDK.

Vertical Interval Timecode (VITC)
Vertical Interval Timecode (VITC) data is embedded in the Vertical Blanking Intervals (VBIs) of some video content. Timecodes mark each frame with an hour / minute / second / framenumber marking that can be use for frame-precise editing.
The illustration below shows a VITC timecode waveform.
The current Osprey VITC implementation is preliminary in nature.
The features and method of implementation are subject to change.
We invite comments on the timecode-related capabilities that you need for your application.
Osprey’s approach to VITC is to invisibly watermark the video bits of each outgoing video frame with its timestamp data. The illustration shows a timecode extracted from a watermarked frame and rendered as text on the video. Four elements are used to produce it:
? The device extracts timecode data from the vertical blanking interval (VBI) waveform.
? The driver watermarks timecode into the video preview or capture pin’s output data.
? A custom filter decodes the watermark from the video and renders it.
? A GraphEdit graph combines the required filters. The filtergraph is as follows:
The Osprey Timecode Filter resides in the module and is installed and registered as part of the standard driver installation.
The source code for this filter is included in the Osprey AVStream SDK.
The Osprey Timecode Filter also exposes to applications a custom property and callback function that allows it to return the VITC data for each frame along with the frame’s timestamp to the application.
Since use of this capability requires custom programming it will not be further discussed here. Refer instead to the Osprey AVStream SDK Users’ Guide. A sample SDK applet named TCApp illustrates the interface.
Timecode stamping must be enabled in the driver before it can be used, and the field and line number correctly set. The Osprey-530/540/560, unlike the Osprey-100 and 200 series devices, does not implement an autosearch function to find the VITC line.
To access the controls, go to the Device property tab and click the Extras… button.
It is recommended that timecode marking be disabled when not in use, especially the auto search feature ? on a slow machine it uses several percent of CPU bandwidth - especially if timecodes are not present.
Note that VITC and LTC ? Longitudinal Timecode ? are two distinct encoding systems, and this driver supports only VITC.
A suggested reference on timecode is Timecode: a user’s guide ? 3rd ed., John Ratcliff, Focal Press, 1999.

Vertical Blanking Interval (VBI) Capture
The Osprey-530/540/560 does not support VBI raw capture. It only supports decoded capture of the two special streams, Closed Caption(CC) and vertical interval timecode (VITC). If your application requires VBI capture for WST teletext decoding or other purposes, and you are using analog inputs, you can use an Osprey-100 or 200 series device instead.
The Osprey AVStream driver provides DirectShow-compatible VBI pins. VBI data includes Vertical Interval Timecode (VITC) in both the NTSC and PAL worlds. In NTSC, line 21 Closed Captioning, although it is strictly speaking part of the video interval rather than true VBI data, is commonly treated as VBI data. In PAL, World Standard Teletext (WST) is encoded in the VBI data region.
The illustration above shows an NTSC CC waveform. This illustration is made using the VbiGraph sample app that is included with the driver and also available in source form in the Osprey AVStream SDK.
The driver delivers VBI data as raw waveforms, which are then decoded by external DirectShow filters. DirectShow provides three filters under the classification “WDM Streaming VBI Codecs” that will decode data from VBI pins:
? CC Decoder
? WST Codec
With the Osprey AVStream driver, either the CC pin or the VBI pin can be used to obtain closed caption data. If the VBI pin is used, an extra filter is required to turn the raw waveform into CC character pairs. The filtergraph below shows NTSC CC using the VBI pin; the graph in the CC section above shows CC from the CC pin; in the graph below, a CC Decoder filter must be inserted into the graph.
For PAL/SECAM, the following graph will display teletext and CC. (In this graph, to view CCs you have to select the CC page ? probably page 801 - in the WST Decoder properties.)
When SimulStream is not installed, the driver supports two VBI pin instances. In practice, a DirectShow Smart Tee Filter can be inserted into the graph to make any number of VBI pins. When SimulStream is installed, any number of VBI pins are allowed.

The Audio Driver
Setup and control for audio are much simpler than for video. The basic steps are covered in the following topics:

Selecting the Audio Source and Input Volume

The audio source is set using the Osprey mixer driver interface. Most applications, including the Windows Media Encoder applications, interface to the mixer driver directly and expose the look and feel specific to that application. However, the default Windows interface to the mixer driver can also be used. There are two simple methods for getting to the mixer source and volume control dialog box.
1. The easiest method for accessing this interface is to right click the speaker symbol on your taskbar (typically on the bottom right-hand side of your screen). Then select the Open Volume Controls option. (There is a checkbox in Control Panel -> Sounds and Audio Devices to make this icon appear.)
2. If you do not see the speaker symbol, click the Start button on the Start Menu, select Start -> All Programs -> Accessories -> Entertainment -> Volume Control.
Either of these two methods brings up the audio mixer interface for the audio playback device, as shown below.
To get to the Osprey audio capture (recording) device, select Properties under Recording Control’s Options menu. This pops up the Properties dialog. Click on the Mixer device list at the top to see the list of audio input and output devices, including one or more Osprey cards. When you have chosen the device, click OK, and you will be returned to the Recording Control display.
The Osprey device is not a mixer in that it does not allow for mixing the various audio sources. Therefore, when one audio input is selected, any other input previously selected becomes unselected.
The Select checkbox at the bottom of each source sets which source is actually being used.
Osprey cards have hardware gain control. To control hardware gain use the volume slider in the mixer applet. The unity gain setting is when the volume slider is all the way up (in default driver settings).
The quick-access volume control (left click on the speaker symbol) on the task bar controls recording volume and playback volume.
To change record levels, go to Options, then Properties, and select Recording.

The Audio Properties Page
Many applications, including Windows Media Encoder, display the illustrated property dialog for setting audio source and volume level.
This is a general-purpose DirectShow property page that our driver has to support but which is not quite intuitive in its operation.
To select the audio source using this dialog, select the desired input in the “Pin Line:” selection box, then check “Enable”. This will also deselect whichever input had been previously selected.
The confusing part comes up when you select any input other than the first on the list, which happens to be “Unbalanced”. Let’s say you select “XLR Balanced”. When you close and reopen the dialog it will show “Unbalanced” in the selection box. It will look like the selection has been lost, but then you will notice that the “Enable” box is not checked. If you again select “XLR Balanced”, the “Enable” box will automatically show up as checked.
With the Osprey-530/540/560, which has multiple audio inputs, further confusion arises if you forget which input you had selected in the previous session and for some reason you want to discover this rather than just select an input for the new session. The only way to do that is to try all the inputs listed in the select box until you find the one for which “Enable” is checked.
This property page makes more sense if you understand that it is designed to allow mixing of audio inputs for devices that support that. Osprey audio capture filters do not support mixing of inputs - you have to select one stereo input at time - so the DirectShow design is not very convenient in our case.

Audio Formats
The Osprey hardware supports sampling of analog audio at 32, 44.1 and 48 kHz in 16-bit PCM format. Captured audio data is downsampled and reformatted if necessary by Microsoft system audio components, allowing an application to capture audio data in 8-bit and 16-bit mono or stereo formats at any of the following data rates:
? 8 kHz
? 11.025 kHz
? 16 kHz
? 22.05 kHz
? 32 kHz
? 44.1 kHz
? 48 kHz

Audio Playback
Osprey cards provides audio capture only, not audio playback.
Continue to play back captured audio using your system soundcard.

Audio Configuration
The AudioConfig applet is included as part of the Osprey AVStream driver package. It is also provided in source form in the Osprey AVStream SDK. It provides supplementary controls that are not available via the standard system properties.
AudioConfig’s controls are devicespecific and apply only to Osprey audio capture devices. Use the Device menu list at the top of the applet’s window to select which device you are controlling.

Preferred Audio Sample Rate
The audio sample rate is the rate at which the hardware samples the incoming audio, which may differ from the sample rate delivered to the client application.
The choice are to allow “Any Supported Rate”, or to force the sampling rate to be 32 kHz, 44.1 kHz, or 48 kHz. If “Any Supported Rate” is selected, all three rates, 32, 44.1, and 48 kHz, are available for selection by the Microsoft kmixer driver. Kmixer, however, does not necessarily select the optimum hardware rate for a given software rate. It may specify a 44.1 kHz hardware rate when a supplying 16 kHz software rate to the application, for example. In this case it would be better to set the Preferred Audio Sample Rate 32 kHz, so that downsampling is exactly 2:1.
When the audio input is SDI, the only sample rate that the Osprey hardware supports is 48 kHz. The driver will override your setting here.
When the audio input is DV1394, you have to use this control to match your audio sample rate to the actual rate of the incoming data. The two most common formats are 48 kHz/16-bit, and 32 kHz/12-bit. You may have to listen to a captured sample of your audio to determine whether the sample rate is set correctly ? if the pitch is incorrect, try the other setting.

Mono Source Mode
? If set to Use Left Channel, then left channel audio data is copied to the right channel.
? If set to Use Right Channel, then right channel audio data is copied to the left channel.
? If set to Average Left and Right, no copying is done.
The Microsoft kmixer component always averages both channels when converting to mono. If a signal is present on, say, the left channel only, the Average mode will average the left channel with the silent right channel, effectively halving the signal amplitude.
Setting this control to Left will result in only left channel data in the mono capture, with no amplitude drop.

Audio Level
This control sets the hardware Input Reference level and softwarebased Boost factor. The settings are separate for each input of each device, and are applied to whichever input is selected in the current application or in the system mixer. The settings displayed do NOT automatically update when you change inputs in the application or mixer click the “update” button to refresh the settings.
As the screenshot above shows, the Audio Level control is different depending on which input is selected.
The Input Reference level is meaningful only on the analog unbalanced and balanced inputs, and is calibrated differently for each When a digital input is selected this control is disabled. This is a hardware gain control with the default level chosen such that the expected amplitude of a full volume input signal will have adequate headroom without clipping. If you do experience clipping, or are working with very low-level signals, you can adjust this level. On this control, a higher reference level results in lower gain, so the quietest setting is at the top of the scale. Click the “Dflt” button to restore the default value.
The Boost setting is a software gain adjustment that applies to both analog and digital inputs. Boost can be set individually for each input. It supplements the system mixer volume controls by providing a very wide adjustment range. You can use it to calibrate or normalize input levels across multiple inputs; or to accommodate microphones or other non-line inputs that have nonstandard signal levels. Again, there is a “Dflt” button to restore the default value.

Osprey Applications
CCChannels displays closed caption and XDS (vchip) data.
Check the CC1 box to open a window displaying captions as lines of text. There will be a line break between pop-on captions. There will not be line breaks between successive lines of rollup captions. CC2, CC3, CC4 and the Text channels are not often used.
Check the Raw 1 or Raw 2 box to view the raw uninterpreted character pairs from field 1 or field 2 respectively.
Check the XDS box to view interpreted field 2 XDS data. The fields at the left of the display show the category of the messages. The text in brackets at the right shows the data of the messages.
Saving to file: In order to get text saved to file, you have to check the Write file box before opening the streams. The text files will be named cc1.txt, text1.txt, f1raw.txt, and xds.txt and so forth, and the files will be placed in the directory where CCChannels.exe is located.
If a file already exists it will be appended to always.
How to test XDS: If a channel supports XDS at all, there will always be content advisory information that is readily understandable.
There will be other fields that may or may not make much sense. The main test is whether the XDS interpreted text is grouped into wellformed lines with messages that appear that they could make sense to whoever they are meant for.
CCChannels is a demo app for the underlying filter CCLineInterp.
ax. CCLineInterp uses the Osprey-proprietary CC streaming interface new to the 4.0.0 driver to obtain a stream of CC character pairs (or two streams, one from each field). CCLineInterp interprets the CC stream in any of three ways:
1. It can pass through the raw CC stream from Field 1 and/or Field 2.
2. It can split off any of the eight CC or Text channels and interpret it into ASCII lines of plain text. It can return multiple channels at once, and the driver can support multiple instances of the fi lter running in multiple process spaces.
3. It can extract XDS data from Field 2 and return it as XDS packets. CCLineInterp splits out the individual packets but does not decode them in any way.
CCChannels provides a thin encapsulation of the raw and CC line streams from CCLineInterp. It mainly just prepends the timestamp returned with each line of interpreted text. CCChannels provides a more extended interpretation of most of the XDS packet types, as in the xds.txt window in the illustration. If the “Write file” checkbox is checked before a stream is opened, the text as shown will be save to file. is ready to use as-is if the interpretation format suits your application. Otherwise you may want to modify the CC interpreter. The source file CCChannel.cpp contains a complete line-oriented interpreter. It preserves horizontal text placement. It discards vertical text placement, and text modifiers including colors, italics, and underlines. It translates non-ascii special characters into approximate ascii equivalents where possible. It delimits pop-on captions (movie-style, as opposed to news-style) with an extra blank line between each pop-on.
For more detailed information on the US Closed Captioning standard, refer either to the standards document (CEA-608) or The Closed Captioning Handbook by Gary D Robson, Elsevier / Focal Press, 2004. Compared to the standards document, the book is more accessible, cheaper, and contains all the required technical information if you are willing to read between the lines a bit to get it.

CropApp allows you to set up crops visually and interactively. Its functionality is similar to the driver’s Size and Crop property page, but it has the added dimension of graphical placement of the cropping rectangle on live video. It has about the same functionality as SwiftCap’s crop setup dialog.
The functions of the controls on the left hand side of the video are as follows:
? If multiple Osprey devices are in the system, you can select the device of interest from the dropdown list at the top of the control groups. Click “Device Properties…” to access controls that are not explicitly addressed by CropApp.
? All operations affect both the Capture and Preview pin on the device. The driver’s Size and Crop property page is capable of setting the Capture and Preview pins differently.
If SimulStream is enabled, CropApp is hardwired to set up pin pair 0 only ? to set up other pins you will have to go to the driver’s Size and Crop property page.
? The Reference Image group shows the video height and width that are the reference size for cropping operations.
For example, if the reference size is 720x480 and the cropping spec is 720x480, then the video is effectively uncropped. This group also states the basis for this reference size ? that is, whether the video standard is NTSC (720x480) or PAL/SECAM (720x576).
? The Cropping Parameters group is where the current cropping parameters are shown. When the Enable button is Off, the entire video field is shown, with the crop as an overlayed rectangle. You can modify the crop in three ways:
? By editing the X, Y, Width, and Height boxes.
? With the two sets of arrows adjacent to these boxes.
? By dragging the center, edges, or corners of the crop rectangle on the video.
When the Enable button is On, only the crop field is shown, and the crop settings are not editable.
CropApp will not let you set crops that are smaller than a minimum width and/or height. The minimum size in the 4.0.0 driver is 48 wide
by 36 high.
? The Default Output Size group sets a default size that applications may choose. Use the slider to set the approximate size you want, and then if necessary use the [<] and [>] buttons to fine tune the setting.
The sizes available in CropApp will always retain a 1:1 height:width proportion. If you want to stretch the video to other proportions, use the driver’s Size and Crop property page, or SwiftCap’s crop dialog.
Not all applications use the driver’s default output size or present it as a choice; you may have to manually enter the settings calculated by CropApp into the application.
The Granularity group allows you to determine the allowed sizing increments for the selected video format. For example, if you select YVU9 in the drop list, you will see that the video widths allowed in this format are modulo-16, that is, 320, 336, 352, etc., and the video heights allowed are modulo-4 ? 240, 244, 248, etc. All editing of the crop size will snap to the nearest allowed size.
The left and top of the crop have to be placed on even pixel boundaries ? for example, in YVU9 the width must be 320, 336, etc, and the left side must be 0, 2, 4, etc.
Selecting a format here causes CropApp to use that format for its own rendering, but it does not cause that same color format to be selected in your application. In only ensures that your crop size will work with that color format when it is used.
We are finding that the default I420 codec will not render many output sizes, so when I420 granularity is selected, CropApp will observe the I420 granularity rule but render the video as YUY2.
Since you may see this problem in other applications, CropApp puts up a reminder message when it encounters this situation.
If you exit CropApp with the crop Enabled, that is, the center checkbox checked, the crop parameters will be set in the driver for any other application to use. If you exit CropApp with the crop disabled, the crop parameters will be set for other applications to use, but cropping will not be enabled until it is turned on as a separate step.
CropApp requires that the filter be present on the system. The driver setup program installs this filter.

LogoApp allows you to interactively position and resize a logo on live video. The functionality is similar to that of the driver’s Logo property page, but you can place and size the logo by dragging its center, sides, or corners directly on live video.
The control bar across the top allows you to Enable/Disable logo display and select the 24-bit .BMP logo file. You can size and place the logo graphically on the video, or you can directly edit the top/left/height/width boxes. Use the Size 1X button to snap the logo to its original size. The Colors… button brings up a dialog to enable color keying, select the key color, and set the transparency of the logo.
The Size menu allows you to select full or half-size video. The Device menu displays a list of enabled devices and provides access to the selected device’s property pages. LogoApp sets the same logo spec for both the Capture and Preview pin. If SimulStream is enabled, LogoApp will set only Pin Pair 0. To set up other pin instances, or to set the capture and preview pins differently, use the driver’s Logo property page.

VbiGraph is a demo of DirectShow VBI streaming. VbiGraph is provided with all driver packages except the one for the Osprey-530/540/560 ? which does not have a functional VBI pin. The current version of VbiGraph only works with the first video capture device enumerated. It will detect whether 525- or 625-line video is currently playing and configure itself accordingly. The controls let you display any VBI line from either video field.
Refer to the VBI section of the Video Driver Topics chapter for more information about VBI.

SwiftCap is a video capture application that is included with the Osprey AVStream package. It is included in source form in the Osprey AVStream SDK. SwiftCap is useful for general purpose capture and viewing of video, as well as for testing the installation. The following instructions take you through some basic scenarios for using this application.

Click the Preview button for a quick basic test of your video setup, or for basic video viewing. If you do not see motion video right away, make sure
? The correct device is selected
? An input to that device with a live video feed is selected
? The right NTSC, PAL, or SECAM video standard is set.
The descriptions below include instructions to correct these items if necessary.
The steps below will also show how to adjust the size of the video display.

Setup Sequence
SwiftCap has many possible scenarios and pathways. The following steps illustrate a few of the most useful possibilities.
1.Click the “Tools” button to open the capture settings dialog:
2. Set up the dialog as shown below. The numbers and circles show the suggested order of setup.
a. First decide whether you want to capture video only, audio only, or both; unselected controls will be disabled ? the following assumes you have selected “Both”.
b. Select your video device and source. Select “No Compression”.
c. In the Video Format group, uncheck “Use Driver’s Default”.
d. Select the video standard, color format, frame rate, and video size you want to se.
e. Select your audio device and source. Select “No Compression”.
f. In the Audio Format group, check “Use Default” for this experiment.
g. OK.
3. Next, click the Destination button to open the Capture Destination dialog:
4. In the Destination dialog, set the items marked in red.
a. In the video section, select “Renderer”.
b. Select “VMR7 Renderer”. Note that there is a discussion of renderers in the Video Capture Topics chapter.
c. In the audio section, select “Renderer”.
d. Select your sound card as the rendering device.
e. OK.
5. Click the Capture or Start button.
An “Active Movie” video window will open on your screen, and your will hear audio from the capture source, until you click Stop.

A Capture-to-File Scenario
1. No changes are mandatory from the previous setup the Capture Settings dialog. However, you may want to select a video and/or audio compressor to obtain a much more compact capture fi le.
2. In the Capture Destination dialog, make changes as shown below.
a. In the video section, click the AVI File button.
b. Do the same in the audio section.
c. Select an AVI fi le. Click the >> button on the right to browse for a fi le.
d. Select Audio as the AVI Master, and Capture as the Interleaving Mode. If you are capturing video only or audio only, these settings are not used and the controls are greyed.
e. OK.
3. Click Start, then Stop after a few seconds. The Capture Results dialog shows capture statistics, including bytes captured, number of seconds of capture, and number of frames captured and dropped. It also has a Play button.
Click this to play back the AVI fi le with your default media player.

The crop settings obtained in SwiftCap are compatible with the settings obtainable from the driver property pages. Once set up in SwiftCap, they can be applied to other applications as well.
The menu item Settings -> Crop Settings… brings up the following dialog:
a. Click Enable Crop to enable or disable cropping. There is also a direct menu item Settings -> Crop Enable to turn cropping on using the current crop, or to turn cropping off.
b. Drag the edges or corners of the cropping rectangle to resize it, or drag its center to move it.
c. The top / bottom / left / right edit boxes give a readout of the current crop boundaries. You can also edit these boxes directly to obtain a precise size or position.
d. The output size, which is the fi nal size of the captured video, can be 1X, 1/2X, or 1/4X the crop size. There is also an entry in this drop box by which you can set a custom size.
e. The sizing grid sets the granularity of your crop width settings. For example, if you are capturing in YVU9 format, crop width must divide evenly by 16 and crop height must divide evenly by
4. Setting the sizing grid to 16x4 ensures that your crop settings will be correct for the capture format. The text line below the drop list shows which color formats your selected granularity applies to.
f. Click Refresh to update the image from the video source.
g. Save As… and Load… allow you to save multiple crop specifi cations for future reference.
Note that there are minimum values for crop size and output size;
SwiftCap will reject smaller values. Also, you cannot specify an
output size that is larger than the crop size.

Other Features of SwiftCap
1. Logo setup: SwiftCap has the menu item Settings -> Logo Settings… . This selection directly accesses the driver’s logo property page; for details, refer to the driver properties description. There is also a Settings -> Logo Enable control to directly turn the logo on or off.
2. Accessing driver properties: Click the circuit board icon on the toolbar.
NOTE: If you use the driver’s “Size and Crop” or “Logo” property pages, you will not have the option of saving different settings for capture and preview. The Pin Select radio buttons will be greyed out and forced to the “Both” position.
3. CPU meter: Turn on via the menu item View -> CPU Meter.
4. Load and save confi guration: These two buttons enable you to save SwiftCap settings for future use.

Limitations and Peculiarities of SwiftCap
The current version of SwiftCap does not capture or display closed captions.
If you select RGB8 greyscale as your color format, SwiftCap captures in greyscale, but continues to preview in color. Also, if you capture to the VMR7 Renderer or VMR9 Renderer, you will get color video; you will only see greyscale video with the “Video Renderer” selection.
SwiftCap does not support Video for Windows devices.

Osprey Hardware Specifications
Environmental Specifications
Operating Temperature Range 0º to 40º C
Non-operating Temperature Range -40º to +75º C (RH)
Operating Humidity Range Between 5% and 80% (non-condensing) @ 40º C
Non-operating Humidity Range 95% RH (non-condensing); gradient 30% per hour
Operating Altitude Range 0 to 3,048 meters (10,000 feet)
Non-operating Altitude Range 0 to 15,240 meters (50,000 feet)

PCI Local Bus 2.2 Compliant
Approximate weight is 63 grams.

PCI Local Bus 2.2 Compliant
Approximate weight is 63 grams.

PCI Local Bus 2.2 Compliant
Approximate weight is 63 grams.

PCI Local Bus 2.2 Compliant
Approximate weight is 78 grams.

PCI Local Bus 2.2 Compliant
Approximate weight is 78 grams.

PCI Local Bus 2.2 Compliant
Approximate weight is 227 grams.

PCI Local Bus 2.2 Compliant
Approximate weight is 227 grams.

PCI Local Bus 2.2 Compliant
Approximate weight is 130 grams.

Digital Video on the Osprey-300
The Osprey-300 IEEE 1394 inputs connect to standard Microsoft drivers rather than to the Osprey AVStream driver. Osprey customers who are familiar with the Osprey-500/540/560 should understand that the DV implementation is completely different. On the Osprey-500/540/560 cards, the DV connector and capture hardware sit behind the Osprey audio and video capture devices and are controlled by the Osprey driver. On the Osprey-300, the DV is an entirely independent device.
If you look at the Windows XP Device Manager after installing an Osprey-300 you will see something like this. Under the category “IEEE 1394 Bus host controllers” there will be an entry for the Texas Instruments controller on the Osprey-300. This device is automatically activated whenever the card is plugged into the system. If you plug a DVCam into the Osprey card, an entry for it will appear under the “Imaging devices” heading. Both the 1394 controller and any devices plugged into it are logically distinct from the Osprey-300 analog audio and video devices shown under Sound, video and game controllers.
In theory you should be able to connect any 1394 device to the card, not just a digital video (DV) source. In this chapter, however, we focus on using the 1394 connector with DV devices such as camcorders.
Most major multimedia applications will recognize DV devices and work with them fully. For example, we have verified that Windows Media Encoder 9 supports a DVCam attached to an Osprey-300.
With major applications the DV connection should “just work” and the information here is for background and reference only.

Specifics of Osprey-300 DV Capture
The DirectShow filter used for DV capture is called the “Microsoft DV Camera and VCR”. This filter can capture video only, or audio and video together. In this respect it is different from the Osprey analog capture driver, which has logically distinct modules for audio and video capture.
Unlike the Osprey analog driver, which captures video into many user-selectable sizes and formats, the DV capture filter delivers just one format for each video standard.
For 525-line (NTSC) video, the video size is 720x480 and the video rate is 29.97 frames per second.
For 625-line (PAL/SECAM) video, the video size is 720x576 and the video rate is 25 frames per second.
The video format is always a compressed format designated with the four-character identifier “dvsd” (case-sensitive, and lower case). In this format, one NTSC video frame is 120,000 bytes, and one PAL/SECAM video frame is 144,000 bytes. By comparison, one uncompressed YUY2 NTSC frame, requiring 2 bytes per pixel, is 691,200 bytes, and one uncompressed YUY2 half-sized frame (360x240) is 172,800 bytes; that is to say, the half-sized YUY2 frame is significantly larger than the full-sized dvsd frame.
The dvsd format comes in two flavors - video-only, and audio + video interleaved. The audio + video data rate is slightly higher than the 120,000 or 144,000 bytes per frame quoted above - for NTSC it is about 129,000 bytes per frame, or about 3,866,130 bytes per second.
The dvsd format can be captured directly to AVI files. There are two subformats - Type 1 and Type 2. The Type 1 format stores the audio + video data as a single stream. The Type 2 format stores the audio and video data as two separate streams. The Type 1 format is more compact and efficient but is not backward-compatible with Video for Windows. Osprey’s SwiftCap application, as described below, currently supports only the Type 1 format. With other suitable applications the Osprey-300 DV connector can capture in either format.
Several additional DirectShow filters support the DV capture module.
The most important is the DV Video Decoder. This filter accepts dvsd video-only streams as input. As output it delivers an uncompressed YUY2 stream at full, half, 1/4, or 1/8 size. This filter is always used when rendering video. When capturing video without compression, it is normally not used, but could be useful for capturing quartersized or 1/8-sized video, at some savings in data rate. (Note that the full- and half-size options would increase the data rate to no purpose.) When video is captured with compression, a DV Video Decoder will be placed in front of the compressor, to deliver the YUY2 input that the compressor uses.
The other specialized DV filter commonly used in capture is the DV splitter, which accepts a dvsd audio + video interleaved stream as input, and outputs dvsd video-only on one pin, and standard uncompressed audio on the other.
Following the how-to description of SwiftCap, there are some sample DirectShow graphs that show some of the ways these components can be connected together.

This section provides specific information about how the bundled capture application SwiftCap supports DV capture on the Osprey-300. Note that this manual also contains a more complete general reference section on SwiftCap that is oriented towards its support of the Osprey analog driver.
Note - only more recent versions of SwiftCap work with DV devices.
The “Help -> About SwiftCap” message should show a version number or later, and be copyrighted 2004 or later. The SwiftCap version supplied with the Osprey-300 driver package is
The main features of SwiftCap’s DV support are highlighted in the following figure:


If a device such as a DV camcorder is connected to the Osprey-300, it will appear in the video device list as a “Microsoft DV Camera and VCR”. The Capture Settings dialog will appear as shown only when a DV device is selected; for analog SwiftCap devices the dialog is set up differently.
Note that even though a DVCam is an audio + video device, DirectShow classifies and enumerates it as a video device only.
SwiftCap adheres to this logic by displaying a DVCam as a video device choice, but not as an audio device choice. If you want to capture both audio and video from a DVCam, you should select “Video” in the Capture group at the right. If you want to capture DV video, and audio from another analog source, select “Capture Both” and uncheck “Capture DV Audio” (You can even work to capture both DV audio and analog audio at the same time).
If you select “Preview DV Audio”, SwiftCap will preview audio both in preview-only mode and when capture is happening. (SwiftCap does not preview audio with analog capture devices.) This capability could be useful when capturing audio from a remote or recorded source - but you will want to turn it off for capture from a live source, to avoid feedback.
Two checkboxes in the Video group, “Capture DV Audio” and “Preview DV Audio,” control DV audio.
The video Size control affects size of previewed video only, not captured video. As previously explained, dvsd video from the DV Video Capture Filter is always full sized and in CCIR-601 format, that is, 720x480 NTSC or 720x576 PAL/SECAM. While a DV Video Decoder Filter could be used to downsize the video, SwiftCap does not currently support this. SwiftCap also does not support compression of DV video at this time.
As you can see, the rest of the Video Format controls are greyed and read-only. The video format from a DVCam is always “dvsd”, as described above. SwiftCap will determine for you whether the camera is NTSC and 30 frames per second, or PAL and 25 frames per second. The aspect ratio from DVCams is always CCIR-601, meaning that the pixel width is 720.

This section contains more technical information that may give some users helpful insight into DV capture and rendering operations. The illustrations are DirectShow graphs as displayed by GraphEdit.
For still more advanced information, refer to the DirectX 9 SDK documentation available from Microsoft.
This graph shows the simplest possible video-only DV capture graph.
This is the simplest possible audio + video DV capture graph. The difference is that the DV Capture Filter’s A/V Out pin is used, which delivers an interleaved A/V stream rather than a pure video stream. The AVI file will be “Type 1” - that is, the audio + video will be structured as a single stream; this format is efficient but is DirectShow-only, not backwards-compatible to Video for Windows.
This is the simplest possible audio + video “Type 2” graph. The AVI file, now Video for Windows compatible, is now structured as an “auds” stream plus a “vids” stream. The DV Splitter Filter splits the interleaved A/V stream in to a dvsd video stream plus a PCM audio stream.
This graph shows basic video-only rendering. The DV Video Decoder converts the “dvsd” DV video stream to the YUY2 format required by the video renderer. The Smart Tee allows a capture stream to be connected as well as the preview stream. It is optional in this particular graph; however, the normal graph-building process usually inserts a SmartTee automatically.
This graph renders both audio and video. The Capture Filter’s DV A/V Out pin is used instead of the video-only pin. A DV Splitter is added to the graph to split the interleaved A/V stream into separate audio and video. The audio stream is standard PCM audio which can be directly rendered by a standard rendering filter. The video stream is in dvsd format and as before is converted to YUY2 by the DV Video Decoder before rendering.
This graph combines video capture with video preview rendering.
Here the Smart Tee becomes mandatory to split the single video stream into two.
Audio and video, capture with preview. This is the most complex graph that SwiftCap currently supports. It is a combination of elements described in the previous graphs.
This graph (which SwiftCap currently does not support) shows an A/V capture-only configuration to which a DV Video Decoder Filter has been added. The properties page also shown (at left) belongs to the DV Video Decoder and can be accessed directly from GraphEdit and some other applications. This graph captures the video stream in YUY2 format. As explained previously, the dvsd native DV format is a compressed format, whereas YUY2 is not. A YUY2 stream at 720x480 is much larger than the dvsd version, and the YUY2 stream at 360x240 is somewhat larger; you would probably want to use this graph only for 1/4 or 1/8 size capture.
This graph shows audio + video capture with the Microsoft Video 1 compressor. The compressor requires YUY2 as its input format and so the DV Video Decoder precedes it. A compressed graph of this kind substantially compresses the AVI data, at the expense of CPU time and video quality.

Setting AVStream Driver Properties in Video for Windows Applications
Video for Windows applications control the driver’s most important functions via compatibility mode dialog boxes. You cannot access the complete Osprey AVStream Filter Properties directly from these older applications. The compatibility mode dialogs do not have all the controls that are accessible from DirectShow applications. We therefore recommend that, before first use of a Video for Windows application, you set up and check out the driver using AMCap or a similar DirectShow application. The Swiftcap application screenshots are shown.

Selecting the Capture Device



If you have multiple DirectShow video capture devices on the system, selecting the capture device may be a two-step process. The details will differ slightly with different applications.
With VidCap32:
Pull down the Options menu, select from the list of devices at the bottom. The Osprey AVStream device will be listed as “Microsoft WDM Image Capture”.
Pull down the Options menu again, and select Video Source…
You will see the following dialog. Select the Capture Source tab.
Select the device from the drop list, and click Apply or OK.
With Osprey Swiftcap:
Pull down the Settings menu, select Capture Settings and select your desired Osprey card under Device.
Selecting the Video Source and Standard
With VidCap32:
In the same Video Source dialog, select the Video Source tab. The upper drop list shows the list of inputs for the card. The lower drop list shows the supported video formats. Select these two items and click Apply or OK.
With Swiftcap:
Pull down the Video Capture Device menu and select the Video Inputs and Video Standards.

Brightness, Contrast, Hue, and Saturation
In the Video Source dialog, select Device Settings. If you have preview or overlay video already running, you can see the effects of the four sliders interactively. For PAL video, keep Hue at its default value.

Video Format
Array Array
The Video Format dialog is separate from the dialog pages shown previously. Access it from a menu entry or button titled Video Format… or Format…, depending on the application. Select from a list of standard resolutions and video formats and click Apply or OK to save the selections.

Video for Windows Issues
The mapper from Video for Windows applications to DirectShow drivers presents several problems that are beyond the control of driver implementers. The following comments are derived from tests with VidCap32, but should apply by and large for other Video for Windows applications as well.
1. “Overlay” video (in DirectShow this is called “preview” video) always runs when VidCap32 is loaded ? even if overlay video is turned off.
2. There is no way to set the size of overlay video from the application. It is sized to the default size that is set for the DirectShow preview pin by a DirectShow application such as AMCap or GraphEdit. The size setting in the Video Format dialog shown above has no effect on the size of overlay video.
If overlay video is sized to 640x480 because that is the DirectShow default setting, and the capture video is sized by VidCap32 to 160x120, then overlay will be captured at 640x480 and scaled down 4:1 in software to the 160x120 size of the VidCap32 overlay window ? wasting substantial system bandwidth in the process.
On the other hand, if overlay video is sized to 160x120 because that is the DirectShow default setting, and the capture video is sized by VidCap32 to 640x480, then overlay will be captured at 160x120 and scaled up 1:4 in software to the 640x480 size of the VidCap32 overlay window ? resulting in a very grainy image with 4x4 cells.
3. With VidCap32, video capture runs all the time, even when no video is being previewed or captured. The reason is perhaps so that the mapper can support Video for Windows “preview”, which is derived from the DirectShow capture stream. In short,
4. A Video for Windows application running over a DirectShow driver may consume 25 to 50 percent of system bandwidth even when it is doing nothing.
5. If you are going to extensively use a Video for Windows application with a DirectShow driver, make sure that the DirectShow preview pin’s default size is correctly set. As explained, you have to use a native DirectShow application to do this. Open the driver’s fi lter dialog, go to the Crop tab, and set Default Size there. Most often, you would want to set the preview pin to the capture size you plan to use. But if you aren’t going to use Video for Windows overlay, or are not concerned about its quality, then set the preview pin to a very small size such as 160x120.



Blue/Green/Magenta Video Screen
The currently selected video input is not receiving an active video signal. Different inputs may provide a different symptom when a video source is not supplied:
? DV inputs will display Magenta (Osprey-540/560 only).
? SDI inputs will display Green.
? Composite and s-video inputs on digital class cards will display black with a green line.
? Composite and s-video inputs on multimedia class cards will display blue.
To solve this problem, check the following:
? Check that the camera, VCR, or other video source is powered and that its output is connected to the Osprey card’s input.
? Check that the correct video input is selected in the Control Dialog’s Source page.

Scrambled Video Image
You may have set the wrong video signal format for the signal input you are using. For example, you may have told the driver to look for NTSC-M video but are using a PAL-BDGHI video source. Make sure you know what signal format your video source is generating. Go into the Video Standard field of the Control Dialog’s Source page, and click the button for that signal format.

Poor Video Quality at Large Frame Sizes
Large frame sizes with the deep pixel depth (24- or 32-bit), or complex format (YVU9 or YUV12 planar), impose heavy demands on the PCI bus’s data transfer capacity. Our experience is that some systems cannot handle these formats at full frame sizes.
Systems vary in their data transfer limits. The characteristics of the PCI bridge are often more important than processor speed.
This problem should only arise if you have multiple Osprey cards or 1 or more Osprey-440 operating concurrently. Typical usage of a single Osprey card would not cause this kind of problem.
If you are having problems, we recommend that you:
? Use a smaller frame size (480x320 or less).
? Use a shallower color format (RGB15 or RGB24 instead of RGB32).
? Try a YUV format instead of an RGB format, and a packed format instead of a planar format.
? If you have a choice of PCs for video capture, try using another system with a different system board chipset.

Multiple Horizontal Lines Across Video Image
If there are multiple, regularly spaced, horizontal lines across your video image and your source material is copyrighted and copyprotected, you are seeing Macrovision™ copy protection.
The lines can vary in color from yellow to blue to green. These lines are not present in every frame of video. There may also be a black band at the top of the frame.
The Osprey-530/540/560 cards cannot eliminate these video artifacts.
These artifacts will only be present when you are using a copyprotected source, such as a high-quality DVD for testing a card.
There are other brands of copy-protection besides Macrovision.
Some of these employ similar methods (resulting in the above) and others do not. This is a good example of Macrovision effects but you should find a good way if possible to briefly note that there are other forms of copy protection and that they may have different effects on the picture.

No Closed Captions on DV or PAL Video
The Osprey-530/540/560 is capable of decoding closed captions on NTSC video inputs. This feature is supported on SDI and analog video sources - the composite and S-video inputs, and digital SDI, only. It is not supported on the DV input on 540/560 cards.

Cannot Play Back Recorded Audio
If you have a sound card installed, you should be able to hear audio when you play back recorded audio.
? Verify that the volume control for your playback device is not muted.
? Verify that the selected playback device is your sound card, and not the Osprey-540/560 Placeholder device. The Placeholder device exists in order to handle the situation where there is an Osprey-540/560 present without a sound card. Some Windows applications cannot use a recording device unless a playback device is also installed. The Placeholder device cannot play back recorded audio. You can use the same method to select playback device that you use when selecting the audio source.

DV Audio Is Too Slow/Low-Pitched or Fast/High-Pitched
When the audio input is on 540/560 cards DV1394, you have to use the AudioConfig applet’s Preferred Audio Sample Rate control to match your audio sample rate to the actual rate of the incoming data. The two most common formats are 48 kHz / 16-bit, and 32 kHz / 12-bit. You may have to listen to a sample of your captured audio to determine whether the sample rate is set correctly ? if the pitch is incorrect, try the other setting.

Audio Recording Control Comes Up With Wrong Device and Wrong Inputs
The cause of this problem may be that you currently have or have had previously, a Video for Windows audio capture driver installed in the system. The Osprey AVStream install process normally removes a previous Video for Windows driver, but if you have multiple Osprey cards installed you do have the option of running the Video for Windows driver on some cards and the AVStream driver on others.
Unfortunately the Recording Control does not work smoothly in this situation. The Video for Windows device will always try to act like it is the selected device even if it is not. You have to manually enter Recording Control’s Options -> Properties dialog to select your device.
If you no longer have need for the Video for Windows driver, you can uninstall it using instructions obtainable from Osprey technical support. If you are comfortable using RegEdit to edit your registry, you can instead go to the following location HKEY_LOCAL_MACHINESOFTWAREMicrosoftWindows NTCurrentVersionDrivers32 and delete all REG_SZ entries named “mixer” or “mixer1” .. “mixer9” that have the name of an Osprey mixer as their data. These names will be o2ca_mix.dll, o5ca_mix.dll, or o540_mix.dll.

'Hardware' 카테고리의 다른 글

fpga 킷트  (0) 2008.03.22
오락실 건  (0) 2008.03.22
Osprey User Guide  (0) 2008.03.18
디지털 HD 비디오 캠코더 HVR-A1N  (0) 2008.03.18
GoStream Plus DataSheet  (0) 2008.03.18
회로분석 그리고 Auto Enumeration  (0) 2008.03.17

약어 정리

b bit
B byte

kilobit (1000 bits)

kB kilobyte (1000 bytes)
Mb megabit (1 million bits)
MB megabyte (1 million bytes)
Gb gigabit (1x10 6 = thousand million bits)
GB gigabyte (1x10 9 = 1 thousand million bytes)
TB terabyte (1x10 12 = 1 million million bytes)
s second
Gb/s gigabits per second
h hour
TB/h terabytes per hour
Hz Hertz (cycles per second)
MHz mega Hertz
SD Standard Definition TV (Digital)

High Definition TV


비디오 포맷과 샘플링

HD와 SD를 이해할 때 가장 어려운 부분 중의 하나가 아마도 RGB 4:4:4와 Y, Cr, Cb 4:2:2 와 같이 샘플링과 색 공간을 설명할 때 사용되는 축약 전문용어들일 것입니다. 또한, 1080/24P 와 같은 비디오 포맷 등도 이것들을 완전히 이해하기 까지는 이상한 말로 들릴 수 있습니다. 샘플링 비율에 관한 빠른 이해를 도모하기 위해 아래의 내용을 참조하시기 바 랍니다.

4:2:2 외 (크로마 서브-샘플링 ) 디지털 텔레비전에서 사용되는 샘플링 레이트는 어떤 면에서 근본적 설명과 거의 연관성이 없는 축약 형으로 기술됩니다. 샘플링 레이트의 비율을 표시하는 숫자들은 절대적인 숫자라 말할 수 없으며, 이를 완전히 이해하기 위해서는 약간의 설명이 필요합니다. 때때로 이 비 율을 ‘크로마 서브-샘플링 ’이라고 부릅니다.

대부분의 예에서 보듯이, 첫 번째 숫자는 루미넌스(휘도, Y), 마지막 두 숫자는 크로미넌스 (색차신호)를 말합니다.(예: 4:4:4, 4:4:4:4) 첫 번째 숫자는 대부분 항상 4로 시작하며 이미 지에 사용된 모든 픽셀에 대해 루미넌스가 한 번 샘플링된 것을 나타냅니다. 루미넌스에 더 낮은 샘플 레이트가 사용된 예는 그리 많지 않습니다. 예를 들어, HDCAM의 경우 일반적으 로 3:1:1의 샘플링이 사용됩니다. 최종 픽셀 레이트보다 더 낮은 레이트의 샘플링을 서브- 샘플링이라고 합니다.

두 번째의 두 숫자는 Cr과 Cb라고 불리는 두 가지 순수 컬러 콤포넌트(Red-Y, Blue-Y)의 샘플링 주파수를 의미합니다. 사람의 눈은 순수 색보다 루미넌스에 대해 더 민감하게 반응 하기 때문에 루미넌스보다 크로미넌스 샘플링에서 데이터를 줄이는 컷이 더 많이 이루어집 니다. 대부분의 스튜디오에서는 두 개의 색 컴포넌트가 각 라인의 두 번째에 있는 모든 루 미넌스에서 동시에 샘플링이 되는 4:2:2 샘플링 시스템을 주로 사용합니다.


루미넌스와 색차 시그널의 4:2:2 샘플링

DV 포맷과 DVCAM에서 사용되는 4:1:1 샘플링은 모든 라인의 네 번째에 있는 모든 Y 샘 플 점에서 Cr과 Cb 샘플을 만듭니다.


4:1:1 샘플링

그런가 하면, 4:1:1 샘플링에서 크로미넌스가 수평으로 서브-샘플링되는 경우 컬러 정보가 동일하게 수직으로 고르게 배분되지 않는 것에 대한 논란도 있습니다. 따라서, 모든 라인에 서 Cr과 Cb를 둘 다 샘플링 하는 대신에 각 라인에서 차례로(그러나 더 빈번하게 -Y에서 번갈아) 이를 샘플링하기도 합니다. 이것을 4:2:0 샘플링이라고 합니다. 이는 MPEG-2와 JPEG 압축에서 사용됩니다.


스퀘어 픽셀에서 수평과 수직으로 동일한 컬러 해상도를 보여주는 4:2:0 샘플링

많은 경우, 픽쳐와 연관된 키(또는 알파) 시그널을 갖는 것이 유용합니다. 키는 루미넌스에 만 해당하는 풀 이미지입니다. 이런 식으로 4:2:2:4와 같이 네 번째 숫자 4가 추가되는 것 입니다.

기술적으로 4:4:4는 RGB 또는 Y, Cr, Cb 콤포넌트 시그널의 풀 샘플링을 의미할 수 있습니 다. ? 그러나 4:4:4:4와 같이 뒤에 덧붙여 사용하는 경우는 매우 드문 일입니다. RGB는 관 련 키 채널을 가져 4:4:4:4를 만들 수 있습니다.

종종 사람들은 오버-샘플링과 같은 작업을 하여 픽쳐 퀄리티를 향상시키려는 경우가 있습 니다. 이 경우, 8:8:8과 같은 것을 볼 수도 있습니다. 이는 RGB에 대해 픽셀 당 두 가지 샘 플을 만들게 됩니다.

이러한 샘플 비 시스템은 SD와 HD 모두에서 사용됩니다. 일반적으로 5.5 배 더 큰 샘플링 을 갖지만 HD 스튜디오에서는 4:2:2 샘플링을 표준으로 사용하고 있습니다.

왜 4 일까요? 논리학에서는 픽셀에 있어 1:1 관계를 나타나는 첫 번째 숫자로 1을 사용하곤 합니다. 그러 나, 여러 가지 합당한(혹은 합당하지 않은) 이유로 텔레비전의 경우는 그렇지 않습니다. 역 사적으로 1970년 대 초, 텔레비전 시그널은 처음 NTSC와 PAL 방식을 사용했습니다. 이 두 방식 모두 샘플링 주파수를 컬러 서브케리어(부반송파, SC)의 주파수에 연결시켜야 합니 다. NTSC 서브케리어는 3.579545MHz이고 PAL은 4.43361875MHz 입니다. 디지털 시스 템은 일반적으로 4 x NTSC SC 또는 3 x PAL SC로 샘플링 되며 각각 14.3과 13.3 MHz를 만듭니다.

다음은 콤포넌트 비디오 Y, B-Y, R-Y(루미넌스와 두 개의 순수 컬러 콤포넌트 ? 색차 시그 널로 알려짐)에 대해 알아보겠습니다. 이는 사이즈 재조정, 스무스 포지셔닝, 표준 변환, 압 축, 오늘날 비디오에 적용될 수 있는 모든 1001 오퍼레이션 등에 대한 처리를 훨씬 수월하 게 합니다. 이러한 콤포넌트 비디오의 샘플링에 관한 표준을 정할 때, 일부는 이전과 동일 한 로직을 따랐지만 세계 도처에서 사용되었던 525/60I와 625/50I의 두 SD 스캐닝 시스템 간의 공통점을 찾는 노력도 있었습니다. 이로써 현재 SD 샘플링에 ITU-R BT.601 표준을 사용하고 있습니다. ‘601’은 13.5MHz(유효 라인 당 720 픽셀 제공)의 루미넌스 샘플링과 그 절반 레이트인 6.75MHz의 각 색차 시그널을 제공합니다.

그 당시 누군가 13.5MHz가 4 x NTSC 서브케리어인 14.3MHz와 거의 동일하다는 것을 인식하기 시작했습니다. 그가 좀 더 앞을 내다 봤다면 3 xPAL SC와 훨씬 더 근접한 관련성 을 발견했을 것입니다. 그러면 오늘날의 전체 전문용어의 개념이 지금과 상당히 달라졌을 지도 모르는 일입니다.

HD 샘플링 레이트는 SD에 비해 5.5 배 더 빠릅니다. 일반적으로 스튜디오에서 사용되는 4:2:2 샘플링은 Y의 경우 74.25MHz이고, Cr과 Cb의 경우는 37.125MHz 입니다.

1080I 1080 라인의 비월 주사(Interlace Scan) 방식의 약어. 이는 1080 라인, 라인 당 1920 픽셀, 비월 주사로 규정된 매우 광범위하게 사용되는 HD 라인 포맷입니다. 1080I가 단독으로 쓰 일 때는 SMPTE와 ITU에 의해 규정된 25Hz와 30Hz의 프레임 레이트를 조건으로 지정하지 않습니다.
공통 이미지 포맷, 비월주사 방식, ITU-R.BT 709, Table 3 참조

1080P 1080 x 1920의 TV 영상 크기, 순차 주사 방식. 24, 50, 60Hz 뿐만 아니라 1080I(25와 30Hz)의 프레임 레이트 제공
공통 이미지 포맷, 순차주사 방식, ITU-R.BT 709, Table 3 참조

13.5MHz SD 비디오의 601 디지털 코딩에서 사용되는 샘플링 주파수. 이 주파수는 디지털 시스템 간 의 호환성을 위해 525와 625-라인의 다중 텔레비전 시스템의 주파수로 채택되었습니다. 최고의 주파수, 5.5MHz, 루미넌스 디테일 정보를 SD 화면에 충실히 묘사하는 빠른 샘플링 을 제공합니다. 대부분의 HD 표준 제품들은 13.5MHz의 5.5 배인 74.25MHz로 루미넌스를 디지털 샘플링합니다.
2.25MHz, ITU-R BT.601 참조

이는 525/59.94와 625/50 텔레비전의 최저 라인 주파수로서 각각 15.734265KHz와 15.625kHz를 제공합니다. 드물게 언급되었지만, 이것이 SD와 HD 화면에서 디지털 콤포넌 트 샘플링 주파수의 기본이 될 경우 그것의 중요성은 매우 큽니다.
13.5MHz 참조

24 프레임, 순차주사 방식의 줄임 말. 대부분의 경우, 이는 1080 라인 및 라인 당 1920 픽 셀를 갖는 HD 화면 포맷을 일컫는 말입니다. 또한, 이 프레임 레이트는 라인 당 720 픽셀 를 갖는 480 및 576 라인의 SD나, 또는 팬-앤-스캔 버전의 HD 다운-변환을 할 때 사용 됩니다. 24P로 작업시, 디스플레이에는 각 이미지를 두 번 보여주고 낮은 레이트의 이미지 가 보일 때 플리커(깜빡임) 현상을 감소시켜 주는 -필름 프로젝터와 같은- 이중 셔터링 기술이 사용됩니다.

24P Segmented Frame. 이는 비디오가 필름과 유사한 방식으로 캡쳐되고 디지털 레코딩을 위해 포맷될 때 필름/비디오 사이의 일부 경계를 흐리게 하며, 기존의 HD 비디오를 통해 통과할 수 있습니다. 필름과 같이, 전체 이미지가 라인 별 TV 주사 방식이 아닌 하나의 인 스턴트로 캡쳐됩니다. 이는 한 화면이 주사되는 데 걸리는 시간이 1/24 초가 걸린다는 의미 입니다. 그런 다음, 그 이미지는 하나는 홀수 라인, 하나는 짝수 라인의 두 개의 필드로써 테이프에 레코딩되어 TV 레코더에 잘 맞게 됩니다.
이 이미지는 텔레비전 레이트가 아닌 필름 레이트(24fps)로 비디오 레코더가 작동하는 것을 제외하고 필름 촬영과 텔레시네 전송에 해당하는 전자 기술이 이루어낸 결과입니다. 그 화 질은 낮은 프레임 레이트를 갖지만 훨씬 영화다운 것처럼 보이며 움직임 묘사가 다소 빈약 해 보일 수 있습니다.
25PsF와 30PsF 레이트는 ITU-R BT. 709-4 권고사항에 포함됩니다.
ITU-R BT. 709 참조

ITU-R BT. 60I 참조

ITU-R BT. 709 참조

720라인 프로그래시브의 줄임 말. SMPTE 296M과 일부 ATAC 및 DVB 텔레비전을 언급할 때 풀 포맷이란 라인당 1280 픽셀, 720 라인, 초 당 60 개의 순차주사 방식의 픽쳐를 말합니다. 이는 주로 720P를 송출하는 특정 방송국에서 사용됩니다. 초 당 60 개의 프로그래시브 스캔된 픽쳐는 액션을 묘사하기에 충분한 높은 화면 재생율로 순차주사 방식의 이점을 제공합니다. 이것은 스포츠 이벤트 및 부드러운 슬로우 모션 등을 재생할 때 유용합니다.

HD 비디오의 루미넌스(Y) 또는 RGB 값을 위해 공통으로 사용되는 샘플링 주파수. 33 x
2.25MHz의 주파수는 SD와 HD에 사용되는 주파수입니다. 이는 SMPTE 274M과 ITU-R
BT. 709의 주파수이기도 합니다.
2.25MHz 참조

유효 화면(Active Picture)
이미지를 담고 있는 화면 부분. 아날로그 625와 525-라인 시스템에서 단지 575와 487 라인들만 실제로 픽쳐를 포함하고 있습니다. 유사하게, 라인 당 전체 시간은 64와 63.5μS이지만 52와 53.3μS 주변까지만 픽쳐 정보를 담고 있습니다. 시그널이 지속될 때, 프레임 상단과 라인의 시작 지점까지 화면 주사를 재개하기 위한 여분 시간이 허용됩니다.
디지털로 샘플링 된 SD 포맷은 576 라인과 라인 당 720 픽셀(625라인 시스템), 480 라인과 라인 당 720 픽셀(525라인 시스템)을 포함하지만 702만이 픽쳐 정보를 담고 있습니다. 720픽셀은 53.3μS에 상당하는 것입니다.
샘플링은 실제 화면의 왼쪽 에지 바로 앞의 아날로그 시그널의 라인 블랭킹(Line Blanking)에서 시작하고, 아날로그 실행 화면이 블랭킹 레벨로 되돌아간 후에나 끝납니다. 따라서, 디지털화 된 이미지는 왼쪽과 오른쪽 프레임 경계선을 디지털 스캔 라인의 부분으로 포함시킵니다. 이는 블랭크(블랙)와 실제 화면 간의 롤온/롤오프를 자연스럽게 합니다.
HD 시스템은 보통 그것의 유효 라인 수에 의해 언급됩니다. 예를 들어, 1080라인 시스템일 경우 1080 유효 라인의 비디오와 1920 샘플을 갖는다는 것을 말합니다. 또한, 아날로그에 연결하기 위해 1125 라인과 같은 큰 프레임이 이용될 수 있습니다.

부적절하거나 잘못된 비디오 샘플링 또는 프로세싱의 결과로 생기는 현상. 엘리어싱은 디지털 이미지의 픽셀 방식의 특성으로부터 야기되며, 커브나 경사의 디테일한 부분에 생기는 ‘Jagged Edge’(일명 ‘jaggies’)를 생성시킵니다. 이는 디테일 부분에서 샘플 레이트나 프로세싱을 너무 낮게 설정하기 때문에 발생하는 것입니다. 프레임 레이트에 비해 너무 빠른 속도의 액션이나 잘못된 길로 굴러가는 마차 바퀴와 같은 전형적인 예에서 일시적 엘리어싱이 나타날 수 있습니다.
안티앨리어싱 참조

일반적으로 수직과 수평 배율이 같지 않은 경우를 일컫는 말입니다. 애너모픽은 추가 렌즈를 사용하여 추가된 양만큼의 이미지를 압축하여 처리됩니다. 이러한 방식으로 1.85:1 또는 2.35:1의 화면 비를 1.33:1(4:3)의 화면 필름 프레임으로 수평으로 스퀴즈할 수 있습니다. 애너모픽 필름이 프로젝트될 때, 또 다른 애너모픽 렌즈에 통과시켜 더 넓은 화면으로 영상을 다시 늘릴 수 있습니다. 이는 720 픽셀 수를 유지시키면서 디스플레이는 33퍼센트 이상 더 넓게하는 SD 와이드 스크린 이미지에 사용됩니다. 이는 또한 CCD 칩이 4:3 화면 비인 16:9 와이드 스크린을 촬영하기 위해 사용되는 카메라 렌즈에도 적용될 수 있습니다.

눈에 보이는 엘리어싱 이펙트를 줄이려는 시도. 이는 특히 경사 라인의 재깅(Jagging) 현상이나 정교한 디테일 부분의 뒤틀림 현상과 같이 눈에 잘 띄는 엘리어싱 이펙트를 부드럽게 하기 위해 필터링 처리를 사용하는 경우입니다. 엘리어싱을 피하는 가장 좋은 방법은 원본 샘플링과 프로세싱을 개선하고 처음부터 앨리어싱이 발생하지 않게 하는 것입니다.
앨리어싱 참조

화면 비(Aspect Ratio)
비디오에서 이것은 너비 대 높이의 비율을 말하는 것입니다. HD 화면은 16:9의 화면비를 사용하며 이는 또한 1.77:1로 알려져 있습니다. 이는 4:3 화면 비(1.33:1)를 갖는 기존 텔레비전에 비해 3 배 더 넓은 화면 너비를 제공함으로써 시청자의 집중력을 향상시킵니다. 픽셀 화면비는 화면에서 픽셀의 길이 대 높이를 말합니다. 대부분의 컴퓨터 애플리케이션이 그렇듯이 HD도 항상 정방형 픽셀(Square Pixel)을 사용합니다. SD는 그렇지 않습니다. 문제는 SD가 동일한 픽셀과 라인 수를 사용하는 4:3과 16:9(와이드 스크린) 이미지를 사용한다는 것입니다. 서로 다른 픽셀 화면 비를 사용하는 시스템 사이를 이동할 때 픽셀 화면 비를 바꾸는데 있어 주의가 요구되며 이로써 화면에서 온전한 모양의 대상을 볼 수 있게 됩니다.
4:3과 16:9의 이미지와 디스플레이를 동시에 사용하는 경우, 촬영이 타겟 디스플레이와 잘 맞도록 보장되어야 합니다. 모든 HD와 일부 SD의 촬영은 16:9지만 아직도 많은 SD 디스플레이는 4:3입니다. 또한, 대부분의 HD는 SD에서 볼 수 있지만 ‘4:3’ 안전지대 중앙에 주요장면이 보이게 하는 것이 좋은 방법일 것입니다.
ARC 참조
크로미넌스(또는 크로마) 서브샘플링 4:2:2 외 참조

공통 화상 규격. 광범위하게 사용되는 이미지 포맷으로서 ITU에 의해 ‘공통 이미지 포맷’으로 불립니다. 국내외간 이미지 정보를 손쉽게 교환하기 위해 권고되고 있습니다.

색 공간(Color Space)
컬러 시스템에 의해 둘러싸인 공간. 예컨대, 비디오에서는 RGB, YCrCb, HSL(Hue, Saturation, Luminance), 프린트에서는 CMYK, 필름에서는 XYZ로 불립니다. 플랫폼이나 애플리케이션들이 미디어 사이를 이동을 할 때 색 공간의 변경을 요구할 수 있습니다. 이를 위해 복잡한 이미지 프로세싱을 할 수도 있지만 온전한 결과물을 얻기 위해서는 약간의 주의가 요구됩니다. 또한 반복되는 색 공간의 변경은 색을 떠 보이게 하는 현상을 야기할 수 있습니다.
YCrCb를 RGB로 변환시킬 때, 다이나믹 레인지를 유지하기 위해 RGB 색 공간에서 더 많은 비트가 요구된다는 것을 아는 것이 중요합니다. 예를 들어, YCrCb 색 공간 비디오가 콤포넌트 당 8 비트일 경우 이 때 RGB 색 공간 비디오는 10 비트가 필요할 것입니다.

콤포넌트 비디오 (Component Video)
대부분의 기존 디지털 텔레비전 장치들은 콤포넌트 방식으로 비디오를 처리할 수 있습니 다.: 순수 루미넌스 Y의 조합 , R­Y 와 B­Y( 아날로그) 또는 Cr, Cb( 디지털)의 두 색차 시그널에 서 전달되는 순수 색 정보 등 . 콤포넌트는 영상 장치 , 카메라 , 텔레시네 , 컴퓨터 등에 의해 전달되는 RGB 로부터 기인합니다.
콤포넌트를 사용하는 이유 중의 하나는 컬러 픽쳐가 압축되기 때문입니다 . 인간의 눈은 컬 러 정보 (크로미넌스 )보다 루미넌스에서 훨씬 더 자세하게 볼 수 있습니다. RGB 를 Y, (R­Y) 와 (B­Y) 로 변환하는 간단한 작업을 통해 단지 크로미넌스만 배제시킵니다 . 이로써 화면에서 무시해도 좋은 임팩트를 사용하여 그 대역폭을 줄일 수 있습니다. 이것은 PAL 과 NTSC 컬 러 코딩 시스템에서 사용되며 SD 와 HD 의 콤포넌트 디지털 시그널을 통해 구현되고 있습니다.
전문적인 디지털 비디오 애플리케이션에서, 색차 시그널은 보통 4:2:2 와 같이 루미넌스의 절반의 주파수로 샘플링 됩니다. DV 에서 사용되는 4:1:1, MPEG­2 에서 사용되는 4:2:0 과 같은 콤포넌트 디지털 샘플링들도 있습니다.

동일위치 샘플링(Cosited Sampling)
루미넌스와 크로미넌스의 샘플링이 동일 위치에서 일어나는 것. 이는 모든 시그널 콤포넌트
의 상대 시간(위상)이 조화를 이루고 샘플링 시스템에 의해 왜곡되지 않도록 하기 위해 고
안한 것입니다. 샘플링은 보통 동일 위치에서 이루어지지만 4:2:0과 같이 루미넌스 샘플 사
이에 크로미넌스 샘플이 만들어지는 간질성 샘플링의 경우도 있습니다.
4:2:2 참조

디지털 텔레비전. 이는 SD 및 HD 디지털 포맷을 둘 다 포함하는 용어입니다.

색 대역(Gamut)
비디오 시스템에서 가능한 색 범위. 텔레비전 스크린의 빨강, 파랑, 녹색 발광체와 카메라의 RGB 색상 픽업 CCD나 CMOS 칩들은 디스플레이할 수 있는 색의 한계를 규정하고 있습니다. ? 색 대역. 카메라에서부터 시청자가 볼 수 있는 스크린까지는 수많은 프로세싱이 뒤따릅니다. 많은 사람들은 4:2:2 비디오를 사용합니다. 그러나, 모든 콤포넌트의 조합 값이 유효한 RGB 컬러 값과 연관이 있는 것은 아닙니다. (예를 들어, Y가 0인 곳의 조합 값)
일부 그래픽 머신과 같이 콤포넌트 색 공간에서 직접 이미지를 생성하는 장비는 콤포넌트 범위 내에서 색을 생성할 수 있지만 RGB에서는 유효하지 않습니다. 이는 또한 PAL과 NTSC가 허용하는 한계를 초과할 수 있습니다.
장비가 과부하에 걸릴 수도 있습니다.특히, 송신기에서. 색 대역에서 벗어나는 화면의 위치를 명확하게 보여주어 문제가 발생하기 전에 조정이 가능한 장비도 있습니다.

고화질 TV. 이는 미국의 ATSC에서 처음 규정한 용어로서 기존 텔레비전(아날로그 NTSC486 비쥬얼 라인)에 비해 2 배 가량의 선명한 화질과 16:9의 화면 비, 24fps 이상의 프레임레이트를 제공합니다. 이것은 720라인 x 라인 당 1280 픽셀일 때, 순차주사 방식이 HD에 더 적합하다는 것으로는 설명이 부족합니다. 순차주사 방식의 수직 레졸루션(해상도)이 더 우수하다라는 것을 통해 설명이 보충될 수 있습니다. 비디오 포맷과는 별도로, SD에서 사용하는 HD의 변형들은 세계 공용 표준과는 약간 다른 색도계를 갖고 있습니다.
HD의 1080 x 1920 이미지 크기는 필름에서 사용되는 2K에 가깝습니다. 이 때문에 필름과 텔레비전 간에 중복되는 부분이 있기 마련입니다. 크기에서 차이가 거의 없기 때문에 2K의 16:9 윈도우를 사용하는 경우 더욱 그러합니다. 수평과 수직 축에서 표준 화질 포맷을 적어도 두 번 포함하고 있는 포맷들은 일반적으로 고화질을 갖습니다.
유능한 HD 프로듀서와 TV 방송국에서 이용할 수 있는 포맷에 대해 초기의 논쟁이 있은 후, ITU의 공통 이미지 포맷과 같이 다양한 프레임 레이트의 1080HD비디오의 도입은 그 논쟁을 크게 약화시켰습니다. 일부 포맷 선택권을 TV 방송국들이 갖고는 있지만, 필요한 경우 공통 이미지 포맷이 일반화되어 고품질의 결과를 제공해야 할 것입니다.
공통 이미지 포맷, 비월주사 요소 참조

2K, HD and SD image sizes

PAL과 NTSC는 HD에서 존재하지 않습니다. 초기의 디지털 VTR 포맷에서는 사용되었지만 현대의 SD 디지털 텔레비전에는 존재하지 않는 것들입니다. PAL은 Phase Alternating Line을 의미하는 말로서 컬러를 코딩하기 위해 여전히 광범위하게 사용되고 있는 아날로그 시스템입니다. NTSC는 National Television Standards Committee를 의미하는 아날로그 시스템을 말합니다. 혼동되지만 우리는 여러 면에서 아날로그 세계와 관련있는 프레임 레이트와 포맷을 설명할 때도 PAL과 NTSC를 여전히 사용합니다. 그래서 1080 PAL이란 말은 1080/50I를 의미하기도 합니다.

양자화란 샘플링을 말합니다. : 시그널의 디지털 샘플을 만들 때 사용되는 비트 수.
비디오의 경우, 8 비트는 DV와 같이 컨슈머와 프로슈머 제품에서 일반화되어 있습니다.
HDV 또한 8 비트를 사용합니다. 8 비트는 아날로그 비디오를 자리 수(digit)로 변환하기 위해 2 8 또는 256 개의 숫자나 레벨로 규정될 수 있으며, 영상의 밝기 레벨로 지정됩니다.
멀티 레벨의 복잡한 포스트 프로덕션의 프로세싱 유지와 그 정확성을 높이기 위해, 스튜디오의 비디오 애플리케이션들은 종종 1024 레벨을 제공하는 10비트 샘플링을 사용합니다.
가장 밝은 곳과 가장 어두운 곳 사이의 레벨은 보통 선형적(리니어) 분포로 되어 있습니다.
하지만 인풋용 필름 네거티브를 디지털 중간 체인으로 스캔하는 경우, 화면의 더 어두운 부분으로 레벨이 순차적으로 스쿼시되는 로그 분포가 종종 사용됩니다. 이는 필름 네거티브가 원래 장면의 매우 광범위한 콘트라스트 정보를 담고 있어야 하기 때문입니다. 어두운 새도우 부분의 레벨이 밝은 부분의 그것보다 더 명확하게 보입니다. ‘로그’ 샘플링은 10비트로그의 디지털 레벨을 적당하게 다시 분포합니다. 이는 13비트 선형 양자화와 같이 유용한 것으로 간주됩니다.
NB: 양자화는 또 다른 의미로 사용됩니다.
비디오 압축 1 참조

Red, Green, Blue. 카메라, 텔레시네, 대부분의 컴퓨터 장비들은 이 색 공간에서 이미지를 만듭니다. 디지털 샘플링의 경우, 이 세 가지 모든 컬러가 풀 대역폭 즉, 4:4:4로 똑같은 방식으로 샘플링 됩니다. 가장 중요한 크로마 키에 대해 이미지는 좀 더 나은 소스 자료를 제공할 수도 있지만 4:2:2 보다 50 퍼센트 더 많은 데이터 공간을 차지합니다. 4:4:4로 레코딩하는 VTR이 없기 때문에 데이터 레코더나 디스크에 그것들을 저장해야 합니다. 또한, 그것들을 연결할 텔레비전 등의 수단이 없기 때문에 IT 기반의 네트워킹 기술이 사용됩니다.
종종 4:4:4는 포스트 프로덕션에서만 사용되며 자료가 광범위하게 배포될 경우에는 4:2:2로 변환됩니다.
4:4:4, 색 대역(Gamut) 참조

세그먼트 프레임
24PsF 참조

정방형 픽셀(Square Pixel)
정방형 픽셀은 디스플레이된 이미지의 사각 부분에 묘사되는 픽셀의 화면 비를 말합니다.
이는 HD 방송 표준으로서 영상 포맷이 라인 길이(라인 당 픽셀 수)와 라인 수를 정확하게 16:9 비로 묘사하는 경우입니다.
HD에서 픽셀이 정방형이 아닌 곳이 있습니다. 1440 루미넌스 샘플을 사용하는 매우 폭넓게 사용되는 HDCAM 서브샘플의 1920픽셀 HD 라인. 이는 단지 레코더의 내부 기능입니다. ?
인풋 및 아웃풋은 정방형 픽셀을 사용합니다. 유사한 방식으로, 10801 HDV(2) 포맷 또한 라인 당 1440 샘플을 사용합니다.
일반적으로 컴퓨터는 정방형 픽셀로 이미지를 생성하지만 디지털 SD 텔레비전 이미지는 정방형이 아닙니다. 이는 애플리케이션간 전송을 할 때 또는 영상의 정확한 화면 비를 유지하기 위해 영상 조절을 수행할 때 사용되는 애플리케이션과 장비들은 이 점을 고려해야 합니다.
애너모픽, 화면 비 참조

디지털 샘플링 시스템에서, 디지털 이미지의 픽셀 수보다 더 적은 수의 아날로그 시그널의 샘플을 취하는 것을 서브샘플링이라고 합니다. 일반적으로 서브샘플링은 이미지에 사용된 데이터 양을 줄이기 위해 사용됩니다. 스튜디오 퀄리티 비디오를 위해 폭넓게 사용되고 있는 4:2:2 샘플링 시스템에서, 하나의 픽셀에 대응하는 각각의 루미넌스 샘플은 ‘4’로 표시됩니다. 두 개의 크로미넌스 시그널은 두 개의 픽셀 당 하나를 만들면서 절반 레이트로 각각 샘플링됩니다. 이는 크로미넌스 서브샘플링이라고 알려졌으며 때때로 4:2:2, 4:1:1 등과 같은 샘플링 비를 나타내는 용어로 사용됩니다.
4:2:2 참조

시스템 명칭
텔레비전 표준을 설명하기 위해 사용된 용어. 표준이란 거의 자체 해석해서 기록된 경우가 많지만 수직 주사 비율에 대해서는 혼동의 여지가 있습니다. 예를 들어, 1080/60I는 30 프레임을 구성하는 초 당 60 인터레이스 필드가 있다는 것입니다. 그러면 1080/30P의 경우는 순차주사 방식으로 초 당 30 프레임을 설명하는 말입니다.
일반적으로는 마지막 숫자는 항상 초 당 수직 재생 수를 나타내는 법칙을 갖습니다. 그러나, 아래의 Table 3에서는 다른 방법을 사용합니다. 이것은 프레임 레이트(완전한 프레임 수)를 먼저 정하고 그것이 비월 주사인지 순차 주사인지를 정합니다. 예를 들면, ‘Frame Rate Code 5’는 30Hz로 순차주사일 때는 30 개의 수직 리프레시를, 비월주사일 때는 60 개의 수직 리프레시를 생성시킵니다.
순차주사, 비월주사 참조

Table 3 Compression Format Constraints

vertical size value Horizontal size value

aspect ratio information

frame rate code progressive sequence




1,2,4,5 1
      4,5 0


1280 1,3 1,2,4,5,7,8 1
      1,2,4,5,7,8 1
480 704 2,3 4,5 0
480 640 1,2 1,2,4,5,7,8 1
480 640 1,2 4,5 0

Legend for MPEG2 coded values in Table 3
aspect ratio information 1 = square samples 2 = 4:3 display aspect ratio 3 = 16:9 display aspect ratio
Frame_rate_code 1 = 23.976 Hz 2 = 24 Hz 4 = 29.97 Hz 5 = 30 Hz 7 = 59.94 Hz 8 = 60 Hz
Progressive_sequence 0 = interlaced scan 1 = progressive scan

이 표는 SD와 HD를 위한 18 DTV에 대해서도 목록화했습니다. 이 표를 처음 사용할 때 약간의 혼동을 가져올 수도 있습니다. 오늘날의 대부분의 HD 제품과 오퍼레이션은 24P, 25P, 60I 수직 스캐닝을 사용하는 1080라인 포맷과 50P, 60P의 720라인 포맷으로 집중되어 있습니다.

Truncation(일명 라운딩)
어떤 값을 묘사하기 위해 사용되는 비트 수를 줄이는 것으로 우리 주변에서 흔히 볼 수 있습니다. 예를 들어, 우리는 1024 대신에 1,000 이라고 말하기도 하고, 돈에 대해 얘기할 때 센트/펜스 등의 단위를 생략해서 말하기도 합니다. 디지털 비디오 시스템에서도 사용된 숫자들을 생략해서 말하기도 합니다. 이것은 보일 수도 있고 안보일 수도 있습니다.
10진법: 186 x 203 = 37758
2 진법: 10111010 x 11001011 = 1001001101111110
곱셈이 두 수를 합한 것과 같은 길이의 문자를 생성시키는 것은 이진 수학의 특성입니다.
이는 비디오 프로세싱(즉, 믹싱 픽쳐)에서는 흔한 일입니다. 예를 들어, 두 개의 8비트 비디오 값을 곱하면 16비트가 되듯이 또 다른 곱셈이 추가된다면 계속해서 증가할 것입니다.
이와 같은 원리로 고속도로가 아무리 길더라도 외부 세상에 맞게 설계되어야 합니다. HD에서 10비트 HDSDI 인터페이스 또는 8비트 MPEG2 인코더의 경우가 바로 그렇습니다.
예를 들어, 더 낮은 8 비트를 드롭하여 잘라내면 그 값이 01111110 또는 126으로 낮아지게 됩니다. 비디오의 콘텐트에 따라 그리고 계속되는 프로세싱에서 에러가 중첩되면서 이것은 보일 수도 안보일 수도 있습니다. 일반적으로 밝기가 낮은 평범한(디테일하지 않은) 부분에 띠 현상과 같은 것이 보이는 경향이 있습니다. 이런 현상은 컴퓨터에서 생성된 이미지에서 때때로 보입니다.
장비 내부에서, 지능적인 방법으로 숫자를 잘라내는 것은 디자인 퀄리티의 문제입니다. 그것은 프로세싱 된 후에도 에러를 야기시키지 않을 것입니다. 외부에서는, 10비트 장비를 8비트로 연결시킬 때 주의가 필요합니다. Intelligent Truncation을 Rounding이라고도 합니다.

범용 포맷(Universal Format)
1080/24P를 간혹 텔레비전을 위한 범용 포맷이라고 합니다. 그 이유는 고품질의 결과물을 제작하기 위해 다른 포맷으로 전환하는 경우 그것이 항상 적합성을 갖기 때문입니다.
HDCIF, 범용 마스터 참조

Y, Cr, Cb
디지털 형태의 비디오 콤포넌트를 말합니다. Y, Cr, Cb는 Y, RY, BY가 디지털화된 형태입니다.

콤포넌트 비디오 참조

콤포넌트 비디오와 관련된 표준에 대한 사실상의 약어. 이는 친숙한 용어지만 Y, RY, BY의 SD 아날로그 콤포넌트 비디오의 줄임 말로 부정확하게 사용되어 왔습니다. Y는 정확하지만 U와 V는 스케일링과 필터링 버전의 BY와 RY에 의해 각각 변조된 PAL 컬러 서브케리어를 나타내는 말입니다. 이상하게도 이 용어는 여전히 콤포넌트 아날로그 HD를 설명할 때 사용되고 있습니다. Y는 정확하게 표현된 말이지만 HD 코딩은 디지털이고 서브케리어 등과는 아무 상관도 없는데도 말입니다.


비디오 압축 1 : 개념
비디오 압축이란 동영상을 묘사하기 위해 사용되는 데이터나 대역폭의 양을 줄이는 것입니다. 디지털 비디오는 동영상을 구현하기 위해 방대한 데이터의 양을 필요로 하며, SD의 경우 이것을 줄이기 위해 여러 가지 방법들이 오랫동안 사용되어 왔습니다. HD는 그것보다 6배 정도 더 큰 최대 1.2Gb/s와 시간 당 560GB의 스토리지를 요구하기 때문에 영상 압축 기술에 대한 끊임없는 요구가 제기되고 있습니다.

영상 압축 개요
어떤 유형과 어떤 방식의 영상 압축을 하는가는 애플리케이션에 따라 다릅니다. 컨슈머 딜리버리(DVD, 전송매체 등)는 일반적으로 채널의 대역폭이 아주 작기 때문에 매우 높은 압축(낮은 데이터율)을 사용합니다. 반면, 프로덕션과 온라인 편집의 경우는 좋은 화질을 유지할 필요가 있기 때문에 훨씬 낮은 압축(높은 데이터율)을 사용합니다.
비디오 압축 방법은 소위 ‘리던던트(Redundant)’라고 하는 우리가 놓치기 쉬운 정보를 제거하는 원리에 바탕을 두고 행해집니다. 비디오와 영화뿐만 아니라 이미지 등에서도 이런 방법이 적용됩니다. 이 때 여러 가지 기술적 행태들이 한꺼번에 동원될 수 있습니다. 디지털기술은 저가의 수많은 제작 칩을 통해 이뤄진 상당히 복잡한 방법을 이용하기도 합니다.
우선, 컬러(크로마)에 대해 우리는 블랙과 화이트(루미넌스)만큼 민감하게 감지하지 못합니다. 따라서 컬러 레졸루션을 루미넌스의 반.(4:2:2 처럼)으로 줄입니다. 컬러 텔레비전(NTSC, PAL, 디지털)이 그러한 경우입니다. 마찬가지로, 적은 콘트라스트를 갖는 정교한 디테일 화면은 높은 콘트라스트의 큰 물체보다 우리의 지각 능력이 떨어집니다. 오늘날 영상 압축에 탁월한 성능을 갖는 기술로 유명한 DCT의 경우, 디지털 이미지의 8 x 8 크기의 픽셀 블록을 주파수와 진폭에 리졸브시켜 그 블록을 DCT 계수로 작게 만들거나 양자화시키면 데이터가 줄어듭니다. 이 DCT 압축 기술은 오늘날 멀티미디어 관련 국제 표준으로 사용되는 AVR, DV, HDV, JPEG(JPEG2000의 경우 해당안됨)의 핵심요소로 자리잡고 있으며 저자의 경우도 MPEG1, 2, 4, 윈도우 미디어 9에 이를 적용시키고 있습니다. 또한, 중복되는 데이터를 줄이는 단순한 수학적 처리에 허프만 코딩(Huffman Coding)을 사용하기도 합니다.
MPEG2와 최근의 MPEG4는 프레임 대 프레임에 어떤 변화가 있는지 그리고 16 x 16 픽셀의 매크로 블록의 움직임을 분석함으로써 또 다른 영상 압축 기술을 재현하고 있습니다. 이것은 모션 벡터라 불리는 움직임 정보만을 전송합니다. 모션 벡터는 상당 시간 동안 예상(B와 P) 프레임을 만들고, I 프레임보다 훨씬 적은 데이터를 포함합니다. 전체 화면(I 프레임과 데이터)은 단지 수 초 동안만 전송됩니다. MPEG2압축은 HDV뿐만 아니라 DVD와 같은 모든 형태의 디지털 전송에 사용됩니다. MPEG2보다 더 새롭고 더 효율적인 MPEG4가 오늘날 일부 HD 서비스에 적용되고 있으며 새로운 텔레비전 서비스에 폭넓게 사용되도록 도입되고 있습니다.
이러한 기술들은 유용한 것들이지만 프로덕션 체인에서 사용될 때는 약간의 주의가 요구되고 있습니다. 체인을 따라 이동하는 동안 여러 번의 압축(압축/압축 해제) 사이클이 반복될수 있기 때문에 압축 에러를 야기할 수 있습니다. 또한, 우리 눈에 좋게 보이게 하는 선에서 압축 계획이 이뤄지기 때문에 프로덕션, 포스트 프로덕션, 편집 작업에는 이롭지 않을 수도 있습니다. 이것은 특히 우리 눈에 보이는 것 보다 더 훌륭한 이미지를 얻을 수 있는 키와 컬러 보정과 같은 작업에 적용되며 원본보다 못한 결과를 가져올 수 있습니다.
AVR, 콤포넌트 비디오, DV, DNxHD, Huffman Coding, JPEG, JPEG2000, MPEG2, MPEG4 참조

DCT 참조

코덱은 Coder/Decoder의 약어입니다. ? 보통 압축 엔진을 언급하는 말로 자주 쓰이는 코더(Coder)나 디코더(Decoder)와 혼동할 수 있습니다.

압축 비율(Compression Ratio)
비압축(비디오나 오디오) 데이터 대 압축 데이터의 비율을 말합니다. 이는 압축 시스템의 효율성을 고려할 필요가 있기 때문에 단순히 화질이나 음질을 규정하는 것이 아닙니다. 스튜디오 애플리케이션의 경우, SD는 보통 2:1과 7:1 사이에서(D1, D5 비압축 VTR도 사용), HD는 현재 대략 6:1에서 14:1(VTR 포맷에 의해 한정) 사이와 I프레임에서 압축이 이루어 집니다. 전송의 경우, 실제적인 값은 방송국의 대역폭의 사용 한계에 의해 결정되지만 SD는 일반적으로 40:1 정도로, HD는 그 보다 다소 높은 50:1이나 60:1(포맷에 따라)로 압축이 이루어 집니다. 이것들은 둘 다 I프레임과 예상 프레임을 사용하여 압축 비율을 끌어올립니다.
HDV는 사용되고 있는 표준 제품에 따라 1925Mb/s로HD전송과 40:1 정도의 압축 비와 비교되는 비율 데이터를 테이프에 레코드 합니다.
전송과 비디오 레코더는 일반적으로 지속적인 비트 레이트로 작업이 이루어지며 원본 영상이 수많은 디테일 화면을 포함하기 때문에 압축된 이미지의 화질도 다양할 수 있습니다. DVD은 보통 지속적이거나 혹은 가변성을 갖는 비트 레이트에서 작동합니다. 따라서 자료의 요구에 따라 그 압축 비율이 올라가거나 내려가면서 일관성 있는 결과를 제공합니다. 이러한 이유로 평균 4 Mb/s 정도의 아주 낮은 비트 레이트에서 작동하는 DVD의 화질이 좋은 것입니다.

압축 ? 친밀도(Compressionfriendly)
압축한 후 좋아 보이는 자료들을 흔히 ‘압축 친밀도’가 높다라고 표현합니다. 이것은 매우 제한적인 데이터 대역폭이 가능하고 고 압축 비율이 사용되어야 하는 전송에 있어 중요한 것이 될 수 있습니다. 균일한 색상이 들어가 있는 큰 구역, 디테일한 부분이 적은 부분, 적은 움직임 있는 화면의 압축은 순조롭습니다. 예를 들어, 만화, 헤드앤숄더
클로즈업, 일부 드라마 등. 움직임 영상뿐만 아니라 공간적 디테일을 MPEG2 압축할 때 두 영상이 지나치면 화질이 안 좋게 보일 수도 있습니다. 이것은 주로 빠른 움직임이 있는 스포츠 경기(축구등)에서 볼 수 있습니다.
취약한 기술을 사용하여 ‘압축 친밀도’를 떨어뜨리는 경우도 있습니다. MPEG2나 MPEG4 인코더에 의해 움직임 화면에 랜덤 노이즈가 발생하기도 하는데 이는 원치 않는 움직임 정보를 전달하는 동시에 소중한 데이터 공간을 낭비합니다. 움직임 화면은 또한 공간적 디테일 화면을 희생시키고 원치 않는 움직임 데이터의 전송량을 다시 증가시켜 화면에 심한 진동 현상(Judder 현상)을 야기하는 취약한 프레임레이트 변환을 통해 왜곡됩니다. 이런 왜곡은 또한 움직임 순간이 잘못되었을 때 더욱 심해지기도하며 화면에 블록 현상을 가져옵니다.
프로덕션 체인을 통해 질적으로 우수한 장비를 사용하여 에러를 피할 수 있습니다. 또한 비디오 포맷의 선택이 도움이 될 수 있습니다. 예를 들어, 50 비월주사 필드보다 25 순차주사방식의 이미지를 사용할 때 움직임이 덜합니다. 따라서 순차주사 방식 이미지를 더 쉽게 압축할 수 있으며 1520퍼센트 정도 그 효율성을 높일 수 있습니다.

이산 코사인 변환(Discrete Cosine Transform)으로서 JPEG, MPEG2, MPEG4를 포함한 디지털 비디오 압축 방식의 핵심 요소로 자리잡았습니다. 이것은 8 x 8 크기의 픽셀 블록을 주파수와 진폭의 형식으로 변환합니다. 이는 데이터를 줄이지 않고 이미지 정보를 배열합니다. 고주파일 때, 낮은 진폭의 디테일은 거의 감지가 되지 않습니다. 그것의 계수는 영상마다 요구하는 파일 크기(지속적인 비트 레이트)를 맞추거나 특정 퀄리티의 레벨을 얻기 위해 점차 감소하게 됩니다. (종종 0으로). 이것이 양자화(Quantization)로 알려진 리덕션 작업인데 실질적으로 데이터를 감소시킵니다.
VTR 애플리케이션의 파일 크기는 고정되어 있으며 이를 효율적으로 압축하려면 오버플로없이 모든 파일 공간을 사용하는 능력을 발휘해야 합니다. 이것이 압축 비가 완벽한 화질 측정치가 될 수 없는 이유입니다. DCT는 하나의 영상 안에서 발생하기 때문에 인프라프레임(IFrame) 압축이라고도 합니다.
이는 TV에서 오늘날 가장 광범위하게 사용되는 압축 기술 중의 하나입니다.
AVR, 압축 비율, DV, JPEG, MPEG2, MPEG4 참조

Group Of Picture를 말하는 것으로 MPEG2와 MPEG4 비디오 압축 때 사용됩니다. IFrame에 대한 프레임 수를 의미합니다. : 예상 프레임 사이의 프레임(B와 P). ‘Long GOP’는 보통 MPEG2와 4 코딩과 관련이 있습니다. 전송에 있어, GOP는 종종 1/2 초, 13 또는 15 프레임(25 또는 30 fps)으로 길어지며 고압축 비율을 얻을 수 있습니다.
Array A typical group of pictures
GOP MPEG 를 길게 자르는 것은 디코딩이 적용되지 않을 경우 GOP 길이가 정확하지 않기 때문에 간단하지 않습니다 . HDV 는 6이나 15 프레임의 긴 GOP MPEG­2 를 사용하며 HDV1 또는 HDV2 의 경우 각각 1/4 또는 1/2 초의 간격으로 편집이 가능합니다 . 1 GOP 는 ‘I­frame 전용’ 비디오를 나타내는 것으로 프로세싱을 하지 않고 매 프레임마다 컷을 할 수 있습니다.
MPEG­2 와 같은 스튜디오 애플리케이션은 매우 짧은 GOP 를 갖고 , Betacam SX 는 2 GOP 를, IMX 는 1 GOP 를 갖습니다 .( 예: I­Frame 전용 ? 예상 프레임이 없음) 이는 프레임 어느 곳에서 나 손쉽게 컷을 할 수 있다는 것을 의미합니다 . DV, DVCPRO HD, HDCAM, D5­HD 는 MPEG 을 사용하지 않지만 I­Frame 전용 포맷입니다 . MPEG­2, MPEG­4 참조

I­frame 전용 (일명 I­frame)
인트라­프레임 전용의 줄임 말

Inter­frame 압축
압축 ‘예상’ 프레임용 데이터를 만들기 위해 여러 개의 연속적인 비디오 프레임의 정보를 사용하는 비디오 압축. 가장 일반적인 예가 1 이상의 GOP 를 갖는 MPEG­2 입니다 . MPEG­2 와 같은 스트림은 I­frame 과 예상 B와 P 프레임을 혼합한 것입니다 . 나머지 GOP 에 있는 프레임으로부터 예상 프레임을 단독으로 디코딩할 수 없기 때문에 전체 GOP 를 디코딩해야 합니다. 이는 전송에 적합한 효율적인 코딩 시스템이지만 GOP 경계에서 컷 될 수 있기 때문에 정확 한 편집을 위해 요구되는 유연성을 제공하지 못합니다. 또한, 화면에서 화면까지의 움직임의 추정치를 요구하기 때문에 복잡하며 항상 정확한 것은 아닙니다.? 블록현상 (Blockkiness) 이 야기되기도 합니다 . GOP, MPEG­2, MPEG­4 참조

프레임 당 2 개(또는 그 이상)의 인터레이스 필드와 같이 주사되는 이미지 라인의 순서를 정하는 방식. 대부분의 TV는 2:1 비월주사 방식을 사용합니다. 브라운관상의 전자빔이 처음 프레임은 1, 3, 5 번째와 같이 홀수 차의 주사선이 그려지고 다음 프레임은 2, 4, 6 차와 같은 짝수 차의 주사선이 그려지는 방식으로 TV의 화면에 상이 나타나게 됩니다. 이는 수직의 재생 비율을 배가시키며 풀 프레임 수나 시그널 대역폭을 늘이지 않고도 움직임의 묘사를 보다 보기 좋게 하며 깜빡임 현상을 감소시킵니다. 수직 레졸루션에 영향을 끼치며 이미지 프로세싱 작업 시 주의가 요구됩니다.
비월 계수, 순차주사 방식 참조

비월 계수(Interlace Factor)
순차주사에 비해 비월주사 방식은 수직 레졸루션에 영향을 미치지 않습니다. 그러나 이미지의 어떤 부분이 움직일 경우 레졸루션은 비월계수에 의해 0.7 이하로 감소합니다. 이는 비월 주사되는 두 개의 필드 사이의 시간 이동이 원인이며 움직임이 있는 동안 라인마다 고르지 않는 디테일 화면을 만들어 내어 수직 레졸루션이 전체적으로 약간 부드럽게 보이도록 합니다.

Intra-frame 압축(일명 I-frame 압축)
하나의 비디오 프레임에서만 정보를 취하는 비디오 압축. 이 방식은 프레임을 다시 만드는 모든 정보가 자체의 압축된 데이터 안에 포함되어 있으며 인접한 다른 프레임에 의존하지 않습니다. 이는 I-frame으로 압축된 비디오는 별도의 디코딩과 레코딩을 할 필요 없이 화면의 어떤 경계에서도 간단히 컷 할 수 있기 때문에 쉽게 편집이 가능하다는 것을 의미합니다. I-frame 전용 비디오는 편집이 가능하며 그 결과가 원본과 같습니다. 처음 비디오 압축 해제가 필요하며, 와이프, 디졸브, 믹스, DVE 무브 등과 같은 작업이 베이스밴드 시그널에서 수행될 수 있습니다.

인접해 있는 4 개의 DCT 블록과 상응하는 16 x 16 픽셀 블록 ? 매크로 블록은 MPEG-2코딩에서 모션 벡터를 생성하기 위해 사용됩니다. 대부분 코더들은 블록이 이동하는 곳을 정하는 ‘블록 매칭’ 기술을 사용하여 움직임을 묘사하는 모션 벡터를 생성합니다. 이는 대부분의 경우에 잘 작동하나 순간적인 에러를 발생시키기도 합니다. 예를 들어, 블랙으로 천천히 패이드 시키면 기술적인 에러가 발생하여 결과적으로 이상한 자리의 블록들이 잘 보이는 경우가 있습니다. 이런 경우 위상 상관(Phase Crrelation)과 같은 뛰어난 기술들이 움직임 추정치에 사용될 수 있습니다.

모션 벡터(Motion Vector)
MPEG-2와 MPEG-4 압축 시스템을 사용할 때, 모션 벡터는 매크로 블록(16 x 16 픽셀)이 프레임 사이를 움직이는 방향과 거리를 묘사합니다. 이 움직임 정보를 전송하는 것은 Iframe을 전송하는 것 보다 훨씬 적은 데이터를 요구하기 때문에 비디오 데이터를 줄일 수 있습니다.

순차주사 방식(Progressive Scan)
라인 1에서부터 끝까지 수직으로 주사가 진행되는 이미지 주사를 위한 시퀀스. HDTV에서는 수많은 순차 수직 프레임(리프레시) 비율이 사용됩니다. 동영상에서 24Hz가 가장 널리 사용되고 있으며, 뛰어난 안정성으로 인해 전세계 TV 포맷으로 쉽게 채택되었습니다. 25와 30Hz는 기존의 SD 프레임 레이트와 일치합니다.(비월주사 방식을 사용할지라도) 50과 60Hz 또한 사용되고 있지만 대역폭 제한 때문에 화면 크기 즉,720/60P와 720/50P에 제한을 둡니다.
오늘날 컴퓨터 디스플레이에서는 순차주사 방식이 가장 일반적으로 사용되고 있으며 모든 현대식 TV 디스플레이 또한 이 방식을 사용하고 있습니다. 순차주사 방식은 보기 편한 디테일을 만드는 믿을 수 있는 이미지를 제공합니다. 장비 디자이너들에게 순차주사 방식의 이미지는 서로 경쟁하는 어느 한 프레임에서 두 개의 필드 사이에 차이가 없듯이 쉬운 프로세스로 받아들여 집니다.
순차주사 방식은 더딘 수직 재생(리프레시) 비율을 갖는다는 단점이 있습니다. 그러므로, 1080-라인 포맷의 HD 텔레비전에서 사용될 수 있는 낮은 비율의 24, 25, 30Hz의 경우, 각각의 픽쳐를 두 번 보여주는 프로세싱(영화 프로젝터의 더블 셔터링과 같은)이 없다면 디스플레이에 상당한 깜빡임 현상이 있을 수 있습니다. 깜빡임 현상 외에도, 낮은 리프레시 비율은 움직임이 스터터(Stutter) 현상을 야기할 수 있기 때문에 빠른 액션이나 팬에 문제를 발생시킬 수 있습니다. 프레임 당 2 개의 수직 리프레시를 갖는 비월주사 방식은 이 점에서 강점이 있습니다.
24PsF, 비월주사 참조

양자화란 AVC, JPEG, MPEG-2, MPEG-4를 포함한 DCT 기반의 압축방식에서 사용되는 프로세스로 I-frame의 비디오 데이터를 줄입니다. DCT는 양자화를 통해, 최소한의 이미지 요소를 구성하고 최고 주파수와 최저 진폭을 나타내는 DCT 계수를 선택적으로 감소시킵니다. 많은 것이 0으로 줄어듦에 따라 데이터 또한 상당히 줄어들게 됩니다.
고정된 양자화 레벨을 사용하면 이미지의 디테일의 양에 따라 다양한 데이터 비율로 일관된 퀄리티의 아웃풋을 이끌어 낼 수 있습니다. 또한, 일관된 데이터 비율(그러나 다양한 퀄리티와 이미지)을 도출하기 위해 양자화를 다양화시킬 수 있습니다. 이는 데이터가 스토어나 지정된 크기의 데이터 채널과 일치해야 하는 VTR이나 전송 채널 등에 유용합니다. 이는 필링(Filling)에서는 거의 성공적인 것이지만 오버플로잉(Overflowing)에서는 그렇지 않으며, 스토리지는 DCT 압축 방식의 효율성을 가늠하는 하나의 척도입니다.
NB: 양자화는 두 가지 의미를 갖습니다. 비디오 포맷 부분 참조


비디오 압축 2 : 포맷
본 장에서는 실제로 사용되고 있는 시스템과 포맷의 압축에 대한 설명을 합니다.
특정 회사가 언급된 경우 해당 사에 그 저작권이 있습니다.

MPEG-4 참조

AVR은 ABVB 하드웨어 기반의 넌-리니어 시스템에서 사용을 목적으로 아비드 테크날로지사에 의해 창안된 모션-JPEG 비디오 압축 기법의 범위입니다. AVR은 동일 양자화 계수표가 디지타이즈하는 동안 비디오 칩의 각 프레임에 적용되기 때문에 지속적인 퀄리티의 MPEG 레졸루션으로 여겨집니다. 어떤 AVR의 경우, 실질적인 압축 데이터 비율이 생각했던대로 증가할 것입니다. 예를 들어, 헤드 샷(Head Shot)은 전형적으로 낮은 데이터 율을 가져오는 반면 스포츠 경기의 크라우드 샷(Crowd Shot)은 높은 데이터 율을 가져올 것입니다.
시스템 대역폭 문제를 피하기 위해 AVR은 압축 데이터 비율이 프리셋 한계를 벗어나는 것을 방지하는 롤백(Rollback)이라는 레이트 콘트롤 모드를 활용합니다. 따라서, 데이터 비율이 주어진 프레임의 롤백의 한계를 초과할 때, 그 레이트가 적정한 레벨로 되돌아 올 때까지 연속 프레임으로부터 고주파 정보가 버려집니다.

DVC는 IEC 61834의 표준인 DV 장비에서 사용되는 압축 기법입니다. 5:1 압축을 만들어내는 DCT 기반의 인트라-프레임 기법으로서, 4:1:1(NTSC)에서 720 x 480 또는 4:2:0(PAL)에서 720 x 576의 8비트 비디오 샘플링이 25 Mb/s 비디오 데이터 율을 만듭니다. 또한, DV, DVCAM, Digital8, DVCPRO(PAL이 4:1:1)에서도 똑같이 적용됩니다. 이는 동시에 여러 양자화기를 적용하켜 테이프 레코딩을 위해 25Mb/s 이하의 근사치를 선택함으로써 압축의 효율성을 높입니다.

아비드 DNxHD 인코딩은 상당히 줄어든 데이터 율과 파일 크기의 퀄리티를 제공하기 위해 제작되었으며 아비드의 페밀리 편집 시스템에서 지원 가능합니다. 편집을 위해 제작된 이것은 SD원본의 아비드 시스템에서 HD 자료들을 취급할 수 있도록 합니다. 어떤 HD 포맷이라도 편집, 이펙트 추가, 컬러 보정 인코딩이 가능하며 프로젝트를 완성시킬 수 있습니다.
요구사항에 맞게 다음과 같은 압축 이미지 포맷을 선택할 수 있습니다.


DNxHD 220x

DNxHD 185x

DNxHD 185

DNxHD 145

DNxHD 120

Bit depth

10 bit

10 bit

8 bit

8 bit

8 bit

Frame rate

29.97 fps

25 fps

25 fps



Data rate

220 Mb/s

184 Mb/s

184 Mb/s

135 Mb/s

220 Mb/s

풀 래스터(Raster)를 유지하는 아비드 DNxHD는 4:2:2로 샘플링되며, 최적의 코딩 및 디코딩기술을 사용하기 때문에 이미지 퀄리티가 여러 제너레이션과 프로세스에 걸쳐 유지됩니다. DNxHD는 공동작업 환경의 HD 워크플로우의 효율성을 제공하며 네트워크와 스토리지를 사용하여 SD 미디어를 처리할 수 있습니다. Avid Unity 공유 미디어 네트워크는 이제 HD를 손쉽게 처리할 수 있습니다. Media Composer Adrenaline HD와 Avid DS Nitris 시스템을 사용하여 저렴한 리얼 타임의 HD 워크플로우를 계획할 수 있습니다. 심지어 랩탑에서 HD를 편집할 수도 있습니다.
자세한 사항은 를 참조 바랍니다.

JPEG File Interchange Format ? 아비드 테크날로지의 Meridiean 하드웨어 기반의 넌리니어시스템에서 사용되는 압축 기법. JFIF MJPEG 레졸루션은 매우 복잡한 압축 칩들이 고정 데이터 율을 제공하기 때문에 지속적인 레이트를 제공합니다. 각각의 JFIF 레졸루션은 타겟 데이터 율과 기본 양자화 표에 의해 지정됩니다. 디지타이즈할 때 양자화 표는 리니어로 스케일링(롤링 Q)되어 타겟 레이트에 실제로 압축된 데이터 레이트를 전달합니다. 이러한 유연한 접근성 때문에 JFIF 레졸루션으로 압축된 이미지가 비슷비슷한 평균 데이터 율을 갖는 AVR에 의해 압축된 이미지보다 일반적으로 더 나아 보이는 것입니다.

MPEG4 참조

허프만 코딩(Huffman Coding)
자주 발생하는 심볼에는 짧은 코드를, 드물게 발생하는 심볼에는 긴 코드를 할당하여 반복되는 패턴을 인식함으로써 데이터를 압축하는 방식. 이 코드들은 허프만 표에 의해 할당됩니다. 원본 데이터가 아닌 코드를 보내면 2:1까지 압축이 가능합니다. 이 방식은 JPEG과 MPEG과 같은 비디오 압축 기법의 한 부분으로 종종 사용됩니다.

Joint(ISO와 ITUT) Photographic Experts Group? JPEG은 영상 데이터를 압축하는 표준입니다.
이것은 2와 100 배 사이의 압축비를 제공하며, 기본 방식과 확장 방식 그리고 무손실(lossless) 방식과 같은 3 단계의 프로세싱을 사용합니다.
JPEG 기본 코딩 방식은 TV와 컴퓨터 애플리케이션에서 가장 일반적으로 사용되는 방식으로 8 x 8 픽셀 블록 영상에 DCT를 적용하고 이것을 다시 주파수와 진폭 데이터로 변환합니다. 그 자체가 데이터를 줄이는 것은 아니지만 일반적으로 잘 보이지 않는 고주파가 높은 양자화 요소에 의해, 잘 보이는 저주파가 낮은 양자화 요소에 의해 분리될 수 있습니다. 양자화 요소는 데이터의 크기나 화질의 요구사항에 의해 효과적으로 압축비를 조절하면서 설정될 수 있습니다. 마지막 단계에서는 무손실 방식의 산술 처리를 하는 허프만 코딩으로 2:1 또는 그 이상까지 데이터를 줄일 수 있습니다.
JPEG의 기본 방식은 .jpg 파일을 만들어 내며 약간 다른 허프만 표를 사용하는 것 외에는 MPEG1, 2, 4의 Iframe과 매우 유사합니다.
압축, 압축비, DCT, DV, 허프만 코딩, JFIF, MJPEG 참조

JPEG 2000
JPEG 2000은 Joint Photographic Experts Group의 고급 이미지 코딩(압축) 시스템입니다. 일반적인 JPEG과 같이 이것은 인트라프레임 압축으로 포터블 디지털 카메라에서 폭넓게 사용되고 있으며 과학 및 산업 애플리케이션에 적합합니다.
DCT를 사용하기 보다 웨이브릿(Wavelet) 기술을 기본으로 하는 최신 기술을 사용합니다. TV 애플리케이션에서 최근에 폭넓게 매우 저렴한 비용으로 이용되기 까지 MPEG, JPEG 2000 보다 더 많은 프로세싱을 요구했습니다. 그러나 이제 새로운 칩의 개발로 가격 장벽을 낮추었으며 고화질의 대량 이미지에 대해 확실한 이점을 갖고 있기 때문에 TV와 D시네마 시장에서 JPEG 2000이 급속하게 확산되리라 예상됩니다. 새롭게 출시되고 있는 수많은 카메라의 HD 압축을 위해 이미 D시네마와 그래스 밸리에서는 이를 채택하도록 권장하고 있습니다.
이것은 영상을 블록 단위가 아닌 순환하는 구역 단위의 패턴으로 이미지를 분석하기 때문에 ‘블로키’- 작은 블록 단위로 영상이 뭉쳐 보이는 것- 현상이 없으며, 대신 영상을 조금 부드럽게 만듭니다. ? 눈에 잘 띄지 않게. JPEG 2000은 더 많은 비트가 이미지에 사용됨에 따라 계속해서 향상되고 있습니다. 한 결과로써, 200-300Mb/s HD와 D-시네마 이미지의 높은 비트 레이트에서 손실률이 없는 퀄리티로 디스플레이됩니다. 또한, 인코딩과 다른 크기의 이미지를 디코딩하지 않고 직접 추출이 가능합니다.

모션 JPEG은 동영상에 적용되는 JPEG 압축을 말합니다. 각 프레임 안에 다양한 디테일이 포함되어 있기 때문에 일정한 비트레이트를 선택할 것인지 아니면 일정한 퀄리티를 선택할 것인지를 결정해야 합니다.

M-JPEG 2000
동영상에서 사용되는 JPEG 2000

Moving Pictures Expert Group. 동영상과 사운드를 위한 표준 설정과 관련된 전문가 그룹.
비디오 및 오디오(MPEG-2와 MP3)의 압축뿐만 아니라 자료의 인덱싱, 파일링, 라벨링과 관련된 표준에 대한 규정도 포함됩니다.

ISO/IEC 13818-1. 매우 높은 압축 비율을 사용하여 시청자들에게 디지털 비디오 및 오디오의 전송을 목적으로 우선적으로 제작된 비디오 압축 시스템입니다. 고 압축비율을 요구하는 DVD 및 기타 애플리케이션뿐만 아니라 현재 전세계의 거의 모든 DTV 변환, SD와 HD, DVD을 위해 사용됨으로써 이것의 중요성이 매우 크다고 할 수 있습니다.
아래의 프로필과 레벨 표는 하나의 표준을 보여주는 것이 아니라 여러 애플리케이션이 서로 다른 조합으로 구성될 수 있도록 전체적인 것을 보여주고 있습니다. 모든 프로필과 레벨 조합들은 MPEG-2를 사용하지만 베이스밴드 비디오로 디코딩과 레코딩을 하지 않고 표의 어느 한 곳에서 다른 곳으로 이동하는 것은 불가능합니다.


I, B

I, B, P

I, B, P

I, B, P

I, B, P

I, B, P


80 Mb/s


100 Mb/s

High-1440   1440x1152
60 Mb/s
60 Mb/s
80 Mb/s

15 Mb/s

720x 576
15 Mb/s

50 Mb/s

15 Mb/s


20 Mb/s


4 Mb/s


4 Mb/s


MPEG-2 프로필과 레벨 (* SNR과 Spatial은 축소확장이 가능함.)

프로필에는 사용되는 압축 툴을 나열해 놓았습니다. 레벨에는 HD에서부터 VHS에 이르는 영상포맷/퀄리티를 열거했습니다. 각각의 프로필/레벨이 만나는 곳에는 비트 레이트가 지정되어 있습니다. 모든 경우에, 위에서 언급된 레벨과 비트 레이트는 최대이기 때문에 이보다 낮은 값이 사용될 수도 있습니다. 최신 HD에 적용 가능한 조합 칸들은 반전시켜 표시를 했습니다.
MPEG-2는 인코딩보다 디코딩이 훨씬 간단하다는 점에서 매우 비대칭적이라 할 수 있습니다. ? 그래서 몇몇 방송국들이 매우 비싼 장비를 사들이는 동안에도 수백만 시청자들이 적정한 가격으로 방송을 즐길 수 있는 것입니다. 코딩은 두 가지 방식이 있습니다. 하나는 DCT 기반의 인트라-프레임(I-프레임) 압축과 양자화 애플리케이션을 사용하여 데이터를 줄이는 방식 ? JPEG과 같은 방식이고, 두 번째는 GOP를 만들면서 매크로의 움직임을 계산한 다음 연속적인 I-frame 사이의 영상 정보를 바꾸는 인터-프레임 압축과 관련이 있습니다. 움직임은 방향과 거리를 보여주면서 I-frame에서 요구되는 것보다 훨씬 적은 데이터 양을 갖는 모션 벡터처럼 전달됩니다. 모션 벡터 연산은 정확하지 않기 때문에 서로 다른 MPEG 압축기 간의 퀄리티에 많은 차이가 있을 수 있습니다. 반면 압축 해제는 결과론적인 것이기 때문에 모든 압축 해제기(디코더)에서는 같을 수 밖에 없습니다.
인코딩 프로세스는 반드시 여러 프레임들을 동시에 볼 필요가 있습니다. 이로써 상당한 딜레이가 발생할 수 있습니다. 이와 유사하게 디코더도 영상을 딜레이시킵니다. 전송에 있어, 이것은 1 초 이상 지연될 수 있습니다. MPEG-2는 때때로 방송 전용 회선에서 사용되며 이는 뉴스 리포터가 질문에 대답하는 것이 지연되는 것을 보고 알 수 있습니다.
HD 비디오와 오디오를 전송 ‘데이터 파이프’에 맞추는 것은 매우 높은 압축을 요구합니다.
비압축 10-비트 HD는 1244Mb/s를 필요로 합니다. 그러나 이것은 10-비트 데이터로서 4:2:2로 샘플링 됩니다. MPEG-2는 데이터를 746Mb/s 이하로 가져와 4:2:0에서 8-비트 샘플링 됩니다. 그러나, ATSC(19.2Mb/s) 또는 DVB(20Mb/s, 채널 너비, 파라미터 등에 따라)의 데이터 파이프는 대략 40:1 압축을 요구합니다.
DCT, GOP, 인트라-프레임 압축, 인터-프레임 압축, 매크로블록 참조

MPEG-4(ISO/IEC 14496)는 MPEG(Moving Picture Experts Group)에 의해 규정된 수많은 주제들을 포함하는 광범위의 표준으로 자리하고 있으며, TV 제작과 관련된 표준들은 대체로 비디오 압축 기법과 연관되어 있습니다. MPEG-4 Part 10, AVC(Advanced Video Coding)와 H.264는 동일한 압축 시스템을 말하는 것입니다. 이것은 MPEG-2에서 만들어진 DCT 기반의 시스템으로서 인트라와 인터-프레임 기술을 활용하여 많은 효율성을 갖는 코덱을 만듭니다. 코딩은 MPEG-2보다 더 복잡한 것이지만 약 30 퍼센트 이상의 엑스트라 데이터를 저장할 수 있습니다. 최근의 일부 TV 서비스들이 MPEG-4의 사용을 계획하고 있습니다. 이는 더 많은 대역폭이 요구되는 HD에서 특히 진가를 발휘할 것입니다. 이는 시청자들에게 향상된 이미지 퀄리티와 함께 주어진 대역폭 안에서 더 많은 채널을 전달할 수 있게 합니다. 이것은 WM9과 유사하나 동일한 것은 아닙니다.

VC-1은 현재 SMPTE(SMPTE 421M)에 의해 표준화되고, 마이크로소프트 사가 Windows Media Video(WMV)9 Advanced Profile을 통해 구현하고 있는 비디오 압축 코덱의 사양입니다.
WMV9 참조

Windows Media Video 9은 마이크로소프트사에 의해 개발된 비디오 및 오디오 압축 시스템(코덱)입니다. 이는 MPEG-4와 유사하지만 낮은 데이터 레이트를 제공하고 프로세스가 복잡하지 않으며 더 향상된 성능을 갖습니다. 그것의 애플리케이션은 HD DVD와 같이 콘텐트 전달을 위해 것입니다.


HD 포맷
HD TV용 테이프 포맷은 현재 폭넓은 퀄리티와 가격으로 선택할 수 있도록 되어 있습니다.
이것들은 디지털 시네마토그래피, 정통 방송, 프로그래밍을 포함하여 가장 최근에는 프로슈머 시장의 레코딩의 요구를 채워주는 것들입니다. 프로슈머 시장에는 이미 HDV가 도입되었으며 HD의 사용이 널리 확산되었습니다.

파나소닉의 HD 버전의 D5 1/2인치 디지털 VTR 포맷으로서 HD 마스터링을 위해 폭넓게 사용되고 있습니다. 이것은 비디오 포맷(1080/60I, 1035/60I, 1080/24P, 720/60P, 1080/50I)의 폭넓은 선택을 제공하면서 표준 D-5 카세트 셀에서 2 시간 이상을 레코딩할 수 있습니다. 이것은 유럽 영화에 유용한 24Hz 레코딩을 하여 25/50Hz 애플리케이션의 자료를 직접 사용할 수 있습니다. 24-비트 48kHz 디지털 오디오의 8 개의 개별 채널을 통해 5.1과 스테레오 믹스를 할 수 있습니다.
파나소닉은 HDSDI 4:2:2 콤포넌트 디지털 비디오 데이터 레이트를 1240Mb/s까지 줄이는 압축 기법을 사용합니다. D5HD는 4:1(8 비트 모드)과 5:1(10비트 모드)로 비디오를 압축합니다.
HD VCT 포맷에 관한 사항은 http://videoexpert.home.att.net을 참조 바랍니다.

D6 테이프 포맷은 19mm ‘D1과 같은’ 카세트를 사용하여 최근의 대부분의 HDTV 표준에서 64분 비압축 HD 자료들을 레코딩할 수 있습니다. 레코딩 비율은 최대 1020Mb/s이며 10비트 루미넌스와 8비트 크로미넌스를 사용하고 12 채널의 AES/EBU 스테레오 디지털 비디오를 레코딩합니다. 시장에서 유일한 D6 VTR 제품은 Thomson 사의 VooDoo이며 이 제품은 필름 대 테이프 애플리케이션에서 사용되고 있습니다.


파나소닉의 DVCPRO VTR 제품군의 HD 버전입니다. DV와 DVCPRO는 25Mb/s를, DVCPRO 50은 50Mb/s를, DVCPRO HD는 100 Mb/s를 레코딩합니다. 이 모두는 DVC DCT 기반의 디지털 압축 기법인 DVC 인트라프레임과 6.35mm(1/4인치) DV 테이프 카세트를 사용합니다.
레코딩 포맷에서, 비디오 샘플링은 8비트, 4:2:2, 720P이고 720P 포맷도 지원됩니다. 8 개의 16비트 48kHz 오디오 채널이 있습니다. 이 레코딩 데이터 레이트는 1Gb/s 비디오와 오디오 데이터를 줄이기 위해 상당한 비디오 압축이 사용되어야 한다는 것을 의미합니다. 6.7:1의 비디오 압축이 제시되고 있습니다.
DVCPRO HD 캠코더의 기능을 하는 VariCam은 1프레임 증가 값의 460Hz의 촬영을 위해 가변성의 순차 프레임 레이트를 제공합니다.

소니의 유명한 디지털 베타캄의 HD 캠코더 버전. 1997년에 ‘DigiBeta에 가까운’ 가격으로 도입된 제 일의 HD 포맷이었습니다. 현재에도 여전히 저가의 모델이 많이 있습니다. HDCAM은 1/2인치 레코딩 포맷입니다. SD로 변환이 가능한 옵션뿐 아니라 여러 스튜디오 레코더 및 플레이어가 있습니다.
캠코더의 카메라 부분은 1080 x 1920 이미지를 캡쳐 할 수 있는 2/3인치, 2백 1천만 픽셀 CCD를 포함하고 있습니다. 렌즈는 최고 화질을 위해 HD 렌즈뿐 아니라 디지털 베타캄 제품과도 호환성을 갖습니다. 레코더는 작은 카세트에 최대 40 분을 담을 수 있습니다. 4.4:1 인트라프레임 압축을 포함하는 일련의 단계를 거치면서 기본 비디오 데이터율을 140Mb/s로 줄입니다. 그 포맷은 4 채널의 AES/EBU 오디오를 지원하며 테이프에 대한 전체 레코딩 비율은 185Mb/s입니다. HDCAM은 수평 레졸루션이 1440 픽셀로 서브샘프링됨과 동시에 3:1:1로 비디오를 샘플링합니다. 이것은 수많은 HD의 요구사항을 수용하지만 블루 스크린 작업에는 이상적인 매체가 아닙니다.
HDCAM은 프로그래시브 24, 25, 30fps와 50과 60Hz의 인터레이스에서 1080 x 1920 픽셀의 비디오 포맷을 지원합니다. 24P의 자료는 50Hz 또는 60Hz 환경으로 직접 재생될 수 있습니다.
또한, 액션의 속도를 늦추거나 줄이기 위해 다른 프레임 레이트로 플레이백할 수 있는 기능이 있습니다.
CineAlta 참조

HDCAM SR은 440Mb/s의 비디오 레이트에서 4:4:4 RGB 또는 콤포넌트 4:2:2 HD 비디오를 레코드할 수 있습니다. 이는 손실율이 없는 MPEG4 Studio Profile(ISO/IEC 144962:20011) 압축을 사용하며 1/2인치 테이프 카세트에서 레코딩합니다. Studio Profile은 고해상도에 대한 요구를 제기합니다. : 이는 I프레임 전용이기 때문에 편집이 쉽고, 픽셀 수(SD와 HD)와 비트뎁스(10또는 12비트) 그리고 컬러 해상도(콤포넌트 또는 RGB)에 대한 확장성을 갖습니다.
애플리케이션에는 고급 HD 레코딩, 편집이 포함됩니다. 아마도 HDCAM SR을 최고 품질의 HD 테이프 레코딩 시스템이라 해도 과언이 아닙니다. 더 높은 비트 레이트의 레코더는 실질적으로 하드 디스크나 플래시 메모리를 사용합니다.
SQ 모드라 불리는 440Mb/s 레이트로 작업하는 것 외에, HDCAM SR은 또한 880Mb/s의 레코딩을 하는 HQ 모드를 사용하여 4:4:4 RGB의 낮은 압축 또는 2 개의 4:2:2를 제공합니다.

HDV는 HD를 촬영하고 레코딩하는 저가의 시스템입니다. 이것은 비디오 포맷이자 압축 기법으로 DV 레코딩과 DV, MiniDV, 카세트를 사용합니다. HDV는 표준 HDV1과 HDV2로 이용가능하며 이것들은 DV와는 달리 MPEG2의 Long GOP 압축을 사용하여 HD 비디오를 DV크기의 데이터로 줄입니다. 이 두 표준에서는 4:2:0 컬러 8비트 샘플링이 사용됩니다.
MPEG1(Layer II)를 이용하면 2 채널의 16비트/48Hz 오디오가 384 kb/s로 압축됩니다. (4:1) HDV1은 60, 50, 30, 25Hz의 프레임 레이트를 갖는 1280 x 720 순차 주사 포맷입니다. JVC의 ProHD는 24Hz 프레임 레이트를 추가시킵니다. 루미넌스 샘플링 비율은 74.25MHz입니다.
MPEG2 60프레임 GOP 압축 기법이 사용되어 비디오가 압축되고 단지 19 Mb/s의 레코딩 데이터율을 만듭니다. 이것은 또한 63분 MiniDV 카세트가 모든 레코드 트랙에 배치되어 드롭아웃이 최소화된 데이터로 구성된 63분 HDV를 레코딩합니다.
HDV2는 60 또는 50Hz의 프레임 레이트를 갖는 1440x1080 비월주사 방식 포맷입니다.
MPEG2 15프레임 GOP 압축이 적용된 후 데이터 레이트는 25Mb/s가 됩니다. 픽셀 수는 보통 16:9 픽셀/라인 비가 아니라 화면 그 자체입니다. 따라서 루미넌스 샘플링 비율이 55.7MHz가 되며 픽셀은 정방형이 아니라 1.33:1의 화면 비로 확장됩니다. 이는 HDCAM에서 사용된 것과 동일한 루미넌스 샘플링입니다.

ProHD는 JVC에서 채택한 HDV 720P 레코딩 모드로서 24프레임 순차주사 24P를 추가합니다. ? 하지만 1080라인 포맷용은 아님. 이는 디인터레이싱(Deinterlacing)과 같은 프로세스를 피하기 때문에 필름 룩을 구하거나 필름이나 D시네마로 아웃풋을 하는 프로덕션에 유용합니다. 24P의 추가와 더불어 ProHD는 HDV와 동일한 압축과 비트스트림 포맷을 사용합니다.

소니 사의 XDCAM HD는 프로페셔널 디스크 미디어(Bluray)에서 1080I 4:2:0 HD를 18, 25, 35Mb/s로 레코딩합니다. 25Mb/s는 일정한 비트 레이트로서 사용자들에게 HDV로의 가교 역할을 하며 나머지 두 개의 레이트는 가변성이 있는 것들입니다. 18Mb/s는 두 시간의 레코딩 타임을 허용하고 나머지 두 레이트는 각각 90분과 60분을 허용합니다. 사용자는 동일 디스크에서 서로 다른 비트 레이트를 믹스할 수 있습니다. HDV와 같이 Long GOP MPEG2 압축이 사용됩니다.


SD 포맷
SD(Standard Definition)는 소비자부터 방송 전문가에 이르는 모든 사람들이 폭넓게 사용하는 디지털 테이프 포맷입니다. 최근에는 보다 콤팩트하고 저가의 제품들이 유행입니다. 수많은 HD 테이프 포맷들은 DV 포맷을 사용하는 HDV를 포함하여 SD에서 자체의 방식을 갖습니다.

19mm(3/4인치) 카세트에서 SD 비압축 4:2:2 콤포넌트 디지털 625와 525라인 비디오를 레코딩하는 디지털 테이프 포맷. 1987년 소니 사에 의해 상당히 부담스런 가격으로 발매되기 시작했으며 멀티제너레이션 퀄리티가 요구되는 고급 작업에 사용되었습니다. 오늘날에는 널리 애용되고 있지 않습니다.

1988년 Ampex 사에 의해 소개되었으며 19mm(3/4인치) 카세트에서 비압축 디지털화된 콤포지트 PAL 또는 NTSC 비디오를 레코딩합니다. D1 보다 적은 데이터와 테이프를 사용하며 PAL과 NTSC의 제한을 받는 시그널과 아날로그 송출 방송에 유익한 것이었습니다. 현재의 포스트 프로덕션에서 거의 사용되고 있지 않으며 디지털 전송을 위해 디코딩을 해야 합니다.
이 포맷은 오늘날 거의 사용되고 있지 않습니다.

파나소닉 사가 개발한 D3는 카세트(D3는 1/2인치)에서 콤포지트 PAL 또는 NTSC 비디오를 레코딩한다는 점에서 D2와 비슷합니다. 이는 D2와 같은 장단점을 갖고 있기 때문에 오늘날 역시 널리 사용되지 않습니다.

파나소닉 사에 의해 1994년 소개되었으며 D3와 동일한 1/2인치 카세트에서 비압축 625와 525라인 4:2:2 10비트 콤포넌트 디지털 비디오를 레코딩합니다. 이는 D1보다 저렴하고 콤포넌트이기 때문에 오늘날 포스트 프로덕션에서 꾸준히 사용되고 있습니다. 또한, 이것은 약 4:1 또는 5:1 압축 사용에 대한 HDTV 레코딩 조항을 갖습니다. (HDD5 참조)

디지털 베타캄
1993년에 발매가 시작된 ‘DigiBeta’는 D1보다 훨씬 저렴하면서 아날로그 베타캄 포맷을 대체했습니다. 이는 훌륭한 비디오와 오디오 퀄리티와 최대 124 분의 런타임을 제공합니다. 720 x 576 또는 720 x 480 4:2:2 콤포넌트 SD 디지털 비디오가 90 Mb/s의 비트레이트로 DCT 압축되고(약 2:1 압축) 4 채널의 비압축 48 kHz PCM 오디오가 제공됩니다.

1996년 발매된 DV(IEC 61834)는 소비자와 전문가 시장을 공략한 첫 번째 SD 디지털 테이프 포맷을 위한 테이프 포맷이자 코덱(비디오 압축 시스템)입니다. 손쉬운 편집을 위한 인트라프레임 압축, 넌리니어 편집 시스템으로 전송을 위한 IEEE 1394 인터페이스, 좋은 화질의 기능을 제공합니다.
DV 변형 제품으로는 DVCPRO 시리즈와 DCCAM이 있습니다. MPEG2 압축을 제외하고 HDV의 많은 부분이 MiniDV 테이프를 포함하여 DV에 그 뿌리를 두고 있습니다.

소니 사에 의해 소개된 DVCAM은 DV 표준의 변형 제품으로서 DV 및 MiniDV와 동일한 카세트 , 동일한 압축 기법을 사용합니다. 하지만 에러나 드롭다운의 발생을 적게 하면서 50% 빠르게 테이프를 구동시킵니다.

DVCPRO(25와 50)
파나소닉이 제작한 DVCPRO는 DV 기술을 바탕으로 전문적 애플리케이션을 취급합니다.
DVCPRO 25로 알려진 DVCPRO는 레코딩에 대해 DV 포맷과 동일하며 25Mb/s 레코딩 스트림을 사용합니다. 2개의 16비트, 48kHz 오디오 트랙이 있고 비디오는 576/50I와 480/60I 버전에서 4:1:1로 샘플링됩니다.
DVCPRO는 데이터율을 두 배로 하는 계층 구조를 지닙니다. 그 윗 단계가 DVCPRO 50으로 비디오 압축을 줄이도록 하는 테이프에서 50M/b를 사용하고, 스튜디오 프로덕션에서 요구하는 향상된 이미지 퀄리티를 제공하기 위해 4:2:2 샘플링을 사용합니다. 16비트, 48kHz 오디오 트랙이 제공됩니다.
HDCIF 공통 이미지 포맷 참조

파나소닉의 고체 소자를 이용한 레코딩 시스템으로 플래시 메모리에서 DV, DVCPRO, DVCPRO HD 비디오를 레코딩하고 테이프에 대해 속도와 안정성의 이점을 제공하지만 가격이 고가이고 짧은 런타임을 갖는 것이 단점입니다. 현재 이용할 수 있는 P2 카드들은 최대 8GB 스토리지를 제공합니다. ? DV의 40분, DVCPRO 50의 20 분, DVCPRO HD의 10분. 그러나 랜덤 액세스와 루프 레코딩이 가능하여 테이프보다 이 공간을 더 유용하게 만듭니다. 이는 카메라 샷 선택과 편집을 위해 하드 디스크 스토리지에 매우 빠르게 데이터를 저장할 수 있는 워크플로우를 제공합니다.

프로페셔널 디스크 미디어를 사용하는 소니 사의 캠코더. 이는 소니의 MPEG IMX(MXF 호환), 50, 40, 30 Mb/s에서 8비트 Iframe 전용 MPEG2를 레코딩합니다. ? 최고의 비트 레이트를 갖는 디지털 베타캄 퀄리티를 요구. 이 레이트는 45, 57, 68 분의 레코딩 타임을 각각 제공합니다. 또한, 일부 모델들은 5:1 압축과 함께 480/60I 시스템(NTSC)에서는 4:1:1 샘플링을 갖고, 576/50I(PAL) 시스템에서는 4:2:0 샘플링을 갖는 8비트 DVCAM 포맷을 레코딩할 수 있습니다. DVCAM의 레코딩 타임은 85 분입니다.
MXF 참조


디지털 필름
예전에는 많은 TV 드라마, 다큐멘터리 등이 필름으로 제작되었습니다. 오늘날에는 HD와 디지털 기술이 이 분야에서 많은 이점을 가져다 주면서 이런 경우가 점점 줄어들고 있으며 영화 그 자체도 디지털로 가고 있습니다. 사진과 영화에서는 여전히 필름을 사용하기도 하지만 모든 프로세스가 디지털로 이루어지는 추세입니다. ‘신 시티’와 ‘스타워즈 에피소드’와 같은 블록버스터를 포함하여 수많은 영화가 디지털 카메라로 촬영되며 디지털 영화의 입지는 날로 확고해지고 있습니다. 디지털 필름은 자체의 표준과 용어뿐만 아니라 TV과 공유하는 부분이 많습니다.

10비트 로그
디지털 필름 자료에 폭넓게 사용되며 10비트 이미지 샘플링으로 불립니다. 이는 TV에서 항상 사용되는 리니어 스케일보다는 대수 스케일링의 2 10 또는 1024와 같은 수 또는 밝기 레벨로 설명됩니다. 이것은 필름과 텔레비전 자료가 촬영되는 방식에 큰 차이가 있다는 점을 강조합니다. 필름의 경우, 시네마 네거티브는 최대 11 스톱의 밝기 범위(2000:1 이상의 명암비율에 상당하는)에서 가능한 많은 것을 픽업하기 위해 제작된 것으로 밝은 빛이 드는 대상에서부터 섀도우 부분의 모든 디테일을 캡쳐합니다. 이는 영화에서 훨씬 더 제한된 콘트라스트(명암) 범위를 선택해야 하는 릴리스 프린트가 완성되기 전에 이루어지는 색 조절과 보정에 대한 관용도를 제공합니다.
TV의 경우는 항상 이미지를 있는 그대로 정확하게 보여줍니다. 따라서 카메라가 촬영하는 동안 어떤 조정과 선택이 라이브로 이루어집니다. 레코딩되는 것이 시청자가 보는 것입니다.
256:1의 콘트라스트 범위와 8 스톱이 제공되며 실제로는 이것보다 더 좋게 보이기도 합니다.
TV 영상과 필름 네거티브는 서로 다른 정보를 담고 있습니다. TV의 10 비트(리니어)는 모든 콘트라스트 레벨을 부드럽게 리졸브시키기에 충분한 것이지만, 필름 네거티브는 약 13 비트(리니어)가 필요합니다. 하지만, 우리는 어두운 부분에서의 작은 밝기 차이와 밝은 부분에서 의 큰 밝기 차이를 알 수 있기 때문에 다소 어두운 부분에는 더 많은 디지털 레벨을, 밝은부분에는 적은 디지털 레벨을 지정하는 것이 디지털 레벨을 효율적으로 사용하는 방법입니다. 이것이 로그 샘플이 하는 일입니다.
양자화(비디오 포맷, 색공간과 샘플링) 참조

영화상영을 위한 약간 다른 포맷이며, 35mm 동영상 필름에서 주사된 영상에 일반적으로 사용되는 픽쳐 포맷입니다. 프로덕션에서는 이를 2048 픽셀의 1536 라인으로 말하고 있으며 4 x 3 화면 비의 픽쳐를 묘사합니다. 10비트 로그의 4:4:4 RGB로 샘플링을 하여 35mm 네거티브의 샤프닝(Shapness)과 콘트라스트(Contrast) 디테일을 제공합니다. 이는 TV 포맷이 아니며, 35mm 필름은 이펙트 작업을 위해 디지털 필름처럼 이 레졸루션로 스캔되며, 보정, 컷팅, 마스터링을 위해 DI 인풋으로 스캔됩니다.
TV의 사용에 대해, HD와 SD 배포를 위해 16:9(1080 x 1920)와 4 x 3 비 윈도우가 2K 자료로부터 선택될 수 있습니다. 또한 그 포맷은 필름 또는 D시네마로 고화질 전송을 지원하도록 되어 있습니다. 필름에서처럼 모든 원본 이미지가 스크린에서 보이는 것은 아닙니다. 디지털 프로젝션에 대해, 2K는 넓은 화면 비의 디스플레이를 제공하는 크기나 2048 x 1080 라인으로 불리고 있습니다.

이는 4096 픽셀의 3072 라인의 디지털 필름 프로덕션 이미지 포맷입니다. ? 2K의 4 배. 약 32MB의 데이터를 갖는 각 이미지에 대해 리얼타임으로 4K 풋티지를 재생 처리하기 위해서는 강력한 워크스테이션이 필요합니다. 또한 방대한 스토리지가 요구됩니다. 현재의 기술적 도전에도 불구하고 4K는 2K보다 미래의 효용도가 높기 때문에 아직은 그 수가 미미하지만 점점 각광받고 있습니다. 또한, 2K 무비로 다시 삽입해야 하는 일부 이펙트가 4K에서 제작될 수 있습니다. 앞으로 기술의 진일보를 통해 4K는 사용이 더욱 간편해지고 가격 효율성을 제공하면서 2K에 이어 디지털 필름 마스터링 포맷으로 폭넓게 이용될 것입니다.

시네마토그래피(Cinematography)와 HDTV의 가교 역할을 하는 소니 사의 제품 군의 명칭으로 HDCAM 기반의 캠코더와 스튜디오 VTR 그리고 전체 프로덕션과 포스트 프로덕션 시스템을 포함합니다. 최근의 HDCAM SR 시리즈는 높은 레코딩 데이터 율과 함께 TV에 사용되는 감마 보정이 아닌 원본 RGB 이미지에 직접 액세스가 가능한 더욱 새로워진 시네 패키지를 제공합니다.
24PsF 참조

다크 칩(Dark Chip)
DLP 시네마 참조

D시네마와 E시네마
D시네마 또는 디지털 시네마는 전체 장면 대 스크린 제작 체인과 연관 지을 수도 있겠지만 보통 디지털 수단에 의한 시네마 자료, 무비의 배포와 상영을 일컫는 말입니다. D 또는 E시네마를 구성 짓는 엄격한 규칙은 없지만 어떤 사람들은 D시네마의 이미지는 2K 크기 또는 그 이상은 되어야 한다고 말합니다. 그렇다면 작은 HD 또 SD 포맷들은 E시네마의 범주에 포함되게 됩니다. 하지만 관객들은 일반적으로 HD 프로젝션의 결과물에 더 감명을 받습니다.
디지털 프리젠테이션에는 필름 위브(Weave), 스크래치(Scratch), 스파클(Sparkle)과 같은 현상이 나타나지 않습니다. 대신 시네마 스크린에 새로운 표준 기술의 우수성을 전달합니다. 이것은 필름과 달리 재생 횟수와 상관없이 화면의 퀄리티를 유지합니다. 디지털 영화는 복사본 당 $1,0002,000상당의 프로젝터를 통해 200 회 정도 상영되어야 하는 35mm 필름이 아닌 디스크나 네트워크로 배포됩니다. 필름 프린트의 복사와 배포는 해마다 약 8 억 달러의 비용이 드는 것으로 추정됩니다.
E시네마는 현재 D시네마보다 그 발전 속도가 빠르며 이미 그 생존 가능성을 증명해 보이고 있습니다. 그것은 로컬 광고와 프로모션의 저예산 제작과 TV 기반의 콘텐트를 쉽게 추가할 수 있는 유연성을 가능케 합니다.
최근 고화질과 대형 스크린 디지털 프로젝터의 급속한 발전은 디지털 영화 상영을 가능하게 했습니다. 이것들은 다음과 같은 세 가지 기술에 바탕을 두고 있습니다. : DILA,
D시네마는 최근 Digital Cinema Initiative(DCI)에 의해 권장되고 있습니다.

Digital Cinema Initiative의 약자로 2002년 헐리우드의 메이저급 스튜디오들이 고 레벨의 기술적 성능과 신뢰도 및 퀄리티 콘트롤의 통일성을 보장하는 오픈 디지털 시네마 표준 설정을 위해 만들었습니다. 이 표준은 2005년에 완성되어 여러 제조사들에 의해 이행되고 있습니다.
2K 및 4K 이미지 포맷과 JPEG 2000 압축이 권고사항에 포함되어 있습니다.

디지털 시네마토그래피(Digital Cinematography)
디지털 시네마토그래피는 영화용 자료를 촬영할 때 일렉트로닉 카메라의 사용을 말하는 것입니다. Viper(Tomson), CineAlta(Sony), DVCPRO HD(Panasonic)을 포함한 수많은 카메라들이 35mm의 대안으로 이를 위해 제작되었습니다. 이는 HD 포맷으로 24P를 구동할 수 있고 TV 카메라보다 더 넓은 콘트라스트를 캡쳐하며 TV의 감마 보정 커브를 사용하지 않습니다.
Origin(Dalsa)와 D20(ARRI)는 D시네마 크기의 큰 이미지를 제공합니다. : Origin은 최대 4K, D20은 3018 x 220 픽셀. D20은 또한 160fps의 프레임 레이트를 제공합니다. 이 카메라들은 35mm 무비 카메라의 대안으로 제작되었지만 비디오 카메라 기능도 포함되어 있습니다.

디지털 인터미디에이트(Digital Intermediate, DI)
DI는 오리지널 카메라 네거티브(OCN)를 받아들이고, 영화의 릴리스 프린트를 만드는 인터네거티브를 제작하는 기존의 광화학 처리에 대한 디지털 대안입니다. 이것에는 항상 최종 릴리스 프린트에서 볼 수 있는 모든 샷과 일치하는 많은 단계의 색 보정 작업이 포함되어 있습니다. DI는 대형 스크린에서 즉각적인 쌍방향 재현이 가능하고, 오디오를 가질 수도 있으며, 보정과 편집이 이뤄진 디지털 인터네거티브의 그 필름을 아웃풋하여 바로 다시 보정할 수 있는 기회를 제공하기 때문에 완벽한 것으로써 점점 인식되고 있습니다. 이 방식은 편집된 자료에서 보정 작업이 이루어지고 모든 이펙트 샷을 사용하여 그것이 완성됩니다.
또한, 릴리스 프린트를 만들 때 보정 작업이 완전히 끝난 전체 릴을 아웃풋하는 것이 가능합니다.
DI는 35mm 필름을 스캔하는 것으로 시작합니다. 이는 필름을 자리 수로 바꾸면서 하일라이트에서부터 딥 섀도우 부분까지 모든 샤프닝과 콘트라스트 디테일을 전달하는 10비트 로그 RGB(4:4:4) 샘플링을 사용하여 2K 크기로 제작됩니다. 보정에 대한 헤드룸(Headroom)을 위해 콘트라스트 관용도가 요구됩니다. 디지털 시네마토그래피 카메라의 풋티지를 사용할 경우, 비용이 많이 드는 스캐닝 작업은 요구되지 않습니다.

DirectDrive Image Light Amplifier. 디지털 프로젝터에서 라이트 모듈레이션을 위해 액정 반사 CMOS 칩을 사용하는 기술. JVC는 최근 고해상도를 위한 드라이브인 2K(2,048 x 1,536) 어레이를 제작했습니다. 이는 디지털 카메라의 2000 라인의 해상도를 위한 SMPTE DC 28.8 권장사항을 충족시킵니다.
1.3인치, 3백 10만픽셀로 구성된 이 칩은 디지털의 소스 시그널을 취급합니다. 픽셀 간 13.5마이크론 피치는 밝고 선명한 하이콘트라스트 이미지에 대한 노이즈를 제거하기 위해 의도된 것입니다. 이는 효과적인 반사형 구조로서 픽셀로부터 나오는 빛의 93% 이상을 바운스시킵니다.
D시네마 참조

Digital Light Processing: 영화(아래 DLP 시네마 참조)뿐만 아니라 HD를 포함한 TV 용 디지털 마이크로미러 디바이스(DMD) 애플리케이션과 관련된 Texas Instruments Inc 사의 디지털 프로젝션 기술. DMD 칩은 프로젝션 렌즈를 통해 프로젝션 램프 조명을 반사시키기 위해 +/10 정도의 각도를 이루는 미세 반사경 집합체입니다. 미러 반응 시간이 빠르며(~10 마이크로초) 렌즈를 통과하는 반사 시간을 다양하게 하여 그레이스케일을 감지할 수 있습니다. 비디오의 경우, 각 비디오 필드를 타임 간격이나 비트 타임으로 세분화할 수 있습니다. 따라서, 8비트에서는 256 그레이 레벨이 가능하고 적당한 사전 프로세싱을 통해 디지털 이미지가 직접 영사될 수 있습니다.
마이크로 기계가공 기술로 제작된 어레이가 전형적인 CMOS SRAM 어드레스 회로에 형성됩니다. 768 x 576 픽셀로 시작된 비디오를 위한 어레이의 크기는 SD의 경우 442,368 미러입니다. 이후에 1280 x 1024 DMD가 HD와 D시네마에서 폭넓게 사용되었습니다. 대부분의 사람들은 이것이 영사된 필름과 대등하다는 것을 인정합니다. TI 사는 가까운 미래에 2000픽셀 이상의 칩이 제공될 수 있을 것으로 예상하고 있습니다.
DMD 칩 그 자체에 많은 관심이 집중되는 가운데 칩을 다루는 어떤 처리가 요구됩니다. 예를 들어 ‘Degamma’: DMD 기반의 디스플레이의 리니어 특성에 맞게 시그널의 감마 보정을 제거하는 것. 전형적으로 이는 주어진 어느 한 범위의 시그널 값을 다른 값으로 변환하는 룩업 테이블(Look Up Table)과 연관이 있습니다.
감마 참조

DLP 시네마
이것은 영화 상영의 특정 부분에 대해 텍사스 인스투르먼트(TI) 사의 DLP 기술을 사용하는 애플리케이션을 말합니다. 콘트라스트 비를 높이고, 높은 밝기값을 스크린에 적용시킬 때 특별한 주의가 요구됩니다. ‘Dark 칩’은 DMD의 불필요한 반사광을 훨씬 감소시킴으로써 중요한 역할을 합니다. 이것은 칩의 회로기판을 만들고 미러 외 모든 것을 비반사체로 만든 것입니다. 게다가 노멀 프로젝션 램프를 사용하여 60피트 스크린에서 최대 12 ft/l 조명 레벨을 유지할 수 있습니다.
D시네마, DLP 참조

TV는 보통 4:2:2 콤포넌트 비디오(Y, Cr, Cb)를 사용합니다. RGB 샘플링을 통해 4:4:4의 다소 높은 화질을 얻을 수 있습니다. 대부분의 디지털 시네마토그래피 카메라들은 리니어 또는 로그 샘플 스케일링을 사용할 수 있는 이러한 형태의 아웃풋을 제공합니다. 1080 x 1920 HDTV 이미지 포맷은 2K 프로젝트 이미지 크기에 가깝습니다. 따라서, RGB HD가 TV/필름 크로스오버 포맷으로 간주되며, TV 장비의 효율성과 속도의 이점을 이용하여 필름 퀄리티의 결과물을 얻을 수 있습니다.


Original Camera Negative의 약어로 이는 매우 높은 가치를 가지며 넓은 콘트라스트 범위를 유지하기 위해 제작되었습니다. 가능한 손실을 피하기 위해 많은 조심성을 갖고 이를 다루어야 합니다. 프로그램을 만드는 과정에는 OCN을 스캔하고 DI 루트를 따라 진행하거나 또는 인터포지티브 필름을 복사하는 과정이 존재합니다.

Silicon Xtal Reflective Dispaly(Xtal은 Crystal의 줄임 말)는 소니 사에 의해 개발된 디지털 프로젝터 디스플레이입니다. 이것이 유명해진 이유는 처음으로 4K(4096 x 2160) 크기를 제공했기 때문입니다. 또한, 반사형 액정 마이크로디스플레이의 그 디자인은 향상된 콘트라스트와 최대 200 fps의 속도를 제공하고 영상의 얼룩을 최소화하면서 서비스 수명을 연장시켰습니다.


포스트 프로덕션과 편집
필름과 비디오의 샷 선택과 편집은 이제 넌리리어 시스템을 이용하여 작업되고 있습니다.
포스트 프로덕션은 뛰어난 기능을 갖는 디지털 장비와 넌리니어 편집 시스템의 출현으로 점점 거대하게 성장해왔습니다. 이제 이것을 포스트 작업에 고정시키는 것이 시간과 비용 면에서 유리할 수 있습니다.

Advanced Authoring Format. 이는 멀티미디어 저작과 아비드를 포함한 많은 회사에 의해 지원되는 포스트 프로덕션을 위한 오픈 표준 포맷. 이것은 콘텐트 제작자들이 플랫폼과 애플리케이션 간 비디오, 오디오, 메타데이터와 같은 디지털 미디어를 쉽게 교환할 수 있도록 한 것입니다. 이는 프로젝트 관리를 단순화시키고, 시간 절약과 더불어 미디어 전송 시 과거에는 손실되었던 메타데이터를 보존시킵니다.
메타데이터의 로드(Load)가 가장 크고 개별 시스템과 애플리케이션이 호환이 되지 않아 고립되어 온 분야가 바로 편집과 포스트 프로덕션 작업입니다. AFF 파일 포맷의 사용은 AAF가 가능한 애플리케이션 간의 완전한 정보의 통로가 생기는 것입니다. 그러므로, 비디오, 오디오, 메타데이터에서 자료가 어떻게 조작되었는지(컷, DVE, 색 보정 등)에 대한 확신을 가지고 액세스가 필요한 곳에서 이것들을 항상 이용할 수 있습니다. 또한, 메타데이터는 검색과 버전 작업 시 도움이 될 수 있는 타임코드나 에지코드와 같은 기존의 오리지널 정보를 통과합니다.

블루 스크린(Blue Screen)
블루 백그라운드나 스크린을 배경으로 촬영되는 대상을 컷 아웃하거나 다른 배경으로 키를 얹을 수 있습니다. 파란 색은 보통 화면에서 특수한 것으로써 선택되며 키가 얹어지는 전면대상에는 나타나지 않습니다. 이것은 대상을 컷 아웃하기 위해, 사용된 키 시그널로 쉽고 정확하게 도출해내야 합니다. 대상 에지 부분에서 컬러 스필에 신중을 기해야 합니다. 예를 들어, 대상이 숲 속에 놓여 있을 경우 아마도 그린 스크린이 사용될 것입니다. 현대의 컬러 보정과 키 프로세싱은 완벽에 가까운 촬영을 위해 폭넓은 컬러와 보정을 제공합니다. 하지만 이것이 오히려 포스트 프로덕션의 시간과 노력을 배가시킬 수 있습니다.
블루 스크린 샷에서 나오는 키 시그널의 정확성은 컬러 정보의 정확성과 레졸루션에 달려있습니다. 단지 2:1이나 3:1 압축을 사용하여 4:2:2 샘플 비디오를 레코딩하는 디지털 베타캄 또는 DVCPRO 50과 같은 SD와는 달리, 크로미넌스 대역폭이 HD 키의 효율성을 제한할 수 있는 대부분의 HD 레코더들은 100140Mb/s 캠코더와 동등한 퀄리티를 제공하지 않습니다.
대표적인 예외가 HDCAM SR입니다. 이는 ‘무손실’ 압축의 10비트 4:2:2(4:4:4도 가능) 샘플링으로 최대 440Mb/s를 제공합니다.

시청자들에게 전달할 준비가 된 완성 자료. 콘텐트는 메타데이터를 TV, 비디오, 오디오에 적용시킨 상품을 말합니다.
메타데이터 참조

크로마 키(Chroma Keying)
화면(블루, 때때로 그린)에서 특정 색 부분에서 형성된 키 시그널을 끌어내거나 사용하는 프로세스

색 보정(Colour Correction)
다른 샷의 색을 맞추거나 특정 룩을 만들기 위해 화면의 색을 조절하는 프로세스 HD와 SD TV에서 색 보정은 매우 세련되어 갑니다. 이는 화면의 특정 부분이나 색 범위가 타겟이 될 수 있는 2 차적인 색 보정을 포함합니다. 예를 들어, 광고의 파란색 차를 빨간색으로 변경할 수 있습니다. 장비에 따라 짧은 시간 안에 정확한 결과를 얻기 위한 조작이 가능한 리얼타임과 쌍방향 조작이 가능합니다.

콤포지트(일명 수직 편집)
동영상(또는 정지) 비디오에 레이어를 추가하여 장면을 어셈블리하는 프로세스. 이는 DVE(크기 및 위치 조정), 색 보정, 키 작업과 같은 많은 툴들과 관련이 있습니다. 많은 레이어를 추가시키는 작업을 하기 때문에, 제너레이션 손실을 피하기 위해 비압축 비디오를 사용하는 넌리니어 시스템에 가장 적합한 작업입니다. 이제 기술이 매우 발달해서 필름과 TV의 최신 작업실에는 키 파트가 따로 있을 정도입니다. ? 이는 제작 비용을 절감시키고 새로운 가능성과 이펙트들을 사용할 수 있습니다.

Colour Separation Overlay. 크로마 키의 또다른 명칭
키 작업 참조

DS Nitris
이는 HD와 필름 레졸루션을 위한 아비드 테크날로지의 주요 이펙트 및 편집 솔루션입니다.
2000년 9월 출시되었으며 DS(디지털 스튜디오) 코드의 성공적 V4 릴리스에 바탕을 둔 제품입니다. 처음 버전에는 하드웨어 액셀러레이션이 없었으며 인풋/아웃풋 조작을 제외하고는 전체적으로 소프트웨어 기반이었습니다. 하지만 Nitris DNA 하드웨어가 강력한 하드웨어 가속을 제공하면서 CPU의 빠른 성장에 대응할 수 있게 되었습니다.
이 시스템은 거의 모든 플러그-인 제조사에 의해 지원되며 독립 레졸루션을 갖고 있습니다.
또한, 오프라인과 온라인 조작 간의 효과적인 링크를 제공하는 아비드의 Media Composer와 디지디자인의 ProTools와 같은 제품의 멀티-레이어 이펙트 기반의 OMF 파일을 지원합니다.

1/2-인치 테이프 카트리지에서 높은 데이터 스토리지 용량(최대 200GB)을 제공하는 소니의 1/2-인치 디지털 테이프 포맷 이름. 이러한 스토어는 주로 네트워크에서 클라이언트가 이용할 수도 있는 포스트 프로덕션의 HD와 같은 디지털 비디오를 저장하기 위해 사용됩니다.

Edit Decision List. 이는 오프라인에서 온라인에 이르기 까지 자료가 어떻게 편집되었는지를 보여주는 데이터이며, 또는 편집 과정에서 어떤 것이 발생했는지를 기록해 놓은 것입니다.
EDL은 넌리니어 편집 이전에 고안된 것이기 때문에 DVE, 고급 색 보정, 키와 같은 디지털 향상 기능들이 전혀 기재되지 않았습니다. 그렇다 하더라도, 그것은 많은 기본 편집 작업, 컷, 디졸브, 와이프, 슬로-모션 등을 전달하는 수단으로서 폭넓게 사용되었습니다. 유명한 포맷으로는 CMX 3400과 3600이 있습니다.
가장 최근에는 AAF와 OMF와 같은 새로운 포맷들이 오늘날의 프로덕션 작업에서 요구되는 폭넓은 기능들을 제공합니다. OMF는 오프라인과 온라인 간 풀 디시젼 데이터를 전송하기 위한 사실상의 표준이 되었습니다.

TV에서 필수적인 자료를 설명하기 위해 사용되는 용어로 스크린에 나타난 것과 스피커에서 나오는 것을 일컫는 말입니다. - 비디오, 오디오, 텍스트. 에센스는 편집, 믹싱, 이펙트 컴포징에 의하여 최종 프로그램(콘텐트)으로 통합될 수 있는 레코딩 요소로 구성됩니다.
콘텐츠, 메타데이터 참조

감마(Gamma, 보정)
감마는 카메라의 CCD와 같은 비디오 소스 장치 사이의 밝기 전송 커브 특성의 차이와 보통 브라운관(CRT)으로 여겨지는 디스플레이 장치의 반응을 설명하는 것입니다. 감마 보정은 카메라 프로세싱의 일부처럼 초기에 소스 비디오 R, G, B 시그널에 적용됩니다. 또한, 방송을 아날로그 송신하는 도중에도 비디오 시그널을 대기 잡음으로 통과시키기 않는 것입니다. 하지만 최근에는 전혀 다른 기술과 감마를 갖는 프라즈마, LCD, DLP와 같은 또 다른 디스플레이 장치를 사용함으로써 이 장치들은 송신 특성에 맞게 감마를 다시 조절해야 합니다. 예를 들어, DLP 기술은 실제로 타임 모듈레이트된 수많은 미러인 디지털 마이크로미러 디바이스(DMD)를 사용합니다. 스크린에 반사되는 많은 빛은 타임 시작을 의미하는 필연적인 것입니다. 그러므로, DLP 시스템은 룩업 테이블 레벨을 위한 노출 시간을 조절함으로써 주어진 루미넌스 레벨을 위한 디스플레이 감마를 프로그램해야 합니다.
컬러나 콤포넌트가 수정된 감마에는 다음과 같은 프라임이 표시됩니다. 즉, R´, G´, B´, 그리고 Y´, Cr´, Cb´. 사실상 이 글에서 언급된 모든 것이 감마 보정 시그널과 관련된 것이나 간편성을 위해 프라임을 표시하지는 않았습니다.

색 보정으로도 불리는 컬러 그레이딩은 레코딩된 풋티지의 색을 조정하는 것을 말합니다.
이는 매우 어려운 작업으로써 민감하고 매우 정확한 숙련이 필요합니다. 전통적으로 TV에서는 TV 프로그램을 만드는데 모든 카메라들을 맞추기 때문에 그레이딩을 사용하지 않습니다. 하지만, 단독 카메라로 여러 날에 걸쳐 촬영을 하거나 수많은 소스에서 풋티지를 간단히 사용하려 할 때, 모든 샷들이 동일한 컬러 룩을 갖도록 하기 위해 그레이딩이 필수적입니다.
최초의 그레이딩은 전체 프레임에 적용됩니다. 두 번째 그레이딩은 특정 부분의 컬러를 조정하는 것입니다. 이는 대상이 그레이드 될 수 있고 특정 범위의 컬러들에 영향을 줄 수도 있습니다. ? 봄의 초록 잎을 가을의 낙엽 톤으로 보이게 하는 수정을 함으로써 계절의 변화를 줄 수 있습니다. 변경할 부분을 정하는 것은 키를 사용하는 것과 관련이 있습니다. (아래참조)

화면의 어떤 것에 어떤 대상이나 부분을 위치시키는 프로세스를 말하는 용어 ? 비디오에 텍스트를 올려 놓는 것도 포함. 이는 필름의 매트와 같은 비디오 버전이지만 쌍방향 툴과 라이브 오퍼레이션 기능을 제공합니다.
오퍼레이션은 두 부분으로 나눠지는데 하나는 키 시그널을 뽑는 것이고 나머지 하나는 그것을 적용시켜 키를 얹은 결과를 낳는 것입니다. HD의 고화질의 큰 화면에서는 키를 얹은 결과물이 정확해야 합니다. 카메라가 절대 찍을 수 없는 장면, 대상, 배우들을 추가하는 콤포지트의 사용을 늘리는 것은 그 아이템들을 원본 이미지의 한 부분으로 리얼하게 보이게 하기 위해 뛰어난 키 조작이 요구됩니다.
키 툴들은 디지털 기술과 온라인 넌리니어 편집의 도입과 더불어 급속하게 발전하였습니다.
그래픽이나 캡션과 같은 전자적으로 발생한 자료들을 가지고 작업할 경우 비디오와 함께 시그널이 공급됩니다. 그렇지 않으면 키 시그널을 뽑는데 다른 뛰어난 수단을 이용할 수 있습니다. 일반적으로, 대상은 블루나 그린 스크린을 배경으로 촬영되고 그 컬러가 키 시그널을 규정합니다. 실제로 키 컬러가 대상 위에 뿌려지게 됨으로써 디-스필(De-spill) 기술이 적용됩니다. 그것은 드물게 재깅과 펄스 현상을 보이는 하드 컷(Hard Key)일 수 있지만 이때 조심스럽게 디졸브를 설정하여 부드럽고 자연스러운 에지를 렌더링하면 됩니다.
연기, 안개, 유리컵과 같은 반 투명 자료들의 키 작업을 할 때는 더 많은 기술들이 사용됩니다. 종종 이것에는 루미넌스에 따라 전면과 뒤 배경을 할당하는 Non-Additive Mix 기술이 사용됩니다.
디지털 키에서 매우 발달한 기술 중의 하나가 스윙 모션 픽쳐 이펙트의 큰 요소를 디지털 영역으로 가져오는 것입니다. 이러한 뛰어난 기술들은 촬영을 단순화시키고 비용이 많이 드는 로케이션 작업을 피하게 함으로써 제작 비용 삭감의 효과를 가져오는 변화를 이끌었습니다.
디지털 시스템에서 키는 풀 대역 시그널(Y, 루미넌스와 같이)로서, 저장될 때 종종 그것의 전면 비디오와 연관을 갖습니다. 디스크 방식의 넌리니어 시스템은 어느 하나를 작동하고 있을 때 이러한 키를 갖는 비디오를 저장하고 재생할 수 있습니다. 하지만 2 개의 VTR이 필요합니다.
블루 스크린, 4:2:2:4, 4:4:4:4 참조

Media Composer
넌리니어 편집 시스템인 이 시리즈는 아비드의 주력 상품이기도 합니다. Apple Mac과 PC 포맷의 하드웨어 플랫폼, 비디오 카드, 브레이크아웃 박스도 많습니다. 미디어 컴포저는 온라인과 오프라인의 사실상 표준으로서 전세계 엄청난 사용자들이 사용하고 있으며 필름과 TV 프로덕션에서 없어서는 안될 제품으로 인식되고 있습니다.

메타데이터란 데이터에 대한 데이터입니다. 즉, 다른 데이터를 설명해 주는 데이터를 말합니다. 에센스 또는 비디오와 오디오는 그것의 권리와 편집 계획이 없을 경우 거의 사용할 수 없는 것들입니다. 이 정보 역시 데이터를 보관하는 아카이브에 미래의 가치를 추가합니다.
메타데이터는 에센스에 대한 정보로서 그것이 언제, 어디서, 어떻게 샷되었는지, 누가 권한을 갖는지, 무슨 프로세스가 사용되었는지, 포스트 프로덕션과 편집 시스템에 속해있는지, 다음으로 보내질 곳은 어디인지 등에 대한 정보입니다. 오디오를 단독으로 사용할 때, 레이트 샘플을 나타내는 메타데이터를 갖는 AES/EBU를 포함합니다. 또한, AC3의 메타데이타는 저주파의 관리를 돕고 스테레오 믹스다운을 만듭니다.
일반적으로 비디오와 비디오 에센스는 프로덕션의 체인을 따라 통과할 때 보존되지만 메타데이터는 종종 손실됩니다. OMF를 갖는 Avid와 AAF Association은 편집과 포스트 프로덕션에서 이것을 수없이 개선하려는 노력을 했습니다.
AAF, Essence, OMF 참조

Material eXchange Format은 SMPTE 377M에서 표준화되었으며 Pro-MPEG 포럼에 의해 지원됩니다. 이것은 파일 서버, 테이프 스트리머, 디지털 아카이브 사이에서 프로그램 자료들을 교환할 수 있도록 한 것입니다. 보통 그것은 한 개의 완전한 시퀀스로 이루어지지만 클립과 프로그램 세그먼트의 시퀀스를 포함하기도 합니다.
MXF는 AAF 데이터 모델에서 나온 것으로서 그것의 파일과 통합되어 파일 방식의 스트리밍 전송의 다리 역할을 합니다. 이는 표준 네트워크를 통해, AAF 파일 방식의 포스트 프로덕션과 스트리밍 프로그램 재생 간에 자료가 이동하는 것을 돕습니다. 에센스와 메타데이터 경로를 늘려서 콘텐트 제작에서 플레이아웃까지 AFF와 MXF의 두 포맷이 함께 도달할 수있게 합니다.
MXF의 몸체에는 MPEG, DV, 비압축 비디오와 같은 콘텐트가 실려 있으며, 오디오와 데이터 에센스를 갖는 픽쳐 프레임의 시퀀스와 프레임 방식의 메타데이터를 포함합니다.
Non-additive Mix 키 작업 참조

Open Media Framework(OMF) 또는 Open Media Framework Interchange(OMF)는 서로 다른 소프트웨어 애플리케이션과 장비 사이의 디지털 미디어의 전송을 위해 제작된 플랫폼에 독립적인 파일 포맷입니다. 비디오와 오디오의 전송 이외에도 콘텐트에 대한 메타데이터와 편집 및 프로세스의 전송을 합니다. 이는 Final Cut Pro, Pro Tools와 같은 제품에서 사용됩니다. 이것은 AFF를 기본으로 하는 포맷입니다.

포토 리얼(Photo Real)
카메라에 찍힌 것처럼 보이는 이펙트가 생성된 자료들을 말하는 용어입니다. 이것은 컴퓨터로 만든 대상이나 카메라에 찍힌 아이템 그리고 화면으로 합성된 것에 적용될 수 있습니다.
키뿐만 아니라 섀도우 및 반사와 같은 디테일 작업에 있어 착각을 일으키도록 세심한 집중이 요구됩니다. HD와 필름 레졸루션의 퀄리티를 유지하려면 더 크고, 선명한 디스프레이가 에러를 포함한 디테일을 만들기 때문에 더 많은 것이 요구됩니다.
키 작업 참조

기능의 향상을 위해 기존의 애플리케이션에 추가될 수 있는 소프트웨어 애플리케이션에 대한 일반 용어. 넌리니어 비디오와 오디오 시스템들을 플러그-인을 통해 종종 새로운 이펙트나 기능이 확장됩니다.

아비드의 Symphony는 고급 일이차 색 보정, 캡션 및 타이틀 기능을 제공하는 실시간 이펙트 처리가 가능한 간단한 편집 및 피니싱 툴입니다. 초기 작업에서 SD로 전체 마스터링을 할 때 24P 마스터에서 실시간으로 525/50과 625/50의 두 편집 버전을 생성할 수 있습니다.
심포니의 실시간 비압축 성능은 Avid Nitris DNA 하드웨이를 통해 HD로 확장될 수 있습니다. Symphony Nitris 시스템은 Avid Nitris DNA 하드웨어를 사용하여 실시간의 비압축 HD와 SD 성능을 제공하는 심포니의 풀 피니싱 툴 셋을 제공합니다.

타임코드는 시, 분, 초 그리고 TV 프로덕션에서 사용되는 프레임 및 필드의 레퍼런스로서 24 시간 정확한 프레임을 제공합니다. 예를 들면,
일반적으로 그것은 비디오로 레코딩되고, 로깅과 편집을 할 때 첫 번째 레퍼런스가 생깁니다. EDL은 타임코드에서 작동합니다. 이는 25/50Hz 프레임-레이트에서는 비교적 간단하지만, 전체 프레임 주파수가 1000/1001 요소 - 29.97과 59.94Hz.에 의해 오프셋되는 30/60Hz에서 더 복잡합니다. 전체 30 또는 60Hz 레이트로 시간을 형성하기 위해서 1000마다 한 프레임이 드롭됩니다. 이 ‘드롭-프레임’은 드롭-프레임 타임코드에서 다시 설명됩니다.


HD용 오디오

아카이브와 프로덕션을 위해 현재와 미래의 표준으로 여겨지는 이러한 높은 샘플-레이트 포맷들은 현재 사용되고 있는 44.1과 48kHz의 4 배로서 거의 완벽한 오디오 레코딩을 제공합다. 하지만 24-비트 192kHz의 스테레오 파일은 48kHz의 15Mb와 대조하여 분 당 거의 60MB의 디스크를 요구합니다.

이는 전문 오디오 산업 분야에서 현재 표준 오디오 샘플 레이트로 사용되고 있습니다. 비디오 필드/프레임 레이트에서 기인한 것으로 디지털 레코딩 시스템에 대해 20kHz 오디오 응답를 제공합니다.

5.1은 전방에 3 개의 스피커(좌, 중앙, 우), 후방에 2 개의 서라운드 스피커(좌, 우), 그리고 저주파용 서브-우퍼를 갖는 멀티-채널 스피커 시스템을 말합니다. 이 구성은 극장, 홈DVD 용 디지털 재생 시스템을 위한 Dolby와 디지털 시어터 시스템(DTD)에 의해 사용됩니다.

5.1과 비슷하지만, 별도의 뒤중앙 서라운드 시그널을 추가시켜 향상된 서라운드 이펙트를 제공합니다.

5.1과 유사하지만, 앞에 있는 세 스피커가 현대식 극장의 대형 프로젝션 스크린을 커버하지 못하는 것처럼 느껴졌습니다. 그래서 여기에 2 개의 스피커(Near Left와 Near Right)를 추가하여 전방의 공간적 포지셔닝을 확보하였으며 먼거리의 패닝(Panning)을 할 때 ‘딥(dip)’현상이 나타나는 것을 방지합니다.

16 또는 24-비트가 가능한 새로운 하이 샘플 레이트 포맷으로 크게 확장된 주파수 응답을 제공하면서 현재 44.1/48kHz의 2 배입니다.

AC3는 Dolby 시스템에 의해 개발된 오디오 압축 알고리즘입니다. 이는 돌비 디지털 필름, 돌비 디지털 DVD, 돌비 E 포맷의 기초가 됩니다. 또한 Liquid Audio와 같은 제조사들이 라이센스를 얻어 인터넷에 고품질 음악을 제공하기 위해 사용되고 있습니다. 그 시스템은 우리가 잘 알아들을 수 없는 부분들을 제거함으로써 우리의 심리음향적 특성을 이용합니다.
이것은 주파수 범위에서 다양한 압축을 적용하고, 오디오를 저하시키지 않고 고급의 데이터 압축을 제공할 수 있습니다.

Audio Engineering Society(USA)

AES 31
디지털 오디오 장치 간에 오디오 파일 교환을 위해 AES에 의해 규정된 일련의 표준입니다.
AES 31 레벨 1은 생 오디오 데이터 전송을 위해 WAV 또는 방송 WAV 파일들을 사용하는 것을 말합니다. AES 31 레벨 2는 마이크로소프트의 FAT32 디스크 포맷과 호환하는 디스크 파일 시스템을 말합니다. AES 31 레벨 3는 오토메이션, 믹서 스냅샷 EQ 설정과 같은 믹싱 정보의 교환을 위해 편집물 전송에 대한 기본적인 Audio Decision List(ADL)을 의미합니다. 또한, 이것은 샘플?카운트 수를 시, 분, 초, 프레임의 보통 포맷에 추가시킨 SMPTE 타임코드의 확장형인 Timecode Character Format(TCF)을 통해, 샘플이 정확한 타임코드 스탬프를 포함합니다.
비디오와 오디오 제조업체의 통합 부족으로 AES 31는 아쉽게도 오디오 시장에서만 사용됩니다. 오디오와 비디오 두 제조사가 동시에 지원하는 OMF 파일이 전문 프로덕션 회사를 위한 선택 시스템이 되었습니다. 이 파일은 이미 오디오와 레벨 정보, 비디오 데이터와 그래픽 정보를 전달함으로써 제작 과정에서 서로 다른 많은 전문가들이 공용 포맷을 공유할 수 있게 합니다.

Audio Engineering Society/European Broadcasting Union. AES/EBU는 디지털 오디오 표준과 연관이 있습니다. 예를 들어, ANSI에 의해 승인된 AES/EBU IF 포맷의 경우, CD를 위한 44.1kHz와 전문 디지털의 오디오 채널에 주로 사용되는 48kHz의 16 및 24-비트 레졸루션 및 주파수를 사용하는 수많은 디지털 샘플링 표준들을 말합니다. VTR 88.2와 96kHz 샘플링에 대한 규정도 있습니다.

맨 처음에 나온 PC용 오디오 파일 포맷 중의 하나인 Audio Interchange File Format 시스템은 지금도 꾸준히 사용되고 있습니다. OMF 오디오는 오디오 전송을 위해 AIFC라고 하는 개정 버전을 사용합니다.
OMF 참조

방송용 WAV 파일. 이것은 WAV 오디오에 기본을 두고 방송과 프로페셔널 환경에서 더 유용하게 쓰이도록 확장되었습니다. 예를 들어, 이것은 오디오의 형태, 압축과 비압축 상태, 소유권과 데이터와 같은 원본 소스에 대한 정보를 갖는 메타데이터와 타임코드 레퍼런스를 전달할 수 있습니다. BMF는 WAV와 호환가능하며 WAV 디코더를 사용하여 읽기가 가능합니다.

오디오에 사용된 데이터나 대역량을 줄이는 기술. 대부분의 방법이 인간의 청각 시스템의 취약한 부분을 개선시키는 일종의 지각 코딩과 관련이 있습니다. 한 예로, 특정 주파수의 더 큰 시그널은 유사한 주파수의 낮은 레벨의 시그널을 차단합니다. 차단된 주파수의 데이터를 드롭하여 시그널을 압축할 수 있습니다.
MP3, 5.1, Dolby E 참조

Digital Audio Tape 시스템은 나선형 스캔 로터리 헤드를 갖는 4mm 테이프를 사용하여 16-비트 스테레오 44.1/48kHz를 레코딩하고 플레이백합니다. 이 시스템은 콤팩트 카세트와 경쟁하기 위해 본래 소비자 포맷으로 제작되었습니다. 그러나, 타임코드를 포함한 DAT가 소개되어 전문 오디오 산업에 이어 포스트 프로덕션 산업에 의해 채택되었습니다.

넌리니어 오디오와 비디오 시스템을 잘 통합시킨 Zaxcom 사의 4-트랙, 24-비트 하드 디스크 로케이션 레코딩 시스템

Dolby Digital Surround EX
돌비는 3 번째 서라운드를 채널을 추가시켜 사운드 트랙의 후방 공간 퀄리티를 향상시킵니다. 재생을 위해 6.1에서는 3 개의 전방 채널과 3 개의 후방 채널이 구성됩니다.

Dolby E
돌비 E는 표준 1.92Mb/s(48kHz x 2에서 20-비트 오디오) 데이터 레이트를 사용하여 최대 8 채널의 오디오와 메타데이터를 2채널의 비트스트림으로 인코딩합니다. 이것은 8 개의 트랙을 사용하고 하나의 AES EBU 디지털 스트림으로 인코딩할 수 있는 AC3를 기본으로 하는 방송 멀티채널 오디오 인코딩 시스템입니다. 많은 방송국들은 서로 다른 언어의 4 쌍의 스테레오 또는 풀 5.1, 스테레오 믹스의 전송을 선택합니다. 이 시스템은 또한 비디오의 프레임 에지가 정렬되어 있는 블록으로 오디오 데이터를 패키지합니다. 이로써 돌비 E 스트림이 인코딩되는 시그널을 방해하거나 영향을 주지 않고 화면과 함께 손색없이 편집될 수 있게 합니다.
압축(오디오) 참조

Dolby Matrix
돌비 매트릭스는 4:2:2 모니터링 시스템의 또 다른 이름입니다.
4:2:4와 Dolby Stereo 참조

Dolby Stereo/Pro Logic
이것은 현재 가장 유명한 아날로그 멀티-채널 포맷입니다. 이는 아날로그 시스템을 사용하여 LCRS 시그널을 Dolby Lt와 Rt(Left Total과 Right Total)로 인코딩합니다. LtRt 시그널은 일반적으로 돌비 스테레오용 35mm 프린트와 돌비 프로 로직용 VHS나 DVD에서 마무리됩니다. 이 시스템은 디지털 버전의 DTS와 Dolby E와 같은 분리형 인코딩 시스템이 아니며, 돌비 인코딩 시스템 프로세스는 사전 믹스된 음악과 같은 스테레오 자료를 통합시킬때 역으로 공간 콘텐트에 영향을 줄 수 있습니다.

다운 믹싱(Down Mixing)
서라운드 믹스를 취하고 그것을 자동으로 스테레오 믹스로 바꾸는 프로세스. 이는 시간을 절약해 주지만 대화나 모션과 같은 필름 사운드 트랙의 중요한 요소들을 확인하기 위해서는 주의 깊게 모니터할 필요가 있습니다.
메타데이타 참조

Digital Theatre System은 Dolby AC3에 견줄만한 시스템입니다. 이것은 원래 필름 사운드 딜리버리를 위해 제작되었습니다. 이 시스템은 CD ROM 방식의 오디오 플레이백 시스템을 드라이브하는 35mm 릴리스 프린트의 광학 타임코드 트랙을 사용합니다. 이는 다음과 같은 두 가지 이점을 제공합니다. : 오디오를 압축하지 않고 35mm 프린트라는 작은 공간에서 고품질의 오디오를 제공하고, 전체 프린트가 아닌 단지 CD ROM만을 변경하여 하나의 릴리스 프린트를 여러 나라에서 사용할 수 있습니다.

Extended Surround의 약자인 ES는 보다 나은 후방 포지셔닝을 위해 제 3의 서라운드(후방) 채널을 사용합니다. 이 시스템은 후방 중앙 채널을 LS와 RS 시그널로 매트릭스시켜 5.1 및 6.1과 호환이 가능합니다. 6.1 재생을 할 때, 이것은 LS와 RS에서 제거되고 중앙 서라운드를 통해 따로 플레이됩니다. 그러나 5.1에서는, LS와 RS에 남게 됩니다.

LCR은 보통 영화를 위해 스테레오 음악 트랙이 리믹스될 때 극장용 스테레오를 말하는 것입니다. 마스터 음악 트랙은 좌, 중앙, 우 시그널을 포함합니다. LCR로 스테레오 자료를 리믹싱하면 돌비 스테레오 알고리즘에 의해 처리될 때 서라운드 믹스에 발생할 수 있는 공간적 이상 현상들을 야기시키지 않고 그것이 필름과 서라운드 믹스로 쉽게 통합될 수 있습니다.

돌비 스테레오 또는 돌비 프로 로직 포맷을 위한 스피커의 구성 ? 좌, 중앙, 우, 서라운드. 사실상 이 포맷에는 2 개의 서라운드 스피커가 있습니다. 하지만, 그 둘은 같은 시그널을 갖습니다.

Multi-channel Audio Digital Interface의 약자(AES 10). 이는 56 채널의 24-비트 오디오 전송을 가능케 하는 싱글 BNC 커넥터를 사용합니다.

현재의 모든 멀티-채널 오디오 포맷을 취급하는 오디오 제작 시스템의 기능 : ST, LCRS, 5.1, 6.1, 7.1

Peak Programme Metering은 TV 방송 오디오의 마스터링을 위해 탄도 반응 특성을 사용합니다. 이 시스템은 오디오 측정에 관한 명확한 방법을 제공하여 오버로드와 스파이크 현상을 방지합니다.
VU 참조

Sony Digital Dynamic Sound. 이것은 소니가 개발한 멀티-채널 필름 인코딩 및 딜리버리 시스템입니다. 이는 35mm 프린트의 양 면의 바깥쪽 에지를 사용하여 7.1 채널 오디오 포맷을 제공합니다.

소니의 초기 CD 마스터링 시스템에서 사용된 Sony Digital Interface. SDIF 3은 24-비트, 192kHz 레코딩과 전송을 위해 DSD(Direct Stream Digital) 포맷을 사용하는 최신 버전입니다.

SDII는 오디오 편집 플랫폼을 위해 디지디자인이 개발한 오리지널 사운드 파일 포맷입니다.
이 포맷은 이후 맥-기반의 초기 넌리니어 비디오 시스템을 위해 아비드에 의해 채택되었습니다.

Sony Philips Digital Interface. 24-비트 전송이 가능한 2-채널 디지털 오디오 인터페이스입니다.

서라운드 패닝(Surround Panning)
이는 전방/후방, 좌/우 컨트롤이나 조이스틱 컨트롤러를 사용하여, 서라운드 도메인 안의 어떤 곳으로도 사운드를 위치시킬 수 있다라는 것을 의미입니다. 오토메이션의 경우, 이 기능을 사용하여 캐릭터의 온-스크린 모션이나 이펙트를 트랙할 수 있습니다.

Tascam 디지털 제품에서 사용되는 Tascam Digital InterFace. 이 포맷은 25-핀 D 타입 커넥터를 사용하여 최대 8 채널의 24-비트 디지털 오디오를 이동시킬 수 있습니다.

Volume Unit 미터링 시스템 ? 오디오 측정을 위한 표준 탄도 시스템으로서 오디오 시그널 볼륨의 전체적인 인상을 제공합니다.
PPM 참조

WAV 포맷은 윈도우 오퍼레이팅 시스템을 위해 마이크로소프트사에 의해 개발되었으며, 여러 방법으로 코딩이 가능한 오디오를 포함할 수 있습니다. WAV 파일은 어떤 종류의 코딩이 사용되었는지를 말해주는 메타데이터를 포함합니다. ? 이는 디코딩에 도움이 됩니다.
BWF 참조


수 십 년 동안 TV 산업의 많은 사람들은 전세계에서 이용할 수 있는 하나의 TV 제작 표준을 갈망해왔습니다. HD의 출현으로 이 기회가 왔지만 사실상 지금 우리는 예전보다 더 많은 TV 표준을 갖게 되었습니다. 이제 HD 표준 간, SD 표준 간, HD와 SD 표준 간의 표준변환이 어느 때보다 더 중요해졌습니다.

2:3 풀다운
이것은 동영상 필름, 24P 비디오, 초 당 60 필드 또는 프레임 재생 비율을 사용하는 TV(525/60I, 1080/60I, 720/60P)에서 초 당 24 프레임을 매핑할 때 폭넓게 사용되는 방법입니다. 2:3은 연속적인 두 개의 필름 프레임으로 매핑되는 TV의 60필드 또는 프레임의 3과 2를 의미합니다. 시퀀스는 4 개의 24fps 프레임과 60P에서 10 개의 TV 프레임 또는 60I에서 10 개의 필드를 한 다음, 매 1/6 초마다 반복합니다.
2:3 풀다운은 세 번째처럼 불규칙한 저더(Judder) 현상을 발생시키고, 2 개의 프레임/필드는 동일한 1/24 초 오리지널 타임 인터벌로 지정되어 있습니다.
2:3은 디스플레이 목적을 위해서는 유용한 것이지만 신중한 처리가 필요하며 그렇지 못한 경우에는 피해야 하는 것입니다. 예를 들어, 2:3 풀다운 자료로 시작하는 소위 525/60에서 625/50과 같은 표준 변환은 컨버젼 아웃풋에서 과도한 모션 아티팩트를 야기할 것입니다.
애니메이션 그래픽의 경우, 대부분의 60Hz 인터레이스 프레임(필드의 쌍)들이 서로 다른 두개의 24Hz 프레임에서 필드를 형성하기 때문에 레퍼런스를 위해 2:3 자료를 직접 작업하는 것은 불가능합니다. 또한, 2:3은 불필요한 자료(필드)의 반복이 있기 때문에 비효율적인 것으로 여겨지기도 합니다. 525/60I(NTSC) 용 DVD는 동영상 자료를 24fps로 저장하며, 2:3 작동으로 플레이가 실행됩니다. 게다가, 2:3 풀다운 자료가 레코딩되거나 방송될 때 모션 아티팩트가 MPEG 압축을 야기함으로써 효율성을 떨어뜨려 더 많은 데이터 대역을 요구하거나 압축 이미지의 퀄리티를 저하시키곤 합니다.
Cadence 참조

비디오에서 이는 영상의 속도를 일컫는 말입니다. 보통 케이던스는 동량의 실시간 액션을 묘사하기 위해 충당되는 각각의 연속 프레임을 사용하며 지속적이고 실시간입니다. 케이던스는 2:3 풀다운이 초 당 24 프레임의 필름 자료의 연속적인 프레임을 위해 2와 3의 60Hz TV 필드를 사용하는 것을 변경시킵니다. 지속적인 케이던스를 갖는 프로그램이란 처음부터 끝까지 2:3 풀다운을 하는 프로그램을 말합니다. 지속적인 케이던스는 이펙트가 예상 가능하여 인코딩을 더 효율적으로 할 수 있고 다른 다운스트림 프로세스에 영향을 줄 수 있기 때문에 MPEG 인코딩에서 선호되는 것입니다.
2:3 풀다운 참조

Aspect Ratio Converter. 이 장비는 일반적으로 기존 텔레비전의 4:3과 HD에서 사용되는 16:9 화면 비 사이의 이미지를 변환시킵니다. 근본적으로 이 방식은 화면의 크기 재조정과 위치 재조정(‘패닝’)과 관련이 있습니다. 많은 디스플레이를 선택할 수 있습니다. : 4:3 화면에서 16:9 이미지를, 16:9 화면에서 4:3 이미지를 볼 수 있습니다. 일부 장비들은 어느 한 상태에서 다른 상태로 부드럽게 줌할 수 있는 프리젠테이션 옵션을 제공하고 있습니다.
디스플레이 도표

4:3 디스플레이

풀 스크린 ? 왼쪽과 오른쪽 에지 손상
풀 이미지(레터박스) ? 위와 아래의 블랙 바

16:9 디스플레이

풀 스크린 ? 위와 아래의 이미지 손상
풀 이미지 ? 왼쪽과 오른쪽에 블랙 바

화면비 참조

이 용어는 HD 비디오 포맷 간의 변경을 말합니다. ? 예를 들면, 1080/50I에서 1080/60I 또는 720/60P에서 1080/50I. 또한, HD 안에서 위/아래-변환을 의미하기도 합니다. 그러나 HD와 SD 포맷 간의 이동을 의미하는 것은 아닙니다. 공간적 보간(필터링)은 라인 수와 라인 당 픽셀을 변경하고, 시간적 보간은 수직의 스캔 비율을 변경하는 것입니다. 순차 주사에서 비월 주사로 가는 것은 간단한 반면, 그 반대는 두 인터레이스(비월) 필드가 싱글 프로세싱 프레임으로 리졸브되어야 하기 때문에 더 복잡합니다.
다운-변환, 다운-레스, 업-변환, 업-레스, 표준 변환 참조

다운-변환은 다운-레스(Down-Res)를 포함하지만 프레임 레이트가 변경될 수 있다는 것을 의미하는 것은 아닙니다. 예를 들어, 1080/60I에서 625/50I로 이동하는 것이 다운-변환입니다.
크로스-변환, 다운-레스, 퍼블리싱, 표준 변환, 업-레스 참조

다운 레스(Down-Res)
비디오 이미지의 래스터 크기를 줄이는 것. 이는 보통 HD 포맷에서 SD 포맷으로 변경하는 것을 말하며 프레임 레이트에는 변화가 없습니다. 이는 공간적 보간, 색 보정(SD/HD 차이)과 관련이 있으며, SD에서 4:3 화면 비 디스플레이에 최적화하기 위해 이미지를 재프레이밍(re-framing) 시킵니다. 일반적으로 SD로 다운-변환된 HD 비디오는 원래의 SD 자료보다 뛰어난 화질을 갖는다고 알려져 있습니다.

다른 크기의 구간이나 범위에 정보를 재 배포하는 기술. 예를 들면, 화면의 크기를 변경하는 것은 공간적 보간을 요구합니다. 래스터 라인에 기존 픽셀들을 산포하면 들쭉날쭉해 보이는 래그(rag) 현상이 나타날 것입니다. 훌륭한 보간 처리란 인접한 원본 정보와 관련되어 그 위치에 따라 각 픽셀 값이 계산되는 것입니다. 이를 위한 여러 가지 수학적 방법과 필터들이 있습니다. : Bi-liner, Bi-cubic, Bi-linear summed, Bi-cubic summed. 이것들은 순서가 뒤로 갈수록 더 나은 결과를 제공하는 것으로 간주됩니다. 보간은 HD 아웃풋을 위해 상당한 프로세싱 파워를 요구하며, 실시간으로 실행될 필요가 있습니다. 이것의 실시간 예로는 Digital Video Effect(DVE)가 있습니다.
표준 변환은 보통 실시간 작동으로 이루어 집니다. 공간적 보간 외에, 서로 다른 텔레비전 표준의 프레임 레이트 간을 변경하기 위해 시간 도메인 안에서 보간을 해야 합니다.
표준 변환 참조

표준 변환(Standards Conversion)
하나의 텔레비전 표준을 다른 것으로 변환하는 과정. 이것은 라인 수, 라인당 픽셀, 초 당(공간 보간) 프레임 또는 비월/순차 시퀀스(시간 보간)의 변경과 관련이 있습니다. HD는 새로운 많은 비디오 포맷들과 업-컨버젼(Up-Res), 다운-컨버젼(Down-Res), 크로스-커버젼을 주도하면서, HD 안에서 그리고 HD와 SD 사이에서 표준 변환을 위한 수많은 순열들을 소개합니다. HD의 큰 화면은 퀄리티 유지와 실시간 작동을 위한 강력한 프로세싱을 요구합니다. Up-Res와 Down-Res는 일반적으로 픽쳐 레이트에 영향을 주지 않고 픽쳐 크기의 변경을 표현하기 위해 사용됩니다.
1080/24P에서 720/24P로의 변환처럼 필드나 프레임 레이트가 변하지 않고 그대로인 경우는 공간적 보간만 필요합니다. 720/30P에서 1080/60I와 같이 순차에서 비월로 동일한 전체프레임 레이트를 갖는 변환도 역시 간단합니다. 하지만 비월에서 순차로의 변환은- 동일한 프레임 레이트를 갖더라도 ? 한 쌍의 비월 필드 사이에서 움직임을 포착해야 하고 그것을 순차 프레임에 그대로 리졸브해야 하기 때문에 상당히 복잡합니다. 이는 기술적으로 완벽하지 못한 변환입니다.
이 기술은 프레임 레이트의 변경을 요구하는 시간 보간과 더 관련을 갖습니다. ? 예: 60I에서 50I로. 자연스러운 움직임과 선명한 화면을 유지하려면 원본과 다른 시간에 발생하는 새로운 필드의 매핑을 위해 픽쳐를 정확하게 계산해야 합니다. 최상의 결과를 위해서 모든 움직임이 정확하게 분석되어야 하며 이로써 비디오의 대상들을 원본에서 레코딩되지 않는 시간으로 정확하게 위치시킬 수 있습니다.
지난 몇 년간 변환 기술이 크게 향상되었지만 일시적 보간의 퀄리티의 변경과 복잡한 프로세스는 가능한 피해야 할 것입니다. 변환은 딜리버리가 가능한 것으로 마련되어야 하며 편집 및 포스트 프로덕션의 일부로 사용되어선 안됩니다. 장면-대-스크린 체인의 어느 한 곳에서 두 가지의 시간 보간 처리를 하는 것은 그리 바람직하지 않습니다.

작은 픽쳐 포맷을 큰 포맷으로 변경시키는 프로세스. 이것에는 SD와 HD 사이의 색 차이에 대한 일부 색 보정을 포함시켜야 합니다. 업-변환은 공간 변경 외에 프레임 레이트와 같은 시간 변경이 발생합니다. 예를 들어, 625/50에서 1080/60I로 변경하는 것이 업-변환입니다.

작은 비디오 포맷에서 큰 포맷으로 변경시키는 것. 예를 들면, 480/30I(525/60)에서 1080/30I처럼 SD에서 HD로 변경하는 것을 말합니다. 이 예에서, 480/30I가 4:3이나 16:9로 될 것이므로 화면 비의 변경을 요구할 수도 있습니다. 하지만 HD 아웃풋은 항상 16:9입니다. 업-레스는 프레임 레이트의 변경을 의미하지는 않습니다.
위 예에서는 프레임 레이트가 변경되지 않으며, 3:4 원본에서 16:9 픽쳐가 채워질 경우 기술적으로 수평과 수직으로 2.25(1080/480)까지, 또는 3(1080/360)까지 화면 크기가 늘어납니다. 게다가, 두 시스템의 RGB 스크린 발광체가 약간 차이가 있기 때문에 색 보정이 필요할 것입니다. 비디오의 결과물이 HD 라인과 픽셀을 갖더라도 HD-오리지널 표준까지는 미치지 못할 것입니다.


HD 프로덕션과 포스트 프로덕션은 여러 관련 장비들 사이에 대량의 디지털 자료들을 이동시키는 것과 관련을 갖습니다. 진정한 비디오는 다양한 속도와 서비스 품질의 선택을 제공하는 IT 산업에서 서로 간의 연결성을 제공함과 동시에 TV 산업에서 실시간 솔루션으로 개발되고 표준화가 될 수 있어야 합니다.

듀얼 링크(Dual Link)
SDI와 HD-SDI는 실시간의 비압축 SD와 HD 4:2:2 비디오를 취급할 수 있도록 제작되었습니다. 키(4:2:2:4)를 갖는 비디오 또는 키(4:4:4)를 갖는 RGB와 같은 더 많은 요구사항을 갖는 작업들도 2 개의 SDI 또는 HD-SDI를 함께 연결시켜 작업이 수행될 수 있으며, 듀얼링크로 구성될 수 있습니다.

이더넷(IEEE 802.x)은 비디오 애플리케이션에 자주 사용되는 Local Area Network 기술이 폭넓게 이용됩니다. 10GB/s 버전이 애플리케이션에 등장한 가운데, 최근에는 100Mb/s와 1GB/s 데이터 속도의 버전이 일반적으로 사용되고 있습니다. (NB: 이 비율들은 8B/10B 코딩 이후의 것들이며, 실제 와이어 전송률은 25% 더 높습니다.) 이더넷은 그 구성에 따라 실시간 비디오와 호환하는 고속 데이터 전송을 제공합니다. 무선 이더넷(IEEE 802.11) 또한 유명합니다.
이더넷은 ‘연결성이 없는 것’으로써 장치 간 데이터 전송은 할 수 있지만 각 시스템의 트래픽을 단독으로 설정하는 스위치를 사용하지 않는다면 다른 네트워크 사용자가 끼어들 때 지속적인 실시간 서비스를 보장받지 못합니다. 그것의 데이터 패킷은 연결된 모든 장치들이 주시하고 있는 목적 어드레스를 포함하고 그 어드레스가 자신을 위해 존재하는지 아닌지를 결정합니다. 전송을 하기 위해 장치가 시작 전 네트워크가 잠잠해질 때까지 기다립니다.
CSMA/CD(Carrier Sense Multiple Access Collision Detect)는 두 대의 장치가 동시에 전송을 시작하는 경우에 작동합니다. ? 이 두 대의 장치는 다시 시작하기에 앞서 랜덤하는 시간을 조용히 기다립니다.

Fibre Channel(FC)
고속의 데이터 교환과 저장 인터페이스를 위한 네트워크 표준 설정을 말합니다. 초기 파이버 채널은 전송 특성을 향상시키기 위해 사용된 8B/10B 코딩 (가용 데이터에 대해 최대 800kB/s)으로 인해 단지 1Gb/s의 전송 속도를 제공했습니다. 이후 2Gb/s(1.6Gb/s) 표준이 널리 사용되었으며 지금은 4Gb/x(3.2Gb/s) 또는 4GFC가 일반적으로 사용되고 있습니다.
8GFC와 10GFC 또한 계획 중입니다. 이 모두는 풀 듀플렉스 기능(쌍방향 동시 작동)을 제공합니다.
모든 네트워크처럼 파이버 채널은 물리적 미디어(FC-0, 구리 섬유)뿐만 아니라 프로토콜(FC-4)도 포함하는 말이며 가장 중요한 디스크 인터페이스를 포함하는 말이기도 합니다.
FC 인터페이스를 통해 많은 드라이브를 이용할 수 있습니다. 이러한 인터페이스는 디스크와 SAN, NAS와 같은 스토리지 네트워크에서 FC 작동을 할 때 없어서는 안될 중요한 것입니다.
이더넷과 같이 FC는 연결성이 없는 프로토콜로써 중재 시퀀스를 사용하여 전송 전 네트워크 액세스를 보증합니다.

IEEE 1394 참조

Gigabyte System Network(GSN)은 HD 텔레시네와 같은 애플리케이션의 요구에 대해 최대 800 Mb/s(6400 Mb/s)를 딜리버리하는 고속 시스템입니다. 이는 여러 기가비트 네트워크에서 트랙픽을 모으기 위한 기본으로 사용됩니다. 전문가용으로써 비용이 아주 많이 듭니다.

소비자를 위한 제조사들에 의해 지원되는 High Definition Multimedia Interface는 소비자의 스크린과 오디오 시스템에 비압축 디지털 오디오 및 비디오를 연결합니다. HDTV의 연결을 위한 표준으로 부상하고 있습니다. Sony, Hitachi, Tomson(RCA), Philips, Matsushita(Panasonic), Toshiba, Silicon Image가 개발하고 헐리우드 스튜디오와 케이블 및 위성 방송 관계자들이 사용하는 이것은 싱글 데이터 인터페이스에 HD 비디오와 멀티-채널 오디오를 결합시킵니다. 설치가 간단하며 풀 HD 시그널을 전달합니다.

High Definition Serial Digital Interface를 SMPTE 292M라고도 합니다. 이는 SD 비디오를 위해 개발된 HD 버전의 SDI 인터페이스입니다. 싱글 동축 케이블과 BNC 커넥터를 사용하여 방송 시설에 HD를 연결시킴으로써 수 십 년 동안 TV에서 매우 폭넓게 사용되고 있습니다. 또한 파이버 위에서 2km까지 확장이 가능합니다. 전체 데이터 레이트는 1.485Gb/s이며, 디지털 오디오와 보조 데이터뿐 아니라 8 또는 10-비트 4:2:2 콤포넌트 HD 비디오(ITU-R BT.709)를 처리합니다.

IEEE 1394 참조

IEEE 1394
FireWire와 i.Link로 알려진 IEEE 1394는 고속 시리얼 버스 디지털 연결 표준으로 63 대의 외부 장치를 연결할 수 있습니다. 시리얼이란 병행 케이블과는 달리 케이블이 아주 얇다는 것을 의미합니다. 또한 이것은 등시성(isochronous) 데이터 전송을 제공하여 그 레이트를 보장합니다. 이것은 대량 데이터가 실시간으로 전송될 필요가 있는 곳(예를 들어, 비디오카메라와 캠코더)에서 아주 유용합니다. 자체 구성이 가능한 핫-스와핑(hot-swapping) 기능이 있어 사용이 매우 쉽고 멀티미디어 애플리케이션에서 흔히 발견할 수 있습니다. ? 종종 컴퓨터에 연결하여 사용
원래의 사양은 최대 4.5m에서 100, 200, 400Mb/s의 속도를 제공하는 것이었지만 IEEE1396b의 경우 현재 최대 100m에서 800, 1600, 3200 Mb/s의 속도가 가능합니다.
IEEE 1394는 현재 최대 800 Mb/s의 속도가 가능합니다. HDV를 위해 25 Mb/s의 비교적 낮은 데이터 레이트를 쉽게 처리할 수 있으며, 더 높은 데이터 속도를 이용하여 모든 압축 HD 포맷을 실시간으로 처리할 수 있습니다.

3 장 참조

SCSI(suzzy로 발음됨)
Small Computer System Interface. 이는 고속 데이터의 레코딩과 재생이 요구되는 곳에서 일반적으로 사용되는 고성능 디스크 인터페이스입니다. 이 때문에 SCSI가 비디오 애플리케이션에 인기가 있는 것입니다. 1986년에 소개된 이후로 9 개의 버전이 탄생하였습니다. 이 모든 버전들은 몇 미터의 짧은 거리에 대해 병렬 케이블을 사용하여 8 대에서 16 대의 장치를 연결할 수 있습니다. 초기 SCSI 버스의 속도는 5MB/s였으나 이는 Ultra320 SCSI를 통해 320MB/s 속도로 향상되었습니다. 가장 최근에는 일부에서 이것을 파이버 채널을 대체하는 것으로 생각하고 있으며, 한 제품으로 고급에서 저급 시장의 모든 요구에 응할 수 있는 iSCSI(TCP/IP에 대한 SCSI)를 사용하여 시리얼 경로에서 SCSI를 채택할 수 있도록 했습니다.
파이버 채널, SAN 참조

Serial Digital Interface(SMPTE 259M). 이는 BNC 커넥터를 사용하여 실시간의 ITUR BT.601 4:2:2로 샘플링된 디지털 비디오를 싱글 75ohm 동축 케이블에 위치시킵니다. ? 케이블 종류에 따라 최대 200m까지 가능. 이는 10비트 비디오를 지원하고 270Mb/s의 데이터율을 갖습니다. 4 개의 그룹으로 이뤄진 4 채널의 AES/EBU 디지털 오디오를 비디오로 임베디드할 수 있습니다. 오늘날의 대부분의 SD 비디오 장비들은 SDI 커넥터의 사용을 지원합니다.

Serial Data Transport Interface(SMPTE 305.2M). 이는 데이터 패키지를 운반하기 위해 동일한 커넥터와 케이블을 사용하는 SDI에서 진일보한 인터페이스입니다. MPEG2, IMX, DV, HDCAM, DVCPRO HD 압축 비디오를 실시간으로 전송할 수 있습니다. (DC는 4 배 더 빠르게 전송)
SDI가 SDTI를 지원하는 만큼 그것 또한 SDI와 함께 사용될 수 있습니다. 많은 라우터들은 SDI와 SDTI의 호환을 지원합니다.
그러나, SDTI는 IT의 애플리케이션에 제한을 둡니다. SDTICP(콘텐트 패킷)는 케이블로 전송된 데이터의 포맷을 표준화시킵니다.


비트, 바이트, 스토리지
디지털 비디오와 필름은 다양한 용량의 스토리지를 요구합니다. ? DVD로 전달되는 고압축 비디오에 대해서는 기가바이트 스토리지를, 저압축 또는 비압축을 사용하는 스튜디오와 포스트 프로덕션에 대해서는 그것 보다 훨씬 더 많은 스토리지가 요구됩니다. 스토리지라고 하면 보통 ‘테라(tera)’와 같은 방대한 숫자가 사용되기도 합니다. 그렇다면 이 숫자들이 의미하는 것은 무엇이며, 미디어 스토리지와 어떤 관계가 있는지, 스토리지를 빠르고 안정적으로 정렬시키는 방법은 무엇인지에 대해 살펴볼 필요가 있습니다.

0 또는 1이 될 수 있는 디지털 정보의 상태. 보통 소문자 ‘b’로 사용됩니다. 대문자 ‘B’는 ‘byte’를 의미합니다.
Kb = kilobit / Mb = megabit / Gb = gigabit / Tb = terabit
바이트 참조

Byte(kilobyte, megabyte, gigabyte, terabyte, petabyte)
바이트는 8 개의 비트 그룹으로 보통 문자를 만들 수 있습니다. 이것의 약어는 보통 대문자 ‘B’가 사용됩니다. (소문자 ‘b’는 bit)
kilobyte kB / Megabyte MB / Gitabyte GB / Terabyte TB / Petabyte PB
킬로, 메가, 기가, 테라는 두 가지로 설명됩니다. 이진(바이너리) 방식에서는 2 10 (2를 10 번 곱하기)과 같은 배수로 표현합니다. 2 10 은 거의 1000에 가까운 1024이기 때문에 1024는 1 kilo로 언급됩니다.(바이트 또는 비트). 이것이 컴퓨터를 업데이트할 때 RAM을 측정하는 방식입니다. ? 256MB의 RAM은 256 x 2 20 즉, 256 x 1,048, 576 byte 입니다. 그러나, 디스크 드라이브에 대해 말할 때는 다른 방법이 적용됩니다. 여기 10 3 의 배수로 작업하는 십진 시스템이 있다고 가정해 봅니다. 오퍼레이팅 시스템이 2 10 을 기본으로 디스크 용량을 보고하더라도 60GB 드라이브는 60 x 1,000,000,000 바이트 용량을 갖습니다. 그것의 7%가 많은 60 x 2 30 즉, 60 x 1,073, 741, 824를 가질 수 있었다는 것을 깨닫기 전에는 그 디스크 용량에 만족할 지도 모릅니다. 별도의 언급이 없는 경우 본 책에서는 십진 방법이 사용됩니다.
단위의 접두사는 매우 큰 수를 설명할 때 쉬운 방법을 제공합니다. 기가바이트는 이미 PC에서, 테라바이트는 HD 스토리지에서, 페타바이트는 테이프 스토어에서 사용되고 있습니다.
큰(바이트) 수에 사용되는 단위 접두사와 HD 및 디지털 필름(2K) 스토리지와의 연관성
그 단위는 끝이 없습니다. 아무리 큰 수라도 다음과 같이 사용될 수 있습니다. :
Exabyte 2 60 또는 10 18
Zettabyte 2 70 또는 10 21
Yottabyte 2 80 또는 10 24

디스크 드라이브
거의 30 년 이상, 텔레비전에서는 디스크 드라이브의 사용이 지속적으로 증가했습니다. 고정식 드라이브인 하드는 그것의 용량, 속도, 안정성 면에서 가장 큰 성능을 제공합니다. 이동식 옵티컬 디스크인 CD와 DVD는 저가의 스토리지이지만 낮은 데이터율을 갖고 있으며, 교환의 매개수단이나 아카이브처럼 사용됩니다. 또한, 최근의 블루레이
디스크는 전문 비디오 성능을 실시간으로 제공하도록 제작되었습니다.
이제 하드 드라이브는 3.5인치의 디스크를 1.6인치 높이로 쌓아 올려 500 Gbyte를 제공할 수 있는 큰 용량을 가지며 놀라운 속도로 성장하고 있습니다. 그 용량은 해마다 4060% 증가합니다. 해마다 40%가 성장한다고 가정해보면 2 년마다 용량이 두 배 정도 늘어난다는 얘기입니다. HD(SD 이상)의 용량이 증가한 것은 4 년이 채 못되었습니다.
오늘날의 일반적인 고 용량 드라이브는 최대 12 스택까지 쌓아 올려 24 데이터 서피스를 제공합니다. 대체로 그것들은 스피닝 플래터(Spinning Platter) 부분과 리드/라이트 헤드가 위치한 스윙잉 암(Swinging Arm) 부분으로 이루어 집니다. 형태가 단순하기 때문에 평균 무고장시간(Mean Time Beween Failure, MTBF)이 대략 백 만 시간이 넘을 것으로 추정됩니다. 이것은 고장없이 20 년 동안 구동된다는 것을 의미하는 것은 아니지만 적어도 5 년의 사용 기간 내에 고장날 확률은 거의 없다고 봐야 합니다.
드라이브의 용량을 지금보다 더 늘리는 것은 일반 사무실에서는 상관이 없지만 비디오 및오디오의 멀티미디어를 저장하는 곳에서는 중요한 문제입니다. Seagate 사의 최근 소식에 의하면, 향후 3 년에서 5 년 내에 그 용량이 5 배 더 증가할 것이라고 합니다. 그러면 우리는 2010 년에는 3 또는 4TB 용량을 갖는 드라이브의 출시를 생각할 수 있을 것입니다.
RAID, 저장 용량 참조

Digital Signal Processing. 이는 디지털 시그널의 프로세싱 속도를 향상시킨 하드웨어에 대해 주어지는 용어입니다. 비디오와 오디오에서, DSP는 실시간으로 결과물을 제작하는 것과 단순히 소프트웨어 방식의 프로세싱을 기다리는 것 간의 차이를 만듭니다. 엑스트라 속도가 중요한 HD의 큰 픽쳐(SD 이상)를 프로세싱할 때, DSP의 주문형(Ondemand) 파워는 90100채널 믹싱을 제공합니다. 많은 사람들은 DSP가 프로페셔널 장비 사용의 경계선 역할을 한다고 인식하고 있습니다.

싱글 데이터 버스(예: SCSI 또는 파이버 채널)에 연결되어 있는 드라이브의 모음과 같은 디스크 집합체. 이것들은 대량의 디스크 스토리지 역할을 하지만 공유 기능을 가지고 있지는 않습니다.

Least Significant Bit. 이는 이진수 데이터에서 가장 낮은 자리(맨 오른쪽)의 비트를 말합니다.
예를 들면:
이진수 11111110 = 십진수 254
이진수 11111111 = 십진수 255
여기서 LSB는 단지 1의 값을 변경시켰습니다.
MSB, Truncation 참조

Most Significant Bit. 이진수 데이터에서 가장 높은 자리(맨 왼쪽)의 비트를 말합니다. 예를 들면:
이진수 11111111 = 십진수 255
이진수 01111111 = 십진수 127
여기서 MSB는 128의 값을 변경시켰습니다.
MSB는 때때로 숫자에 표시를 하기 위해 사용되기도 합니다. (예를 들어, 양수는 0, 음수는 1)
LSB 참조

Storage는 SCSI와 같이 컴퓨터 버스가 아니라 네트워크를 통해 액세스됩니다. 저가의 NAS는 유연한 네트워크 기반의 스토리지를 제공하기 위해 사용될 수 있습니다.
NAS는 여러 컴퓨터가 동시에 스토리지를 공유하여 하드 디스크를 집중 관리함으로써 오버헤드를 최소화시키고 종종 RAID와 같이 구성되기도 합니다. NAS 장치는 LAN을 위한 로지컬 파일 시스템 스토리지가 될 수 있기 때문에, 그것의 성능과 데이터에 대한 액세스 속도는 LAN의 캐시 메모리와 네트워크 인터페이스 오버헤드(네트워크 라우터 속도와 네트워크카드)에 따라 달라질 수 있습니다. 여러 개의 NAS 장치를 LAN 어느 곳에서나 사용할 수 있습니다.

바이트의 절반 크기, 니블은 사용이 드문 4비트 워드에 대한 용어입니다.

Redundant Array of Independent(또는 inexpensive) Disk. 적절한 RAID 콘트롤러를 사용하여 디스크 드라이브를 함께 그룹화시킴으로써 빠른 데이터 레이트, 더 많은 스토리지 용량을 제공할 수 있으며, 데이터 손실로 인한 드라이브의 고장을 방지할 수 있습니다. HD에서, 그룹화된 디스크는 데이터 액세스의 향상을 가져올 수 있으며 비압축 비디오에 대해서도 실시간 액세스를 제공할 수 있습니다.
대부분의 RAID는 IT 기반의 애플리케이션을 위해 개발되었습니다. 디스크가 고장난 상황에도 지속적인 성능을 요구하는 온라인 비디오 오퍼레이션을 위해 제작되었습니다. RAID는 디지털 비디오와 오디오의 기본적인 정보뿐 아니라 추가 정보를 레코딩함으로써 데이터를 보호합니다. 이는 데이터를 두 번 저장하거나 여러 디스크에 저장된 데이터의 검사합을 생성?저장하는 데이터 미러와 같은 완벽한 형태를 취할 수 있습니다. 어느 한 드라이브가 중도에 고장나게 되면 남아있는 정상 드라이브가 그 손실 데이터를 계산합니다. 유사한 방법으로, 드라이브 시설을 교체한 후에도 데이터 손실이 제한되며 새로운 드라이브에 그것이 레코딩됩니다.
개별적인 데이터 스토리지의 요구에 대응하기 위해 다음과 같은 레벨로 분류되는 여러 종류의 보호/구성에 관한 것이 개발되었습니다.

Level 0 Striping
이는 같은 용량의 많은 드라이브들 간의 데이터를 분산시키거나 묶는 것과 관련이 있으며 보통 호스트 컴퓨터의 소프트웨어에 의해 콘트롤됩니다. 이는 용량과 데이터 레이트의 증가를 제공하지만 어느 한 드라이브가 고장이 날 경우 데이터 복구가 불가능하여 안정성이 크게 저하됩니다. 모든 드라이브가 데이터를 성공적으로 읽는 것이 필요합니다.

Level 2 Mirroring
위에서 언급한 것과 같이, 이는 두 개의 드라이브 또는 드라이브 세트에서 동일한 데이터를 레코딩함으로써 데이터 보호를 강화합니다. 레벨 1은 개별 드라이브(또는 드라이브 세트)의 용량이 증가하지는 않으며 모든 데이터를 두 번 읽어야 하기 때문에 느려지게 될 것입니다.

Level 0+1
이는 RAID level 0과 RAID level 1을 결합시킨 것으로써 스트라이핑(Striping)과 미러링 보호에 대한 대부분의 성능을 제공합니다.

Level 2 Parity Recoding
레벨 2가 진행되면서 모든 RAID는 패리티 체크를 합니다. 레벨 2에서, 각 바이트의 8 비트를 8 개의 드라이브로, 패리티 비트를 9 번째의 패리티 드라이브로 전송합니다. 따라서 어느 한 드라이브가 고장이 날 경우 그 데이터를 배제시킬 수 있습니다. 그 데이터를 제한하여 새로운 드라이브를 설치할 수 있습니다. 이 구성은 거의 사용되지 않습니다.

Level 3, 4, 5 Variations on Parity Recording
레벨 3은 특정 수의 드라이브를 요구하지 않는다는 점에서 레벨 2와 다르며, 데이터는 512비트 덩어리로 기록됩니다. 일반적으로 빠르지만 드라이브 고장으로 인해 데이터를 복구하는데 상당한 시간이 걸립니다. 레벨 4는 블록 데이터를 전송하고 많은 디스크 오버헤드를 일으켜 레벨 3보다 더 느리게 데이터를 기록합니다. 레벨 5는 레벨 4와 유사하지만 효율과 속도 면에서 더 우수합니다.
RAID의 최우선 목적은 실시간의 비디오를 레코딩하고 재생하는 것입니다. ? 비압축 HD의 경우, 4:2:2 샘플링에서 156MB/s 또는 4:4:4 샘플링에서 243MB/s의 지속적인 데이터 전송. 종종 편집 시스템은 오퍼레이션 속도를 향상시키기 위해 대역폭과 같이 두 가지 이상을 목표로 합니다. (즉, 라이브 플레이, 프로세싱, 레코딩) RAID Level 3과 Level 5를 공통으로 선택하여 실시간 비디오 애플리케이션에 대해 매우 높은 데이터 속도와 용량을 제공받을 수 있습니다. 낮은 데이터 레이트에서 작업하는 것은 분명 훨씬 쉬운 일입니다. : HDV는 단지 25Mb/s

Storage Area Network는 공유 작업에 있어 대량의 스토리지를 제공하기 위해 널리 사용되는 방법입니다. 이 방법은 일반적으로 파이버 채널 인프라를 통해 연결되어 있는 디스크 드라이브나 RAID의 집합을 이용합니다. SAN은 수많은 서로 다른 방식으로 사용될 수 있습니다.
첫 번째는 각 클라이언트가 스토리지의 특정 할당에 액세스하도록 스토리지를 분할합니다.
두 번째는 클라이언트들이 읽기 전용 파일을 공유하는 장소에 ‘볼륨 레벨 잠금(Volume Level Locking)’을 할 수 있습니다. 하지만, 여기서는 단 한 명만이 한 번만 시스템에 기록할 수 있습니다. 세 번째는 여러 명의 리더와 라이터들이 SAN에 접근할 수 있는 ‘커스톰 파일’ 시스템이 사용됩니다.
파일 공유에 있어 모든 클라이언트들이 자료에 액세스할 수 있으며, 프로젝트를 완성하기 위해 여러 작업 그룹들이 함께 작업할 수 있습니다. 이는 워크플로우에서 큰 영향력을 가지며 포스트 프로덕션과 같은 곳에서 그것이 쉽게 증명됩니다. 비슷한 방식으로 프로덕션과 전송과 같은 분야의 오퍼레이션에도 적용이 가능합니다.
전체 SAN에 대해 싱글 백업 오퍼레이션을 사용하여 백업을 단순화시킬 수 있습니다. 모든 SAN이 동일한 것은 아닙니다. 오퍼레이션의 효율성은 SAN 구성과 소프트웨어의 적합성과 밀접한 관련이 있습니다.
A SAN sharing storage between workstations

스토리지 용량(Storage Capacity)
고정식 드라이브 용량은 메가바이트와 기가바이트로 측정되지만 편집자는 비디오의 길이에 대한 저장 크기를 알 필요가 있습니다. 어떤 스토어의 경우, 그 저장 시간이 사용되는 비디오 포맷에 따라 결정됩니다. 여기서는 사용된 포맷을 바탕으로 계산이 이루어집니다. : 10 비트에서 4:2:2를 사용하는 1080/30(1080 라인, 초 당 30 프레임의 1920 픽셀/라인) ? 비압축
라인 당 루미넌스 샘플(Y) = 1920
라인 당 크로미넌스 샘플(Cr + Cb) = 1920
전체 샘플/라인 = 3840
샘플/픽쳐 3480 x 1080 = 4,147,200(4.15 M샘플)
10비트 샘플링/픽쳐 4.1472 x 1080 = 5.184 M (8비트) 바이트
데이터/초 @ 30fps 5.184 x 30 = 155.52 Mbytes/s
데이터/시 0.15552 x 3600 = 560 Gbytes/h
유사한 방식으로 일부 다른 포맷들의 스토리지가 다음과 같이 제공됩니다. :
4:2:2로 샘플링된 1080/24 448GB/h
4:2:2로 샘플링된 720/60 498GB/h
4:4:4 샘플링을 갖는 1080/30 840GB/h
2K 필름(1536 x 2048, 24 frames/s, 4:4:4 샘플링) 1.02TB/h
일반적으로 대량 디스크 용량이 요구되면서 2 시간에서 4시간 사이의 스토리지면 편집을 위해 충분한 것으로 생각됩니다. 이는 에러 상황에서 데이터의 복구뿐 아니라 실시간 작업에 대해 용량과 데이터 속도를 동시에 제공하기 위해 RAID로 드라이브를 그룹화시킴으로써 지원이 가능합니다. 많은 경우에, 스토리지와 네트워크의 요구를 줄이기 위해 약간의 압축을 이용하기도 합니다.


표준과 산업 단체
관련 제품들의 상호 연결 가능성과 비디오, 오디오, 타임코드 및 에디트 디시젼의 데이터와 같은 아이템들을 포함하여 또 다른 곳에서 전송된 정보들을 이해하는 것은 매우 중요한 일입니다. 우리가 기대했던 품질을 얻으려면 제품의 성능 레벨이 보장되어야 합니다. 산업 표준 단체가 바로 이런 일을 도와줍니다.

American National Standards Institute

Advanced Television Systems Committee. 미국에 소재한 이 단체는 디지털 텔레비전 표준을 책임지고 있습니다. 이 위원회의 탄생은 산업의 노력을 결집하는 것이었으며, 디지털 텔레비전을 위한 HD 표준뿐 아니라 SD까지 포함시켰습니다. 그것의 Table 3에서 18 개의 비디오 포맷을 소개하고 있습니다. 이 위원회가 산업에 등장했을 때만 해도 국가마다 단지 하나의 포맷을 사용하고 있었기 때문에 처음 평판은 그리 좋지 않았습니다. ATSC는 또한 MPEG2비디오 압축과 오디오를 위한 AC3의 사용에 대해 규정하고 있습니다. 지상과 케이블 방송을 위한 전송 시스템은 VSB(Vestigial SideBand, 잔류측파대역변조) 기술을 기본으로 합니다. 지상 시스템은 8VSB를, 케이블 시스템은 16VSB를 사용합니다. 현재 북 아메리카에서 ATSC의 방송 유저들이 활동하고 있습니다.
Table 3 참조

Common Image Format(CIF, 공통 화상 규격)
이는 ITU가 프로그램 제작과 국제 교환을 위해 권장하는 이미지 포맷입니다. 이는 전세계의 프로그램과 자료 교환을 더욱 쉽게 만듭니다. HD(HDCIF)는 2000년 5월에 승인된 ITUR BT. 7094로 출발했습니다. 선호되는 포맷은 순차주사 되고 순차 세그먼트 프레임(PsF)를 갖는 초당 24, 25, 30 프레임과 50, 60 인터레이스 필드, 프로그레시브 초 당 프레임에서 1080 라인, 16:9 화면 비를 사용하는 라인 당 1920 픽셀입니다.
ITUR BT.709 참조

Digital Broadcast Experts Group은 1997년 디지털 TV에 대한 기술적 정보를 교환하기 위해 설립되었습니다. 도쿄를 근거지로 많은 회원들이 일본 제조사들로 구성되어 있습니다. 이 그룹의 포스트와 통신 부서는 현재 일본이 채택하고 있는 디지털 TV 방송의 표준인 ISDB를 제작했습니다.

Digital Video Broadcasting. DVB는 제네바를 근거지로 디지털 텔레비전을 위한 국제 공통 표준을 만드는 컨소시엄입니다. 이는 방송 및 관련 분야에 종사하는 전세계 30 개국의 300 개의 회사들로 구성됩니다. DVB 표준은 오픈되어 있으며 ETSI를 통해 발표됩니다. (아래 참조)
DVB는 전송 시스템뿐 아니라 SD 및 HD 디지털 비디오 포맷에 대한 표준을 갖고 있습니다.
이는 MPEG2 비디오 압축과 MPEG Layer II 오디오 압축을 사용합니다. 위성을 위한 전송 코딩 시스템인 DVBS2는 오리지널 DVBS에 비해 30% 이상의 높은 효율성을 제공하고, DVBC에서는 케이블이 지원됩니다. 가장 최근의 것은 소형 장치로 작동하도록 디자인된 DVB-H입니다.
지상 DVB-T는 COFDM(Coded Orthogonal Frequency Divisional Multiplexing)을 기본으로 합니다. 이것은 아날로그 적용범위와 일치하고 그것을 향상시키는 견고한 서비스를 제공합니다. 특정 요구사항에 대한 전송을 하고 전세계에서 사용되는 6,7,8MHz TV 채널에 맞도록 하기 위해 코딩과 모듈레이션 파라미터들이 선택될 수 있습니다. 일반적으로 약 24Mb/s의 가용 데이터가 8MHz 지상파 고정 채널에서 전송되고, 이동하는 상황에서 작동하도록 구성될 때는 그 절반의 데이터가 전송됩니다.

ETSI(유럽 전기 통신 표준 협회)
European Telecommunications Standards Institute. 프랑스 남부에 본부를 두고 유럽 안팎의 52 개국에서 890 개의 회원들로 구성되며 국제 표준화를 증진시킵니다. 이 협회는 국제 표준 단체, 주로 ITU-T와 ITU-R와 관련된 일을 합니다.

이것은 다른 애플리케이션의 데이터를 교환하고 사용하는 어느 한 애플리케이션 또는 시스템의 능력을 말합니다. SMPTE와 ITU와 같은 조직을 통해 텔레비전 산업에 의해 개발된 이 표준은 비디오와 오디오, 그리고 타임코드와 같은 메타데이터의 시스템 간 상호 교환을 보장해 줍니다. 예를 들어, 대부분의 HD 제품들은 HD-SDI 인풋과 아웃풋을 갖습니다.
텔레비전 프로덕션에 IT 기반의 제품들이 유입되면서 사실상의 표준으로 자리잡았으며 종종 특정 애플리케이션의 요구에 맞도록 변경되기도 합니다. HD-SDI 경우처럼 플러그-앤-플레이의 간편성과 효율성은 IT 기반의 제품에서 넓게 사용되지 못하곤 했습니다. 최근에 이 두 산업의 노력의 결과로 엄청난 향상을 가져왔습니다. ? 예를 들면, MXF 파일을 사용하는 Pro-MPEG이라든지 AAF 파일 포맷을 사용하는 AAF 연합 등.

Integrated Services Digital Broadcasting은 일본에서 사용되는 디지털 방송 시스템으로 위성(ISDB-S), 케이블(ISDB-C), 지상파(ISDB-T) 방송을 위해 멀티미디어 서비스를 지원할 뿐만 아니라 SD 및 HD 텔레비전을 제공합니다. 위성 HDTV 서비스 방송은 2000년에, 지상파 방송은 2003년 말에 시작되었습니다.
ISDB-T는 고정 및 이동 서비스를 함께 제공할 수 있습니다. 이것은 싱글 주파수 네트워크(SFN) 운영뿐 아니라 멀티패스 및 전파 패이드 현상에 대한 견고성을 포함해 DVB-T와 많은 점이 비슷합니다. MPEG-2로 압축되고 SD와 HD 둘 다 취급할 수 있습니다. 채널에서 최대 3 개의 레이어가 이동식 SD와 고정식 HD 애플리케이션에 활용될 수 있는 계층 전송이 가능합니다. 게다가, 하나의 세그먼트가 오디오와 데이터 서비스처럼 단독으로 전송될 수 있습니다.

International Standards Organization은 미국 단체로서 1951 년 이래 10,000여 가지 이상의 국제 표준을 발행했습니다. 그 회원은 주로 ANSI(미국), BSI(영국), DIN(독일)과 같은 국제 표준 단체들로 구성됩니다. ISO 표준은 이동식 디스크, 네트워크, 압축 시스템 등의 상호운용성을 보장해 줍니다. 공통 관심사에 대해서는 ITU와 긴밀한 관계를 유지합니다.

ITU(국제 전기통신 연합)
International Telecommunications Union. 상호운용성에 대한 표준, 스펙트럼의 효율적 사용, 후진국의 전기 통신의 성장을 독려하는 미국의 특별 기구입니다. ITU-R은 무선 통신과 관련이 있으며 이전에는 CCIR이라고 불렸습니다. 이것은 방송 텔레비전(BT) 분야에서도 분명한 관심을 보입니다. ITU-T(CCITT)는 전기통신 표준과 관련이 있습니다.

ITU-R BT. 601
이것은 525/60I와 625/50I SD 콤포넌트 텔레비전 시그널(486과 576 실행 라인)의 디지털 인코딩을 위한 표준입니다. 이는 라인 당 720 픽셀을 만들면서 RGB의 4:4:4 샘플링, Y, RY, B-Y의 4:2:2 샘플링(13.5, 6.75, 6.75MHz)을 제공합니다. 샘플 당 8 또는 10-비트가 될 수 있습니다. 또한, 16:9와 4 x 3의 화면 비도 가능합니다.
화면에 샘플링 포인트를 항상 고정 패턴으로 유지하기 위해, 샘플링 주파수가 525와 625라인의 다중 주파수로 선택됩니다. 가장 낮은 공용 주파수는 2.25MHz입니다. 이러한 다중주파수는 루미넌스(13.5MHz)와 색 차이(6.75MHz)에 대해 충분한 대역을 제공하기 위해 사용됩니다. HD 디지털 샘플링에도 동일한 2.25MHz 주파수가 기본적으로 사용됩니다.
샘플링 레벨은 디지털 시그널의 헤드룸을 허용하면서 8-비트 코딩에 대해 블랙은 레벨 16(0이 아님), 화이트는 235(255가 아님)로 지정되며, 색 차이가 0이 되는 곳은 레벨 128로 16에서 240 범위에 있습니다.
4:2:2 참조

ITU-R BT. 709
ITU-R BT. 709는 고화질 TV 비디오 표준 포맷입니다. 초 당 24, 25, 30 프레임에서 1080 x 1920 순차 주사, 순차 세그먼트 프레임(PsF), 초 당 50과 60의 인터레이스 필드를 포함합니다. 또한, 초 당 50과 60 프레임에서 720 x 1280 프로그레시브에 대한 표준도 있습니다. Y, Cr, Cb 샘플링은 74.25, 37.125, 37.125MHz에서, RGB는 74.25, 74.25, 74.25MHz에서 이루어 집니다. 이는 새 제품들과 국제적 교환을 위해 선호되는 비디오 포맷으로 고안되었습니다. 샘플링은 8 또는 10비트가 될 수 있습니다. 위의 601과 같이 공용 샘플링 주파수는 2.25MHz입니다.
공통 이미지 포맷 참조

Society of Motion Picture와 Televison Engineer의 약자로 미국에 소재해 있으며 세계 도처에 많은 국가에 그 지사와 회원들을 두고 있습니다. SMPTE의 회원들과 위원회는 많은 산업 표준의 설정과 실행을 권고하고 있습니다. 필름과 텔레비전에 관련하여 이것은 미디어의 결집력을 높이고 있습니다. DC 28은 D-시네마의 표준을 만드는 일을 도와줍니다.

SMPTE 274M은 여러 픽쳐 레이트를 위한 1080-라인 HD TV 주사 방식을 규정합니다. 이 모두는 1920 x 1080 픽셀이며, 60, 59.94, 50, 30, 29.97, 25, 24, 23.98의 프로그레시브 프레임 레이트와 60, 59.94, 50Hz의 인터레이스 레이트를 제공합니다. 30Hz 이상의 프로그레시브 레이트는 방대한 데이터 레이트 요구 때문에 TV에서는 사용되지 않습니다.
1000/1001 오프셋 주파수는(59.94, 29.97, 23.98) 전송된 시그널 안에서 주파수가 간섭하는 것을 막기 위해 59.94를 사용하는 NTSC에서 나온 것입니다. 그러므로, NTSC/HD는 싱크가 맞춰진 상태에서 동시 방송이 가능하며 SD와 HD 간의 변환이 쉽습니다. NTSC를 사용하지 않을 때는 아주 적은 주파수가 사용되어야 합니다.
274M은 또한 1125-라인 시스템에서 1080-라인 픽쳐의 매핑을 규정합니다.
ITU-R BT. 709, Table 3 참조

HD-SDI(연결성) 참조

SMPTE 296M은 60, 59.94Hz의 프로그레시브 픽쳐 레이트에 대한 720라인 x 1280 픽셀
HD TV 주사방식을 규정합니다.

'Design' 카테고리의 다른 글

꽃무늬 주방가전, 1970년대  (0) 2014.02.27
사진 촬영 기법  (0) 2008.03.19
HD의 이해  (0) 2008.03.18
플래시 속에 감춰진 수학, CurveTo의 비밀  (0) 2008.03.13
MLayout 2 리뷰 - M! S와 무슨 관계지?  (0) 2007.01.01

디지털 HD 비디오 캠코더 HVR-A1N

초소형 초경량의 설계로 기동성을 부여한 HVR-A1N HDV 1080i 캠코더

- 새로운 HD 촬영의 폭을 넓힙니다.

소니에서는 HD 영상물에 대한 수요가 급증함에 따라 2004년 HDV 포맷의 HDV 1080i 규격을 채택한 새로운 HD 방식의 캠코더 HVR-Z1N과 레코더 HVR-M10N을 출시했습니다. 이 제품은 가격대비 뛰어난 화질과 탁월한 성능으로 인해 출시와 동시에 여러 고객들로부터 엄청난 호평을 받았습니다. 소니는 이러한 평가를 바탕으로 캠코더 사용자들의 HD 제작에 대한 다양한 요구를 더욱 만족시키고자 또 하나의 새로운 HDV 캠코더 HVR-A1N을 출시하였습니다.

HVR-A1N은 업무용 캠코더 중 세계 최소형, 초경량의 휴대형 캠코더로써 협소한 공간이나 기동성이 요구되는 환경에서 사용하기에 가장 이상적인 제품입니다. 이 캠코더는 새롭게 개발된 1/3 인치 타입의 297만 화소 CMOS 센서와 이 CMOS 센서의 기능을 극대화하기 위해 소니에서 자체 개발한‘향상된 이미지 프로세서(Enhanced Imaging Processor)’를 탑재하여 탁월한 HD 화질을 구현했습니다.

HVR-A1N은 HDV 1080i 녹화와 재생뿐 아니라, 현재 소니 DVCAM 캠코더에서 사용되는 DVCAM 및 DV 녹화까지 가능합니다. 또한 다양한 다운 컨버젼 기능이 내장되어 있어 사용자가 필요에 맞게 HDV, DVCAM, DV 포맷을 선택할 수 있으므로 SD 제작환경 뿐 아니라 HD 제작환경에서도 충분히 사용할 수 있습니다. 그리고 2채널 XLR 오디오 입력, 타임코드 기능, 다양한 자동 촬영 모드, 정지영상 녹화 등, 여러가지 편리하고 전문적인 기능이 통합되어 있습니다.

HD 제작을 위한 또 하나의 강력한 옵션, HVR-A1N.
이제 영상 전문가들은 초소형의 비용 효율적인 HDV 캠코더 HVR-A1N을 통해 보다 쉽게 HD 촬영 기회를 가질 수 있을 것입니다.

HDV 포맷

HDV 1080i 규격

HDV 포맷의 HDV 1080i 규격은 1080 유효 스캔 라인(인터레이스 스캐닝 시스템)과 1,440 수평 픽셀을 갖습니다. HDV 1080i는 샘플링 비율 4: 2:0인 8비트 디지털 컴포넌트 레코딩 방식을 사용하는 MPEG-2 압축 포맷(비디오의 경우 MP@H-14)을 채택하였습니다. 오디오 압축 포맷으로는 MPEG-1 Audio Layer II를 사용하는데 48kHz/16비트의 샘플링 주파수를 갖는 2채널 레코딩이 가능합니다. HDV 1080i 규격은 HDTV 프로그램 제작에 사용할 수 있는 높은 영상 품질을 제공합니다.

1) HDV 포맷은 HDV 720p 규격도 정의합니다. 이 규격은 720 유효 스캔라인(프로그레시브 스캐닝 시스템)과 1,280 수평 픽셀을 갖습니다.

기존 및 신형 DV 비디오 카세트 테이프와의 호환성

이미 널리 인정 받은 DV 포맷군에 속하는 HDV 포맷은 처음부터 DV 비디오카세트 테이프 전체 등급과 호환되도록 개발되었습니다. 따라서 사용자는 뛰어난 견고성을 요하는 응용 부문의 경우 고급 DV 비디오 카세트 테이프를 사용하거나 보다 경제적인 일반 소비자용 비디오 카세트 테이프를 사용할 수 있습니다.

강력한 내구성을 요하는 부문을 위해 HDV, DVCAM, DV 포맷과 호환되는 고급 PHDVM-63DM 소형 카세트 테이프 DigitalMasterTM가 새롭게 개발되었습니다.

장시간 레코딩

HDV 포맷은 DV 포맷과 동일한 트랙 피치와 테이프 속도를 채택하여 동일한 레코딩 시간을 제공합니다 (DigitalMaster 테이프와 같은 소형 비디오 카세트에서 최대 63분).

■HDV 1080i 규격의 트랙 패턴


카메라 특징

Super SteadyShotTM 시스템
HVR-A1N에 사용된 Super SteadyShot 시스템은 수평 및 수직 이동을 감지해서 카메라가 불안정하게 흔들리는 것을 전기적으로 보정합니다. 즉, CMOS 센서의 활성 영상 영역(사용된 픽셀 수)을 Super SteadyShot 시스템을 통해 자동으로 조정하므로써 각 줌 위치에서 최상의 성능을 구현합니다.

풀 스캔 모드
HVR-A1N 캠코더는 풀 스캔 모드를 지원합니다. Super SteadyShot 시스템을 끈 경우 각 줌 위치에서 약 2백만 화소 해상도의 영상을 캡처할 수 있습니다.
이 모드를 사용할 경우 더욱 우수한 화질을 구현할 수 있습니다.

1/3인치형 297만 화소 CMOS 센서
Array(CMOS 센서)
HVR-A1N은 다년간 소니에서 축적한 영상 장치 개발 노하우를 바탕으로 개발한 297만 화소 1/3인치 원색 CMOS(상보성 금속 산화막 반도체) 센서를 탑재하고 있습니다.
이 CMOS 센서는 각 픽셀에서 이미지 센서를 최적화하는 독자적 픽셀 설계, 첨단 노이즈 감소 기술과 같은 특징으로 기존의 다른 CMOS 센서에 비해 우수한 감도와 적은 노이즈로 고화질 영상을 재현합니다. 이 CMOS 센서의 또 다른 특징은 고속 처리 기능입니다. HD 포맷 녹화를 위해 단일 CMOS 센서를 사용하였으므로 캡쳐 데이터는 용량이 매우 크고 처리 시간 또한 상당히 깁니다. 하지만, 유연한 멀티채널 판독 구조를 사용하는 소니 CMOS 센서는 큰 용량의 데이터를 놀라울 정도의 빠른 속도로 처리합니다. 또한 CMOS 센서를 사용하여 대용량의 HD 해상도 데이터 처리에 요구되는 소비 전력을 대폭 줄임으로써 캠코더의 전체 크기를 소형화 할 수 있었습니다. 그 밖에도, CMOS 센서는 기본적으로 스미어 발생을 방지해 주는 장점이 있습니다.

향상된 이미지 프로세서
Array(향상된 이미지 프로세서)
EIP는 CMOS 센서가 캡처한 대용량 데이터를 고속 처리하기 위해 소니에서 새롭게 개발한 영상 처리 IC입니다. EIP는 먼저 영상 데이터를 형태 요소와 밝기 요소로 분리한 후 이 두 요소를 독립적으로 처리하는 독자적 알고리즘을 사용합니다. 따라서 밝은 부분의 밝기는 그대로 유지하면서 어두운 부분의 밝기를 증가시킬 수 있으므로 백라이트를 사용한(Backlight condition) 조건에서도 넓은 다이나믹 레인지와 선명한 영상을 재현합니다.
EIP와 CMOS 센서를 함께 사용하면, 높은 수준의 계조와 세밀한 영상 재현으로 매우 뛰어난 화질을 제공합니다.
(새로운 백라이트 보정(Backlight Compensation) 기능을 활성화한 경우에만 가능)

10x Carl Zeiss Vario-Sonnar T* 광학 줌 렌즈
HVR-A1N은 10배율 줌 기능을 지원하는 새로운 Carl Zeiss Vario-Sonnar T* 고선명 렌즈를 탑재하고 있습니다. Carl Zeiss 최고급 렌즈와 마찬가지로 전체적으로 코팅 처리된 렌즈 유리는 실질적으로 색 수차가 전혀 없는 선명하고 높은 콘트라스트 영상을 생성합니다.


레코더 기능

DVCAM 및 DV 형식으로 16:9 와이드스크린 촬영
HVR-A1N은 720x480 픽셀의 고해상도 DVCAM 및 DV 형식으로 네이티브 16:9 와이드스크린 영상을 촬영할 수 있으며, 진정한 SD 형식의 16:9 영상도 제공합니다.

HD Codec EngineTM
Array(HD Codec Engine)
HVR-A1N은 최적의 HD 화질을 유지하면서 MPEG-2 압축 방식을 사용하여 초당 약 25Mb/s 기저 대역 HD 신호 데이터를 효율적으로 압축하는 고급 HD Codec Engine을 탑재하고 있습니다. 전력 소비 감소를 위해 설계된 강력한 이 디지털 신호처리 장치는 HVR-A1N의 작고 얇은 몸체에 완벽하게 장착됩니다.

i.LINK 인터페이스
HVR-A1N에는 4핀 i.LINK 인터페이스가 장착되어 있습니다. 따라서 케이블을 통해 디지털 방식으로 오디오, 비디오 및 컨트롤 신호를 HDV, DVCAM 및 DV 형식의 VTR 또는 비선형 편집 시스템에 전송5)할 수 있습니다.
i.LINK는 Sony의 상표이며 제품에 IEEE 1394 커넥터가 포함되어 있음을 나타내기 위해서만 사용됩니다. i.LINK 커넥터가 있는 제품들이 서로 통신할 수 없는 경우도 있습니다. 호환성, 작동 조건 및 적절한 연결에 대한 자세한 내용은 i.LINK 커넥터가 있는 장치와 함께 제공된 설명서를 참조하십시오.
HDV 자료를 사용하여 삽입 및 조립 편집을 하는 것은 HVR-A1U에서는 권장되지 않습니다.

2채널 XLR 오디오 입력
HVR-A1N 은 전문가용 마이크를 연결하거나 외부 라인의 음원에 연결할 수 있는 2개의 XLR 오디오 입력 커넥터를 제공합니다. 외부 콘덴서 마이크에 약 48V의 팬텀 전원을 공급할 수 있습니다. 간단한 스위치 선택으로 INPUT 1 오디오를 CH1에만 녹음하거나 CH1 및 CH2 오디오 트랙에 모두 녹음할 수 있습니다. 또한 HVR-A1N 은 두 종류의 마이크 (외부 지향성 마이크 및 내장형 스테레오 마이크)를 기본으로 장착하고 있습니다.

오디오 레벨 미터를 이용한 2채널 독립형 오디오 녹화 레벨 제어
Array(오디오 레벨 조정)
오디오 레벨 미터를 사용하여 LCD 모니터에서 개별적으로 CH1 및 CH2의 입력 레벨 을 조정 및 확인할 수 있습니다.

녹화 및 재생 형식 전환 - HDV 1080i/DVCAM/DV3)
HVR-A1N는 HDV 1080i, DVCAM 및 DV 녹화를 전환할 수 있어 제작 요건에 따라 SD 또는 HD 녹화가 가능한 완벽한 유연성을 제공합니다.
HVR-A1N은 DV SP 모드만 지원하며, DV LP 모드는 지원하지 않습니다.

다운 컨버전 재생 기능
HVR-A1N은 1080i 자료를 480i로 다운 컨버전한 다음 이 비디오 신호를 i.LINK 인터페이스를 통해 출력할 수 있습니다. 이 신호는 아날로그 컴포넌트, 컴포지트 또는 S-Video 커넥터를 통해 출력할 수 있습니다. 따라서 기존의 DV 편집 소프트웨어를 사용하여 비선형 편집 시스템으로 녹화된 자료를 편집하고 SD 신호를 외부 VTR에 녹화할 수 있으며, 동시에 HVR-A1N 으로 HDV 신호를 녹화할 수 있습니다. 또한 HVR -A10N 은 신호를 480p로 다운 컨버전한 다음 아날로그 컴포넌트 비디오 커넥터를 통해 출력할 수 있습니다.
이 신호를 다운 컨버전 할 경우, 표시되는 화면비를 16:9에서 4:3으로 변환할 수 있습니다. 표시 모드는 SQUEEZE, LETTERBOX 또는 EDGE CROP 중에서 선택할 수 있습니다.

Memory Stick DuoTM 미디어에 정지 영상 저장
HVR-A1N은 고해상도 디지털 카메라 기능을 갖추고 있습니다. 297만 화소 CMOS 센서를 탑재하고 있어 1,920 x 1,440 픽셀의 정지 영상을 Memory Stick Duo 미디어에 저장할 수 있습니다. 정지 영상은 전용‘Photo’버튼을 눌러서 촬영할 수 있으며, 비디오를 테이프에 녹화하는 동안에도 중단 없이 사진 촬영을 할 수 있습니다. 또한 비디오 촬영 후 테이프에 녹화된 비디오 중 원하는 프레임을 1,440 x 810 픽셀4)의 정지 영상으로 캡처해서 Memory Stick Duo 미디어에 저장할 수 있습니다.

정지 영상의 해상도

Resolution of Still Pictures

Still Picture Mode

Video Recording Mode

Video Playback Mode

1920 x 1440 (4:3)




1440 x 1080 (4:3)




1080 x 810 (4:3)




640 x 480 (4:3)




1920 x 1080 (16:9)




1440 x 810 (16:9)




640 x 360 (16:9)





녹화, 재생 및 다운 컨버전 형식 (형식 변환표)

Recording Format

Playback/Down Conversion Format


Analog Component

Analog Composite









480/60i (16:9/4:3)






480/60i (16:9/4:3)





480/60i (16:9)

480/60i (16:9/4:3)





480/60i (4:3)

480/60i (4:3)





O : 사용가능
@ : @1 또는 @2 연결 가능. 둘 다 케이블에 연결되었을 때는 @1연결이 우선이 됩니다.


오퍼레이션 및 다양하고 획기적인 기능들


초소형 초경량 디자인
HVR-A1N은 HD 야외 촬영에서 최고의 기동성을 제공하는 초소형 초경량 캠코더입니다. 캠코더 자체의 무게는 670g7)에 불과하며, 렌즈 후드, XLR 오디오 어댑터, 지향성 마이크, NP-QM91D InfoLITHIUM 충전식 배터리 팩 및 PHDVM-63DM DigitalMaster 미니 카세트 테이프를 포함한 무게도 1.3kg밖에 되지 않습니다.
(이 수치는 근사치입니다)

16:9 컬러/흑백 전환 가능 LCD 뷰파인더
0.44 인치형 컬러 LCD 뷰파인더는 16:9의 와이드스크린 화면비로 약 252,000화소의 고해상도 컬러 영상을 표시합니다. 사용자가 자신의 선호도에 맞게 컬러 또는 흑백으로 영상을 선택하여 표시할 수 있습니다.

2.7인치(가시 범위의 대각선 길이) 16:9 와이드스크린 하이브리드 컬러 LCD 모니터
HVR-A1N에는 약 123,200픽셀의 고해상도 2.7인치 컬러 LCD 모니터가 장착되어 있어 16:9의 와이드스크린 화면비로 녹화 중에 입력 소스를 확인하거나 재생 화면을 점검할 수 있습니다. 이처럼 큰 화면은 메뉴 또는 오디오 녹음레벨 설정 및 VTR이나 오디오 상태 모니터링에도 도움이 됩니다. 이 캠코더에 사용된 하이브리드 LCD 모니터는 투과형 LCD 패널과 반사형 LCD 패널의 특성을 함께 갖추고 있어 어두운 상태는 물론 밝은 조명에서도 선명한 화질을 제공합니다. 또한 사용이 간편한 터치 스크린 제어 기능도 지원합니다.

다양한 줌 조작
HVR-A1N은 다양한 촬영 방식에 활용할 수 있는 4가지 유형의 줌 제어 기능을 제공합니다.
카메라 본체의“줌 레버”
렌즈 몸체의“줌/초점 링”- 줌 위치의 미세 조정 가능
LCD 모니터의“줌 버튼”- 로우 앵글(Low Angle) 촬영에 편리
제공되는 무선 Remote CommanderTM 장치

노출 레버
HVR-A1N은 자동 또는 수동으로 노출을 조정할 수 있습니다. 노출 레버는 2가지 유형의 노출 제어 기능을 제공합니다.
노출 레버를 사용하여 노출 설정을 수동으로 변경할 수 있는 수동 노출 제어
보다 정확한 자동 노출 설정을 위해 AE(자동 노출) 모드를 켠 상태에서 노출 레버를 사용하여 15단계까지 AE 수준을 조정할 수 있는 AE 변경 기능

Tele Macro
Tele Macro 기능은 먼 거리에서 매크로 영상을 촬영할 수 있기 때문에 움직이는 작은 물체를 촬영하는 데 특히 효과적입니다. 이 기능을 사용하여 피사체에 그림자를 비추지 않고 클로즈업 영상을 촬영할 수 있습니다. 또한 피사체가 돋보이도록 배경의 초점을 흐리게 한 상태로 피사체에만 적절한 초점을 맞춰 촬영할 수 있습니다.

새로운 후광(Backlight) 보정 기능
HVR-A1N은 새로운 후광 보정(Backlight Compensation) 기능으로 후광 상태에서 영상의 밝은 부분과 어두운 부분을 모두 자연스럽고 풍부한 색조로 연출할 수 있습니다.
기존 후광 보정 방식의 경우 세밀한 묘사를 위해 밝은 부분의 품질이 저하되는 경향이 있었지만, HVR0A1N의 새로운 후광 보정 기능은 밝은 부분의 밝기는 적절하게 유지하면서 어두운 부분의 밝기만을 높임으로써 매우 넓은 다이나믹 레인지의 탁월한 영상을 제공합니다.

LCD 모니터와 뷰파인더에 4가지 유형의 마커를 동시에 표시할 수 있습니다.

Array Array Array Array



Safety Zone

Guide Frame

Assign 버튼
야외에서 자주 사용하는 기능을 카메라 본체 우측에 있는 할당 버튼(Assign Button) (누름 버튼)에 지정할 수 있으므로 사용자가 촬영 현장 조건에 신속하게 대응할 수 있습니다. 할당 가능한 기능은 Status Check, Super SteadyShot, One Push Auto White Balance, Histogram Indicator 및 Color Bars(2가지 유형) 등이 있습니다.

타임 코드 사전 설정
H/M/S/F(시/분/초/프레임) 중 임의의 숫자를 사용하여 타임 코드를 사전 설정함으로써 원하는 테이프 위치 정보를 기록할 수 있습니다. 타임 코드 모드는 'REC RUN' 또는 'FREE RUN'으로 선택할 수 있습니다. 타임 코드 외에 사용자 비트도 설정할 수 있습니다.

히스토그램 표시
LCD 모니터와 뷰파인더에 밝기에 대한 히스토그램을 표시할 수 있으므로 사용자가 적절한 노출을 위해 현재 촬영한 영상의 밝기를 쉽게 확인할 수 있습니다.

Shot TransitionTM
Shot Transition 기능을 사용하여 자동 장면 전환을 매끄럽게 수행할 수 있습니다. 사용자가 줌, 초점 및 화이트 밸런스에 대한 시작 및 끝 설정을 A/B 버튼에 입력한 다음, 시작 버튼을 누르면 장면 전환 도중 카메라가 중간값을 자동으로 계산하기 때문에 설정한 시간에 맞춰 장면 전환을 매끄럽게 수행할 수 있습니다. 이 기능은 카메라의 녹화 시작 기능과 동기화하여 시작할 수 있습니다. 장면전환 진행률은 LCD 모니터에 나타난 표시 등을 사용하여 확인할 수 있습니다. 또한 Shot Transition 기능에 대한 시작 타이머 기능이 지원되므로 촬영 장면을 놓칠 염려가 없습니다.
이 기능은 어떤 장면의 배경에서 전경으로 이동하는 피사체를 촬영하는 경우처럼 장면 전환 도중 복잡한 카메라 설정이 필요한 경우에 대단히 유용합니다.

영화같은 영상 촬영
HVR-A1N은 영화 같은 영상을 연출할 수 있는 2가지 강력한 기능을 제공합니다.
Cinematone GammaTM 기능을 사용하면 영화의 감마 곡선과 유사한 명암의 감마 곡선을 간단하게 설정하거나 불러올 수 있습니다. 한편 CineframeTM 기능은 초당 24 및 30 프레임으로 영화와 같은 영상의 움직임을 재현할 수 있습니다.

긴 작동 시간
선택사양 NP-F970 InfoLITHIUMTM 충전식 배터리 팩을 연결하는 경우, HDV 모드에서 최대 300분 동안 또는 DVCAM/DV 모드에서 최대 340분 동안 연속 녹화할 수 있습니다.
배터리 수명

Continuous Recording Time*

With LCD Monitor On**(HDV)

With LCD Monitor On**(DVCAM/DV)

With LCD Viewfinder On(HDV)

With LCD Viewfinder On(DVCAM/DV)

With LCD Viewfinder and Monitor On**(HDV)

With LCD Viewfinder and Monitor On**(DVCAM/DV)

NP-FM50 (supplied) 80 min 90 min 75 min 90 min 70 min 80 min
NP-QM71D (optional) 200 min 225 min 195 min 220 min 180 min 200 min
NP-QM91D (optional) 300 min 340 min 295 min 330 min 275 min 300 min

* 연속녹화시간, 실내온도 25℃
** LCD 백라이트를 on으로 설정한 경우


기타 편리한 기능

■ LCD 모니터 및 뷰파인더 동시 작동

■ Expanded Focus - LCD 모니터 및 뷰파인더에서 화면 중앙을 약 2배까지 확대하므로 수동 초점 조정이 용이합니다.

■ Peaking - 카메라가 초점을 맞춘 영상의 윤곽을 향상시키고 LCD 모니터와 뷰파인더에 향상된 윤곽을 컬러로 표시하므로 수동 초점 조정이 용이합니다.

■ Zebra - LCD 모니터와 뷰파인더에서 밝은 부분을 줄무늬 패턴으로 표시하므로 수동 노출 조정이 용이합니다(100% 또는 70~100% (5% 단위로 조정가능).

■ Quick REC - 정지 모드에서 녹화가 시작되기까지의 시간을 단축할 수 있습니다.

■ Status Check - LCD 모니터에 오디오, 출력 신호, 할당 버튼, 노출 레버기능, 시간 측정에 대한 카메라 설정 메뉴를 표시하므로 간편하게 상태를 확인 할 수 있습니다.

■ Personal Menu - 설정 메뉴를 사용자가 지정하여 자주 사용하는 메뉴항목을 표시할 수 있습니다.

■ Battery Info - 전원이 꺼진 상태에서도 버튼을 한 번만 누르면 LCD 모니터에 장착한 배터리의 현재 충전 수준과 현재 남은 녹화 시간이 나타납니다.

■ Super Night ShotTM - 조명이 전혀 없는 상태에서도 내장된 적외선을 사용하여 흑백으로 영상을 촬영할 수 있습니다.

■ Skin Tone Detail - 피부색의 세부 신호를 줄여서 사람의 피부를 매끄럽게 연출합니다.

■ Black Stretch - 절대 흑색 수준을 유지하는 동시에 중간 색조에 영향을 미치지 않고 영상의 어두운 부분의 명암을 더 뚜렷하게 재현합니다.

■ Color Bar - 두 가지 유형이 지원됩니다.

■ White Balance - Auto, One Push Auto, Indoor(3200K) 및 Outdoor(5800K)가 지원됩니다.


옵션 액세서리

ArrayArray NP-QM71D/QM91D* InfoLITHIUM 충전식 배터리 팩
ArrayArray 2NP-QM91D/B* InfoLITHIUM 충전식 배터리 팩
Array UWP-C1 UHF 씬서싸이즈 무선 마이크 패키지
Array VCL-HG2037Y 2.0x 텔레 컨버전 렌즈
Array VCL-HG0737Y 0.7x 와이드 컨버전 렌즈
Array LCH-HCE 운반 케이스
Array VMC-30FS 3m 멀티 AV 케이블(S Video용)
Array VMC-30VC 3m 컴포넌트 비디오 케이블
  RM-1BP LANC 리모컨
Array PHDVM-63DM DigitalMaster 미니 카세트 테이프

* HVR-A1N에 NP-QM91D 배터리 팩을 장착한 경우, 뷰파인더에서 배터리 팩이 돌출됩니다.

HVR-A1N 규격

구분 항목 설명
카메라 부분 렌즈

Carl Zeiss Vario-Sonnar T* 줌 렌즈, 10x (광학),
f = 5.1~51 mm
f = 40~400 mm in 16:9 mode and 49.3~493 mm in 4:3 모드 (full scan mode on)*
f = 41~480 mm in 16:9 mode and 50~590 mm in 4:3 모드 (full scan mode off)*
f = 40~400 mm in 16:9 mode and 37~370 mm in 4:3 모드 (still picture mode)*
f = 1.8~2.1, filter diameter: 37 mm

카메라 부분 포커스 Auto, manual, spot focus (touch panel control)
카메라 부분 이미징 장치 1-chip, 1/3-inch type primary color CMOS sensor
카메라 부분 화소 약. 2,969,000 픽셀 (total)
카메라 부분 셔터 속도

1/4, 1/8, 1/15, 1/30, 1/60, 1/90, 1/100, 1/125, 1/180, 1/250, 1/350, 1/500, 1/725, 1/1000, 1/1500, 1/2000, 1/3000, 1/4000, 1/6000, 1/10000 초

카메라 부분 최저 조도 7 lx with F1.8
VTR 부분 레코딩 포맷 1080/60i, 480/60i
VTR 부분 플레이 아웃/다운컨버전 포맷 1080/60i, 480/60i, 480/60P
VTR 부분 테이프 속도 (HDV/DV SP) PHDVM-63DM 카세트에서 최대 18.812 mm/초
(DVCAM) PHDVM-63DM 카세트에서 최대 28.218 mm/초
VTR 부분 재생 / 레코딩 시간 (HDV/DV SP) PHDVM-63DM 카세트에서 최대 63분
(DVCAM) PHDVM-63DM 카세트에서 최대 41분
VTR 부분 빨리감기 / 되감기
PHDVM-63DM 카세트에서 약 2분 40초 (충전된 배터리 사용시)
PHDVM-63DM 카세트에서 약. 1분 45초 (AC 어댑터 사용시)
입/출력 커넥터 오디오 / 비디오
입 / 출력

A/V OUT 잭, 10-핀 커넥터
Composite video: 1 Vp-p, 75 Ω 불평형, 동기 네거티브
Y: 1 Vp-p, 75 Ω 불평형, 동기 네거티브
C: 0.286 Vp-p, 75 Ω 불평형
오디오 : 327 mV, 47 kΩ이상입력 임피던스 , 2.2 kΩ이하 출력 임피던스

입/출력 커넥터 컴포넌트 비디오 출력

Y : 1Vp-p, 75Ω, 불평형, 동기 네거티브
Pr/Pb (Cr/Cb): 700 mVp-p (75% 컬러 바)

입/출력 커넥터 HDV / DV
입 / 출력
i.LINK interface (IEEE 1394, 4-pin connector S100)
입/출력 커넥터 XLR 오디오 입력 XLR 3-핀 암 x 2, 327 mV, -60 dBu: 3 kΩ, +40 dBu: 10.8 kΩ, 전원 공급 장치:약 48 V
입/출력 커넥터 헤드폰 스테레오 미니잭 (φ3.5 mm) x 1
입/출력 커넥터 MIC 미니잭 x 1, 0.388 mV, 낮은 임피던스 with DC 2.5~3.0 V, 출력 임피던스 6.8 kΩ (φ3.5 mm), 스테레오 유형
입/출력 커넥터 LANC 스테레오 미니-미니잭 (φ2.5 mm) x 1
입/출력 커넥터 USB Mini-B x 1
내장 입/출력 장치 LCD 뷰파인더 0.44인치 유형, 약 252,000 (1120 x 225) 픽셀 , 하이브리드 유형, 16:9 aspect ratio
내장 입/출력 장치 LCD 모니터 2.7인치 유형, 약 123,200 (560 x 220) 픽셀, 하이브리드 유형, 16:9 aspect ratio
내장 입/출력 장치 마이크 스테레오 유형, 노이즈 감소 사용/해제
내장 입/출력 장치 스피커 φ16 mm
일반 사항 중량 약. 670 g (1 lb 7 oz) (캠코더만)
일반 사항 전원 요구사항 DC 7.2 V (배터리 팩), DC 8.4 V (AC 어댑터)
일반 사항 소비 전력 (HDV) 약 5.6 W (LCD 뷰파인더가 켜진 상태의 레코딩 모드)
(DVCAM/DV) 약 5.1 W (LCD 뷰파인더가 켜진 상태의 레코딩 모드)
일반 사항 작동 온도 0~40 °C (32~104 °K)
일반 사항 보관 온도 -20~+60 °C (-4~140 °K)
일반 사항 제공 액세서리

AC-L15 AC 어댑터, 전원 코드, NP-FM50 InfoLITHIUM 재충전 배터리 팩, 렌즈커버와 렌즈 후드, RMT-831 무선 리모컨, S video
A/V 연결 케이블, 컴포넌트 비디오 케이블, USB 케이블, Memory Stick Duo (16 MB), Memory Stick Duo 어댑터, ECM-NV1 마이
크로폰, XLR 오디오 어댑터, 어깨 지지대, 사용 설명서

*이 값들은 35mm 필름에 맞춰 계산된 것임..



'Hardware' 카테고리의 다른 글

오락실 건  (0) 2008.03.22
Osprey User Guide  (0) 2008.03.18
디지털 HD 비디오 캠코더 HVR-A1N  (0) 2008.03.18
GoStream Plus DataSheet  (0) 2008.03.18
회로분석 그리고 Auto Enumeration  (0) 2008.03.17
CYPRESS FX2 소개 및 기본회로  (0) 2008.03.17
Array The Leading Global Provider of
High-Quality Audio and Video
Communications Products
Array ViewCast Niagara GoStream




? Extreme portability - Plug it in anywhere you have power. Runs on standard Anton Bauer? battery packs and accessories, too!
? Advanced setup and profiles allow experienced users to customize the configurations
? EASE Menus allow basic encode/setup from the front panel interface
? USB ports allow easy installation of software upgrades, encoding of profiles, and transfer of archive files
? Client management software and Web- based encoder configuration is included


? Video Input: Composite (BNC connector with RCA adapter), S-Video
? Audio Input: Unbalanced stereo (2 x RCA), Balanced stereo (2 x XLR)
? 2 USB ports (one on the front panel and one on the rear panel)
? 2 Ethernet network ports
? iPod?/ZenTM mobile video device dock on the front panel (requires optional accessory kit)
? Video encoding formats supported: Windows Media?, RealVideo?, and Adobe? Flash? and Flash Live, MPEG-4, and 3GPP/3GP2
? 14 VDC input for battery connectivity(Anton Bauer Digital Dionic battery 90 recommended)

Array ViewCast Niagara GoStream Array ViewCast Niagara GoStream Plus



The time for a Niagara? GoStreamTM or Niagara GoStream Plus is today! Don’t wait any longer to experience the value of adding streaming media to your communica­tions applications. Streaming media is a win-win application, offering efficient and cost-effective communications that will allow you to distribute your message every­where.

Case in point: In today’s market, Internet TV is growing at an exponential rate, although many potential content creators do not have broadcasting or streaming media experience. GoStream makes Internet video streaming accessible to virtually everyone.

The first of their kind, the Niagara GoStream and GoStream Plus are portable encod­ers that truly make capturing and streaming video uncomplicated. These single channel encoders are designed for the most novice of users. Both feature EZStream? buttons, which allow users to select from pre-defined encoding profiles.

With its portable, streamlined chassis design, intuitive front panel, and EASE control menus, streaming set-up is quick and easy. Just press “A”, “B” or “C” and “Stream” and you’ll be “on the air” in just seconds.

Both models include ViewCast’s exclusive Niagara SCX? Pro, so you can encode your video in all popular formats (see sidebar). With three user interfacees for configuring and managing your system, LCD menu, web interface and Niagara SCX Explorer - you can control and monitor one or a worldwide array of GoStreams. Mix and match with other Niagara models for exactly the right streaming media experience.

14 VDC input for battery connectivity (Anton Bauer Digital Dionic battery 90 recommended)



User predefined encoder profiles allow customization of GoStream for unique streaming encoding requirements.

A. A/B/C Preset Encoder Start Buttons
B. One-click Streaming
C. Live Audio Monitor
D. Video Sync Indicator


EASE Menu System
The EASE menu system provides an intuitive, easy-to-use control menu that allows users to manage system performance and configuration.
The GoStream exposes a complete set of controls for local management and operation. Stream and encode with EASE.

E. Real-time control of multiple encoder sessions
F. Real-time feedback on system performance
G. Direct-access for system configuration


Easy Exporting of Captured Files
Connect directly to handheld devices like iPod for direct video viewing.

GoStream allows users to export files to storage devices and view video on a handheld devices such as Apple? iPods? and Creative? Zen™ video players.

H. Export to Apple iPod / Creative Zen with optional accessory kit
I. View video on handheld players
J. Download and install system software updates and upgrades


Variety of Audio/Video Inputs
The rear panel of GoStream enables seamless integration with your pro A/V equipment.
K. Single-channel video capture
L. Mobile docking port for easy install/remove from optional Dual Mount
M. Dual LAN ports for simultaneous streaming and file transfer


Optional Accessories
The optional Dual Mount makes it easy to rack-mount two GoStream units side-by-side.
GoStream and GoStream Plus offer extreme portability and flexibility. But, when they’re not on the road, slide them into the new GoStream Dual Mount, which installs in any standard 19” equipment rack.
GoStream creates live streams in a variety of formats, and can be configured to save encoded content in these same formats to local or networked mass storage devices. Two built-in network ports give you complete flexibility to configure your external storage and video post-processing options.


Niagara GoStream and GoStream Plus include everything you need to make a complete streaming solution. Powerful configuration, control, management and monitoring tools include Niagara SCX Pro, Niagara SCX Pro Web Interface and Osprey SimulStream.

Encoder Management & Monitoring Software - Niagara SCX Pro

Niagara SCX Pro is ViewCast’s encoder management and monitoring software. Niagara SCX provides full access so you can view and set encoding parameters, start, and stop the encoding process, and receive notification of identified error conditions.

Niagara SCX Pro is extremely flexible, particular­ly in applications involving live broadcasting where immediate changes and tweaks are required. Niagara SCX Pro excels in providing the required controls to ensure optimum streaming video quality.

Niagara SCX Encoder nested view allows you to easily see all encoders on the network and their current status.
Niagara SCX Pro also provides control of:
? System CODEC and profile selection
? Windows Media, RealVideo, Flash, MPEG-4, and AVI
? Modification of capture resolution and attributes
? Adjustment of video pre-processing filters such as de-interlacing
? Adjustment of video resolution through scaling while minimizing CPU load
? Branding and protecting video content through logo watermarking
? Enabling and disabling Osprey? SimulStream?

Niagara SCX includes advance video preprocessing control and Closed Caption overlay, embedding or output to file.
Video format outputs:
? Windows Media 7, 8, 9
? MPEG-4 Part 2, Simple/Advanced Simple Profiles
? H.263 Simple/Advanced Simple Profiles
? H.264 (MPEG-4 Part 10) Baseline Profile
? 3GPP/3GPP2 Container Formats
? RealVideo 9, 10
? Adobe? Flash? (File only)
? Adobe? Flash LIve (October 2007, appliances only)
? Audio Video Interleaved (AVI) (File only)

Encoder Configuration Tool Niagara SCX Pro Web Interface
For custom configuration of the Niagara GoStream system settings, ViewCast created the included Niagara SCX Pro Web Interface tool. This tool does not require you to install special software on any other PC. You only need a Web browser on any PC running any operating system, and you can control and configure any Niagara streaming media encoder.
This Web-based user interface allows you to browse to any Niagara GoStream, GoStream Plus or Niagara Pro on a LAN or WAN network and manage the entire system configuration, including:

? Create, modify, and delete encoder profiles
? Start and stop individual encoders
? Pre-configure and assign ABC EZStream buttons
? View and manage encoder log files and entries
? Modify system network configuration settings (network name, IP configuration)

Osprey SimulStream

Designed to provide the optimal experi­ence of a streamlined workflow, Osprey SimulStream provides the ability to deliver multiple streams at multiple bitrates from a single video source. Osprey SimulStream is a premium software enhancement to the Niagara systems to extend the capabilities of a single channel audio and video capture.

Osprey SimulStream Features:

? Optimized streams for a diverse Internet audience ? all streaming in real-time
? Maximum efficiency without sacrific ing quality
? Complete utilization of multi-core processors
? Maximum channel density for streaming production
? Reduced hardware costs

Array The Leading Global Provider of High-Quality Audio and Video Communications Products

Array ViewCast Niagara Streaming Media Encoders



For more information on ViewCast products, visit

ViewCast Corporation | 3701 W. Plano Parkway, Suite 300 | Plano, Texas 75075-7840 | 972-488-7200 | 800-540-4119

? 2007 ViewCast Corporation. ViewCast, Niagara, Osprey, SimulStream and Niagara SCX are registered trademarks of ViewCast Corporation or its subsidiaries. All other trademarks are the property of their respective owners. Product specifications and availability may change without notice.

'Hardware' 카테고리의 다른 글

Osprey User Guide  (0) 2008.03.18
디지털 HD 비디오 캠코더 HVR-A1N  (0) 2008.03.18
GoStream Plus DataSheet  (0) 2008.03.18
회로분석 그리고 Auto Enumeration  (0) 2008.03.17
CYPRESS FX2 소개 및 기본회로  (0) 2008.03.17
[펌] Intel 80386 Protected Mode  (0) 2008.03.13
출처 :


멀티XX라는 노래방, 비디오방 등을 합쳐놓은 곳이 있습니다. 윈도XP가 깔려 있는데 파일을 내려받을 수 없게 해놓았더군요. 시설이 워낙 좋아 자주 가는데 여기서 볼 수 있는 영화외에 다른 영화를 보고 싶어도 파일을 내려받을 수 없습니다. 제 PC서버를 만들고 영화를 올리고 이것을 내려받아 보면 가능할 것 같습니다. WMV는 스트리밍을 할 수 있어도 일반적으로 쉽게 구할수 있는 AVI는 스트리밍을 할 수 없더군요. 그렇다고 모든 영화를 변환하기도 무리가 있습니다. AVI 동영상을 바로 스트리밍할 수 있는 방법이 없을까요?


AVI 동영상은 포맷 자체가 스트리밍을 할 수 있는 것이 아닙니다. 따라서 AVI 동영상을 스트리밍 하려면 클리이언트, 즉 재생 프로그램을 어떤 것을 쓰는가에 따라 될 수도 있고 안 될 수도 있습니다. 현재 AVI스트리밍을 할 수 있는 동영상 플레이어는 곰 플레이어 KM플레이어 입니다. 따라서 이 동영상 플레이어와 AVI 동영상 스트리밍을 할 수 있는 간단한 웹 서버를 만들면 해결됩니다. 웹서버는 웹쉐어(Webshare) 라는 프로그램을 이용하면 됩니다. 웹쉐어는 덩치가 작고 쉡게 꾸밀 수 있습니다.





1.임시로 폴더를 만들고 내려받은 압축 파일을 푼다. 웹쉐어를 실행 한 뒤  '공유 추가' 버튼을 눌러 공유할 파일을 정한다. 폴더를 공유하고 싶다면 공유하려는 폴더를 끌어 놓는다. 폴더이름, 파일이름이 영문이어야 한다.


글쓴는 잘못했다.. 받은파일이 아니라 영문폴더로 되어있어야하는데...


2.'환결 설정' 버튼을 누르고 왼쪽 창에서 서버를 고른 뒤 포트 번호는 임의의 번호(여기서는 8080)로 바꾼다


3.'켜짐' 버튼을 눌러 웹서버를 시작한다. 여기에 뜨는 웹쉐어 주소를 기억해둔다.

4.이제 서버가 아닌 PC나 게임방 등의 외부 PC에서 인터넷 탐색기를 실행한 뒤 웹쉐어에 표시된 주소를 넣는다.

1. ASF(Advanced Streaming Format)
-전문적인 설명 : 출처 인터넷
ASF(Advanced Streaming Format)는 멀티미디어 컨텐트의 송수신 데이터 포맷이다. 동영상 데이터 등을 분할하고, 그것을 포함한 패킷의 사양을 규정하고 있다고 생각하면 된다. 하지만 ASF는 동영상 압축 등의 포맷을 정한 것이 아니라 AVI나 MOV (QuickTime), MPG(MPEG)라는 데이터를 주고받기 위한 구조이다. 리얼비디오도 ASF에 포함된 형태로 송수신되는 것이다.

하나의 ASF 파일 내에는 여러 가지 컨텐트를 포함할 수 있고, 그것의 재생타이밍 조정과 동기도 자유롭다. 하위층의 프로토콜을 선택하지 않는 것도 ASF의 특징. 멀티캐스트IP, UDP, RTP, TCP, HTTP와 효율이 최상이면서 이용 가능한 프로토콜을 자동으로 선택해준다. 클라이언트에서 데이터 송신 요구가 있으면(설정에도 있지만) 우선 서버는 멀티캐스트로 송신을 테스트한다. 멀티캐스트를 지원하는 네트워크는 지금은 없기 때문에 이것은 타임아웃이 된다. 그러면 다음으로 UDP를 이용한 송신을 서버가 테스트한다.

멀티미디어 데이터에서는 TCP보다도 UDP 쪽이 효율이 좋지만 보안문제로 대부분의 기업에서는 UDP는 파이어월 때문에 수신할 수 없다. UDP에서도 타임아웃이 발생하면 계속 TCP, HTTP로 내려가, 마지막에는 HTTP 프록시를 이용한 송수신을 시도한다. 최악의 경우, 웹을 볼 수 있는 환경만 되면 특별한 설정변경 없이도 멀티미디어 컨텐트의 스트림 재생을 볼 수 있게 해준다.

이런 강력한 스트림 송수신환경을 살려, 마이크로소프트는 시장 전체를 장악하면서 (대부분의 저작도구와 컨텐트 제공업자는 ASF를 제공한다) 이 시장에서 확고한 위치를 확보하려고 하고 있다.

2. AVI(Audio Video Interleaved)
윈도 3.1 시대에 비디오 포 윈도(Video for Windows) 1.0을 통해 첫선을 보이고 윈도용 멀티미디어 파일의 표준으로 자리잡아온 AVI(Audio Video Interleaved) 포맷.
(매킨토시 포맷인 MOV파일에 대항해 만든 포맷이라는 주장도 있습니다.)
오디오와 비디오 데이터가 내부적으로 번갈아 (interleaved) 기록되어 있기에 AVI라는 용어로 표현한다고 하네요.

3. MPG(MPEG : Moving Picture Experts Group)
-"드림라인 ANIDREAM 게시판" , "" 글 인용,편집
MPEG의 명칭은 "Moving Picture Experts Group"를 의미합니다.
MPEG그룹이 정한 포맷에는 91년 디지털 저장 매체용 압축 규격 MPEG1과 94년 디지털 방송용 압축 규격 MPEG2 등이 있습니다. ( MPEG-1,2,4,7등이 있음 )

MPEG-1(DAT)은 비디오 CD규격에 맞춰 포맷한 것이라고 생각하시면 됩니다. 그런데, 이 비디오CD 포멧은 원래 1배속 CD-ROM에서 실시간으로 재생할 수 있는 것을 기준으로 만들어진 것입니다. 실시간으로 압축을 재생할 수 있어야 하므로 파일의 크기를 줄여야 했는데, 그 방법으로 나온 것이 DCT 압축(Discrete Cosine Transform)이란 방법입니다. 이 방법은, 파일을 압축하게 되면 원래 파일과 비슷한 형태로 복원할 수는 있지만 100% 원래 파일과 같은 것은 만들 수 없습니다. 대신 압축할 수 있는 비율은 훨씬 커지게 되지요... 즉, 화질은 원본보다 약간 떨어지는 수준으로 압축된다는 것입니다.
+ 자세히
이것의 목적은 만족할 만한 프레임 율을 가지며, 동영상을 위한 가능한 최고의 이미지 퀄리티를 가지게 하며, 낮은 대역폭(1 MBit/s에서 최고 1.5 MBit/s)을 사용하는 미디어를 사운드 시그널로 사용하게 하는 것이다. MPEG-1의 디자인한 목적은 이미지의 질을 떨어뜨리지 않으면서 0.5 초 이내에 임의적으로 엑세스하는 스퀜스가 가능하게 하는 것이다.

MPEG-1을 자세히 보면 해상도는 SIF(352x240)형식이며 초당 30Frame의 구조를 갖고, 동영상을 약 200:1까지 압축할 수 있다. MPEG 파일 형식은 MPG 라고 하는 확장자를 가지며 별도로 MPEG 보드가 설치된 컴퓨터에서만 운용되는 파일 형식으로서 비디오 CD 등에 담긴 파일 내용을 볼 때에 많이 활용하고 있는 형식. 486 PC에서는 완벽하지는 않지만, 펜티엄 100MHz 이상의 컴퓨터/램 16MB 이상이면 소프트웨어적으로 재생이 가능라다. 그러나 MPEG 전용 보드를 사용하여야 완벽한 재생이 이루어진다. MPEG 파일은 윈도95에서는 직접 지원되지 않고 있으나, 윈도우 98에서는 기본으로 지원하고 있다.

MPEG-2 는 고화질의 비디오를 위해서 만들어진 표준인데. 이것은 현재 DVD의 고화질 재생을 위해 사용되고 있지요.
+ 자세히
이 표준의 기본적인 구조는 MPEG-1과 거의 같다. 이것은 데이터 비율을 100 MBit/s 까지 올릴 수 있으며, 그리고 디지털 TV, DVD-ROM 상에서의 비디오필름, 그리고 전문적인 비디오 스튜디오에 사용된다. MPEG-2는 해상도의 조정이 가능하며, 데이터 비율은 아주 넓다. 이 높은 데이터 전송 비율 때문에 MPEG-1 과 비교되는 것이다. 그리고 메모리 공간의 요구가 증가하게 되었다. MPEG-2 는 현재 개인 사용자 영역에서만 재생하기에 적합하도록 되어있다. 여기서 가능한 비디오 퀄리티는 눈에 띌 정도로 데이터 전송 비율이 4MBit/s 인 MPEG-1과 비교될 정도로 좋다.

이와는 별개로, 통신(PC 통신이나 인터넷 등....)에서 실시간으로 다운로드 받으면서 재생할 수 있는 규격도 제정하게 되었는데, 이것이 라고 불리우는 표준입니다.
이 MPEG4는 통신상에서 실시간으로 주고받을 수 있을 정도로 압축율을 높인 것으로, 파일의 크기는 작지만 재생을 위해서는 더 높은 프로세스를 요구하게 됩니다. 즉, 컴퓨터 성능이 낮으면 화면이 끊겨 보이거나 재생이 자연스럽지 않게 됩니다.
+ 자세히
이 포맷의 목적은 극도로 낮은 데이터 전송 비율인 10 KBit/s 와 1 MBit/s 사이의 범위에서 가능한 가장 높은 비디오 퀄리티를 얻는 것이다. 더욱이, 데이터 무결성의 필요와, 로스 프리 데이터 전송은 이동 통신에 있어서 아주 중요한 역할을 하기 때문에 아주 중요하다. MPEG-4에서 몇 가지 완전히 새로운 것은 이미지의 내용을 각기 독립적인 객체로 만들어 주소를 지정해 주거나, 아니면 개별적으로 처리가 가능한 구조체로 만든다는 것이다.

MPEG-7 은 가장 최근의 MPEG 패밀리 프로젝트이다. 이것은 멀티미디어 데이터를 표현하는 표준이며, 독립적으로 다른 MPEG 표준과 사용될 수 있다. MPEG-7 은 아마도 2001년이 되어야 국제적인 표준으로 지위가 올라설 것 같다.

4. MOV
QuickTime사에서 만든 포맷 원래는 맥킨토시용(그래픽 워크스테이션으로 통함)으로 개발된 포맷입니다. 압축률이 뛰어나고 동영상의 표준적인 포맷입니다.
물론 실시간도 된다는 군요.
(아직까지는 메킨토시가 그래픽이 더 뛰어납니다. - 옛날에 맥킨토시의 최소사양이 RAM 128M 였다고 합니다..흠..64M이었던가...) 애플의 포맷(MOV)으로 코딩된 비디오 클립은 Quicktime의 맥킨토시와 x86컴퓨터(486,586..) 양쪽에서 모두 실행 가능하기 때문에 몇 가지 CD 타이틀은 MOV파일 형식을 주로 사용하죠

5. FLC 파일
애니메이션 파일에서 공용으로 쓰이는 파일 형식에는 매크로미디어(Macromedia)의 MMM과 오토데스크(Autodesk)의 FLI, FLC가 있다. FLC는 오토데스크의 애니메이터 프로(Animator Pro) 프로그램의 2차원 애니메이션 파일 포맷. 마이크로소프트가 FLC 포맷을 윈도우 기반 멀티미디어 프리젠테이션을 위한 표준으로 채택하였기 때문에 앞으로 FLC파일로 작성하는 다른 프로그램을 많이 볼 수 있을 것으로 예상된다.

6. XDM 파일
씽 테크놀로지(Xing Technology)에서 발표한 스트림 웍스(StreamWorks) 방식에서 사용하는 비디오 파일 방식

7. RM(Real Movie)
리얼 미디어라는 비디오 스트림 방식에서 사용되는 파일 포맷 방식.  RA파일은 본래 인터넷 라디오 방송을 하기 위한 포맷으로 계발되었지만, 현재는 비디오 까지 포함하는 스트림 방식으로 계발되었다. 오디오 RA파일은 압축률은 뛰어나지만 음질이 MP3나 SWA에 비해 떨어지는 단점이 있다. 비디오 RA 파일 역시 압축률은 높지만, 화질이 떨어진다. 둘다 인터넷 방송용으로 많이 사용된다. 하지만 아직은 좀더 멀었다고 본다

8. VIV(VivoActive)
-소프트의 성격(
또 하나의 A/V Streaming Solution으로서, 이 제품의 경우는 Streaming을 위해서 따로 Server를 제공하지 않아도 된다는 장점을 내세운 Solution이다. 실제로 판매 제품중에는 Server제품은 없고, Encoder만을 판매하므로, 다른 Solution보다는 경제적이고, 부하를 줄일 수 있는 제품이다. Server가 필요없는 이유는 보통 실행화일을 다운 방법과 똑같은 방법으로 A/V 데이타를 받기 때문이다. 단지 제공자가 해야하는 일은 해당 File을 대역폭에 맞게 전송할 수 있도록 전용 Encoder로 압축해 주기만 하면 된다. 전송된 데이타는 사용자 측에 설치된(Active X로 자동으로 설치된) Player가 알아서 Decode 해서 바로 보여준다. 부가 장비를 사용하기 원하지 않는 경우의 Solution으로 Netshow와 같이 무료는 아니지만 Encoder만 구입하면 되므로 경제적이라고 할 수 있다. 개인이나 소규모의 그룹에서 사용하기에 적합하다.Vivo란 무엇인가? : 이한우(유니텔 고객지원팀)
MOV와 AVI 대체할 뛰어난 화질의 동영상 구현하는 ‘.VIV’ 요즘 PC통신이나 인터넷의 CNN 방송 사이트(http:// 또는 CNET 사이트( 등을 돌아다니다 보면 mov와 avi 포맷 일색이던 동영상 파일들이 서서히 viv 파일로 뒤바뀌어 가고 있는 것을 볼 수 있다. viv 파일은 지난 93년 국제적인 비디오와 오디오 신호 처리 기술의 전문가들이 설립한 벤처 기업인 비보액티브(VivoActive)사가 개발한 동영상 파일 포맷으로 압축률이 뛰어나고 우수한 동영상 화질을 구현해 새롭게 각광받고 있다.

인터넷과 동영상
인터넷의 동영상 역사는 PC의 동영상 역사와 그 궤를 같이 한다. 우선, PC의 동영상 역사는 매킨토시에서 사용하는 ‘퀵타임 포 윈도우’와 IBM 호환 PC에서 사용하는 ‘비디오 포 윈도우’를 시작으로 해서, mpeg 1과 mpeg2 등이 개발됐다. 그런데, 이들 동영상 표준들은 통신망을 이용한 실시간 데이터 전송을 염두에 두고 만들어진 것이 아니기 때문에 인터넷을 이용하여 동영상을 감상하는 경우 실시간 재생이 이루어지지 않는다. 즉, mov, avi, mpeg 등의 포맷을 기준으로 만들어진 동영상의 경우 데이터의 크기에 상관없이 모든 데이터가 사용자의 하드디스크로 전송된 후 내비게이터나 익스플로러에 내장된 플러그인 프로그램을 이용해서 구동하게 되는 것이다.
때문에 인터넷에서 동영상을 보기 위해서는 많은 시간을 할애해야 됐고, 동영상의 압축률이 높지 않아 몇초되지 않는 동영상 파일을 재생하기 위해 많은 시간을 투자해야 되는 단점이 있었다.
그러나 이처럼 불가능해 보이는 인터넷 실시간 동영상 재생(streaming-video)의 재생을 위해 넷스케이프, 마이크로소프트, 프로그래시브 네트웍사 등이 ‘넷쇼 플레이어(Netshow Player)’ ‘라이브미디어(LiveMedia)’ ‘리얼비디오(RealVideo)’ 등 실시간 동영상 재생에 대한 솔루션을 발표했지만 이들 역시 기존 avi, mov 그리고 mpeg를 효과적으로 사용했다는 것 외에 특별한 것은 없었다.

이러한 기존 동영상의 단점을 해결한 것이 바로 비보액티브이다. 비보액티브에서 사용하는 비디오와 오디오 압축 기술(CODEC)은 네트워크(모뎀 포함)를 통한 오디오·비디오 신호의 전달에 관련된 내용인, ITU-T(International Telecommunications Union’s Technology Sector)에서 사용하는 H.263이라는 비디오 압축 알고리즘과 G.723이라는 오디오 압축 알고리즘을 이용한다.
즉, H.263이라는 압축 알고리즘은 DCT(Dicsrete Cosine Transform) 알고리즘 이라는 신기술을 기준으로 개발된 것으로 30MB의 avi 파일을 100KB 정도의 크기로 줄일 수 있는 획기적인 기술일 뿐 아니라 초당 2,000바이트 정도의 전송 속도를 보여 모뎀을 이용한 인터넷 접속에서도 어느 정도 실시간으로 비디오를 재생할 수 있다.

‘비보액티브 플레이어’로 감상
그런데, 이처럼 뛰어난 압축률을 자랑하는 비보액티브용 파일을 만드는 방법은 의외로 간단하다. 즉, 기존 캡처보드를 이용하여 캡처한 avi나 mov 파일을 비보액티브용 파일인 Vivo 형식으로 컨버트하면 된다.
비보액티브 파일을 감상하기 위해서는 당연한 이야기이지만, 비보액티브 플레이어가 있어야 된다. 현재 비보액티브 플레이어는 2.0 베타 3(4월 현재)까지 나와 있는데, 비보액티브사에서는 5월 중으로 정식 버전을 발표한다고 한다.
사실 비보액티브사에서 비보액티브 플레이어 1.0을 발표했을 때는 별로 주목받지 못했지만 2.0 베타 버전을 발표하면서 부터는 많은 관심을 끌었다.
즉, 2.0 버전에서는 1.x 버전보다 네배 정도 많은 양의 멀티미디어 파일을 전송할 수 있게 됐다. 이번 2.0 버전에서는, 동영상의 경우는 49×49 픽셀에서부터 352×288 크기까지의 다양한 비보 파일을 지원하게 됐으며, 사운드의 경우는 16Kbps 정도 FM 수준의 오디오 파일을 동시에 전송할 수 있게 됐다. 특히, 이전 버전에서 문제가 됐던 영상과 오디오의 불일치를 해결할 수 있는 자동 오디오 수정(Automatic Audio-Gain Adjustment) 기술은 매우 뛰어난 기술로 평가되고 있다.

홈페이지에서 비보액티브 사용하기
이처럼 현재까지 발표된 실시간 동영상 기술 가운데 최고를 자랑하는 비보액티브 파일을 홈페이지에서 사용하는 방법은 의의로 간단하다. <리스트>에 나타난 소스에서 pcline.viv에 사용자가 넣고자 하는 비보액티브 파일을 넣으면 된다. 참고로, 내비게이터 전용 홈페이지에서는 EMBED 태그를, 익스플로러 전용 사이트에서는 OBJECT 태그를 사용한다.
현재 우리들이 사용하고 있는 비보액티브의 경우 물론 최고는 아니다. 그러나, 현재의 기술 발전 속도 대로라면 이번 세기 안에 전화선의 속도에서도 TV와 VCR의 화려하고 정교한 영상을 구현할 수 있는 기술을 만날 수 있게 될 것으로 보인다.
현재 비보액티브 플레이어는 국내 4대 통신망이나 비보액티브사 홈페이지(를 통해 구할 수 있다.

9. ASF와 MPG4-AVI의 차이점 : 나우ANC 배형찬님글 인용-편집(정지오님 수정)
VBR이라는건 500K로 잡았을때 500K 이내에서만 가변적으로 레이트가 변하는것입니다. -_-;;(전에 앙끄 자료실 게시판이니 조금 시끄러웠던것으로 기억합니다만... -_-;;)

우선 두 포맷간의 특징을 알아야 겠죠..
ASF : 스트리밍 포맷 (실시간으로 계속 다운이 가능해야하므로.. bitrate의 변화폭이 적어야합니다)
AVI : 동영상보관목적(반면.. avi는 꽤 큰폭으로 bit-rate변화가 가능합니다. 이걸 바로 VBR이라 합니다. : Variable Bit Rate )
예를 들면 같은 500kbps라도 ASF는 간단한부분이든, 복잡한부분이든 500kbps를 유지합니다. 그러나 AVI의 경우는 인코딩해보면 약 100kbps~500kbps로 가변적으로 변합니다.
(평균 500 이아니라 500 밑으로 맞춰줍니다. 즉 최대 레이트가 500 입니다. 적게 필요한부분은 100도 될수있고 200도 됩니다.)
다시말하면, AVI와 ASF의 화질차는 없습니다.

또 간단한 예를 들자면 어떤동영상이 처음시작부분에 10초정도의 그냥 껌정화면이 있다고 합시다. avi쪽에서 VBR로 인코딩하면 실제로... 50~100kbps사이의 값으로 인코딩됩니다. (더높은 비트레이트를 줘도 그이하로 됩니다. 역시 VBR적 특징입니다)
asf를 3Mbps로 인코딩하면... 3Mbps로 인코딩됩니다.
(즉 낭비가 심합니다.) (알고리즘 자체가 틀리기 때문입니다만..)
하지만 asf에서도 100kbps정도밖에 쓰지않습니다. 나머지 2.9Mbps정도는 빈공간으로 가득차있죠
[도식화 500kbps)
원본프래임 <---복잡---><---단순---><---복잡--->
AVI변환   <--500kbps--><--100kbps--><--500kbps-->
ASF변환   <--500kbps--><--500kbps--><--500kbps-->
비교ASF   |    손실없음    |   400kbps낭비    |    손실 없음    |
복잡: 움직임이 많음 (1Mbps)
단순: 움직임이 거의 없음 (100kbps)

10.  AVI 압축코덱 (Windows) Codec

: 출처
일반적으로 코덱은 비디오 파일을 압축하는 방식을 말하는데, 음악파일을 압축하는 방식이 거의 MPEG로 통일되어간다면 동영상 쪽은 춘추전국시대라고 할 수 있다. 이는 제조회사별로 다른 압축 방식을 쓰기 때문인데, 음악파일(MP3나 RA파일 등)이 소프트웨어적으로 제작되고 재생되는 반면에 동영상은 하드웨어적으로 제작되고 재생되는 경우가 많기 때문. 그렇다고 통일된 규격이 없는 것은 아니다. 가장 많이 쓰는 압축방식에는 인텔사의 인디오(5.0)과 에플사의 MOV. 인디오가 IBM의 규격화한 압축방식이라면, MOV는 매킨토시에 규격화한 압축방식이다. 그러나 현재는 이러한 제한없이 양쪽 컴퓨터에서 아무런 문제 없이 사용한다. 또한 이 두가지의 압축방식에 도전장을 내고 있는 것이 MPEG와 M-JPEG입니다. MPEG는 비디오 CD를 제작할 때 주로 사용되는 반면 M-JPEG는 비디오 테잎을 제작할때 많이 쓰인다. 거의 웬만한 캡쳐보드는 M-JPEG을 지원한다
Video for Windows가 제공하는 압축 코덱은 RLE와 Microsoft Video, Intel Indeo, 그리고 Cinepak 모두 4가지가 있다.
1) RLE (Run Lengh Encoded)
2차원 애니메이션 제작에 효과적이며 일반 비디오에는 사용할 수 없다. 다른 코덱에 비해서 압축 효율성은 떨어지나 영상의 수평층(Horizontal Band)에서 유사한 색상의 길이와 깊이를 기억하는 방식의 압축 알고니즘을 사용. 그래서, 많은 영역에 걸쳐 같거나 유사한 색상을 사용하는 애니메이션을 압축하는데 많은 효과를 볼수 있다. 그러나 8비트 이상의 영상은 압축할수 없다는 것이 단점.   

2) MIcrosoft Video
RLE와는 다르게 8비트는 물론이고 16비트, 24비트의 영상까지 압축할수 있다. 뛰어난 Quality와 압축률이 장점이나 압축률을 너무 높이면 이미지가 끊어지고 파일의 용량도 많아지는 단점이 있다.

3) Intel Indeo
인텔에서 개발한 코덱으로 여러 버전이 있다. 시네팩과 함께 널리 사용되고 압축 시간이 시네팩보다 빠르다. 16 비트 칼라에 효과적이다.
24비트로 이미지를 압축했을 경우, 시스템이 24비트로 설정 되있지 않더라도 마치 24비트 처럼 좋은 Quality의 영상을 재생할 수 있다. 특히 16비트나 24비트의 파일을 압축하고 재생할 경우 더욱 진가가 나타난다. 그러나, 다른 코덱에 비해 버전업이 느리다는 있다. 요즘에 시디롬 타이틀은 이것으로 많이 제작된다.  

4) Cinepak
래디우스(Radius)에서 개발된 코덱으로 압축에 많은 시간이 소용되나 가장 높은 압축을 할 수 있다. 256 칼라를 사용할 경우에 특히 효과적이다. 일반 압축 알고니즘과는 달리 다른 Asymetrical이라는 알고니즘을 이용하며 압축 시간이 비교적 다른 코덱에 비해 오래 걸린다는 단점이 있지만 압축된 영상을 재생시 다른 코덱에 비해 빠르게 압축을 풀어준다는 점과 뛰어난 압축률과 좋은 Quality를 얻을수 있다는 장점 있다. 또, 위의 네가지중 파일 용량을 가장 적게 만들어 준다. 그래서 주로 CD-ROM 타이틀 제작시 많이 사용 된다. 역사가 아주 오래되었다.

+참고 : 현제 윈도우에 깔려있는 코덱 알기
시작 -> 설정 -> 제어판 -> 멀티미디어 -> 장치 -> 비디오 압축 코덱

(3)-11 MJPEG (Motion JPEG-MJPEG)
-출처 : (글: Bernd Fischer , Udo Schroeder)
MJPEG라는 말은 "Motion JPEG" 라는 단어의 단축형이다. 이 포맷은 실질적으로 스틸 이미지와 비디오 포맷의 중간적인 단계이다. MJPEG 클립은 JPEG 이미지의 연속이다. 이것은 왜 포맷이 비디오 에디팅 카드와 시스템에 사용되는 이유를 설명해 주는 것이다. MJPEG 는 모든 이미지에 사용될 수 있는 압축 방법이다. Fast의 AV Master 나 Miro의 DC 50 이나 엄청나게 비싼 매트록스의 Marvel 제품 시리즈 같은 비디오 에디팅 카드는 표준 TV 신호로부터 30 MB/s에서 6 MB/s (MJPEG 파일)을 만들어 낼 수가 있다. 여기서의 압축 비율은 5:1 이다. 어쨌든, 레코딩하는 동안의 비디오와 비디오 데이터의 동조를 위한 표준은 MJPEG 포맷에서는 사용되지 않았다. 따라서 비디오 에디팅 카드를 만드는 제조회사들은 자기 자신들의 도구를 만들어야만 한다 .

(3)-12 DIVX 분석 : 나우MANSA 게시판 yute(김정수)님의 글 인용. 편집
요세 DIVX라는 코덱이 떠들석 한데..(DVD코덱이라고..)
이 코덱은 MS사의 MPEG4-3코덱과 완전 동일한 것입니다.
다시말해, 자료실에 많이 올라와 있는 저용량 MPG4-AVI와 똑같은 것이지요.
원래 DivX 의 의도(? 좋든 나쁘든간에)는, MS 에서 코덱 버전업을 하면서
'고의로' AVI 에서 사용하지 못하게 한 것에 대해서...
별도의 이름과, 별도의 인식코드(FOURCC 라고 합니다만)를 바꿔서,
버전업이 되더라도, DivX 라는 것으로 해놓으면 그 코덱은 그대로 쓰게
되니까, 계속 볼수 있다...라는 의미로 만들어진 것입니다.
(물론, 결국은 이것도 MS-MPEG4 코덱의 AVI 방지 부분을 빼낸 것이니...
그냥 크랙하는 것보다 번거롭기만 하고... 왜이러는지 이해해주기 힘들지만...)

-코덱의 파일 용도
*.dll - 구 API(Windows 3.1 때부터 쓰이던) 용 코덱
*.ax - 신 API(Active Movie, Windows Media) 용 코덱

구 코덱은 W98 까지에 들어있는, Media Player 나, 기타 AVI 플레이 프로그램들에서 사용되는 것이고... (Windows 디렉토리의 system.ini 에 설정문구를 넣어주어야 합니다만...)
신 코덱은, Active Movie, Windows Media Player 2 등에서 쓰이는 것입니다. 요즘은 보통, 액티브무비나, 미디어플레이어2 가 깔리기 때문에, 디코딩(플레이)은 ax 로 하게 되는데...
dll 이 함께 있는 경우는... 대부분의 AVI 제작, 편집기가, 구 API 를 사용하기 때문입니다.

- MPG4-3와 DIVX의 비교
a) 에서, Windows Media Tools 4.1 이라는 것을 받으십시오. (나중에 버전업 될지는 모르지만, 아직까지는 같습니다.) 설치하시거나, 재주껏 파일을 풀어보시면, MPG4C32.dll 의 최신버전 (이 들어 있습니다.

b) 크랙된 MPEG4 코덱을 구합니다. (DivX 홈페이지의 설명에도 이것을 베이스로 했다고 나옵니다만... 어쨌건, 중간단계(?) 설명을 위해서...)
(아, 여기에는 ax 도 당연히 크랙되어 있습니다.^^)

c) DivX 코덱을 구합니다.
자 이제 비교를 해봅시다.
도스에 기본적으로 있는 fc 라는 것을 쓰거나, 기타 툴을 사용하셔도 됩니다.
(fc 의 경우라면, fc/b 파일1 파일2 > dif12.txt 식으로 하시면, 차이가 나는 부분이 dif12.txt 라는 파일로 나옵니다.)

b) 의 설명을 보시면, 기본 전송률, 키프레임률 설정 주소도 나옵니다.

a) 와 b)
            a)  b)
00000AC6: A7 97 : 기본전송률 3000kbps -> 1500kbps
00001EAF: 08 01 : 키프레임   8초      -> 1초
00002407: 75 EB : AVI 체크
00002AE0: 75 EB : AVI 체크
00039435~: 여기는 '리소스'라고 해서, 대화창, 문자열 등이 들어가는 부분으로...
단지, Microsoft 를 Microcrap 등으로 고쳐서, MS 에 대한 반감을 표시한 부분입니다.

이렇게, 기본설정값 약간과, AVI 체크루틴(버그가 아니고, 고의로 넣은)을 고친... 정도입니다.

b) 와 c)
            b)  c)
000000E9: 7A 7C 데이터 부분의 길이 리소스 변경으로 인해서 바뀐 것입니다.
00000120: 2F CF
00000121: 6A 27
00000122: 06 07 체크섬 역시 파일 변경과, 리소스의 변경으로 인해서 바뀐 것입니다. (제대로 하려면 위의 것도 체크섬을 바꿔야 합니다만...)
00000218: 58 00
00000219: 09 10 리소스의 길이, 역시 리소스 변경으로 인한 것
00000221: 0A 0C 역시 길이... 역시 변경으로
0000024D: 20 22 재배치 테이블의 위치... 리소스 변경으로 약간 뒤로 밀렸습니다.
00000AC6: 97 8C 전송률, 이 값이, b 의 설명에 있는... 값들이 아닌 이상한 값으로 되어서... 표시되는 전송률과 생성되는 전송률이 다릅니다. (DivX 코덱이 같은 설정해도 파일이 더 작게나온다는 분들... 한번 생각해보세요... '화질' 설정이 아니고, '전송률'설정인데... 당연히 비슷하게 나와야지... 엉뚱하게 나오는 것이 제대로 된 것입니까? 1500kbps 로 했는데, 500kbps 로 나온다거나...)
00001EA8: 4B 64 Crispness(75%->100%) 이것은 움직임이 많아서, 전송률이 딸릴 경우
화질을 유지하고, 프레임을 잘라먹을 것인지, 화질을 떨어뜨리고 프레임을 유지할 것인지...의 설정으로... low motion 코덱이라고 '이름을 붙인' 것에 걸맞게... 화질위주로 설정된 것입니다.
00001EAF: 01 0A Keyframe(1초->10초) 원래는 8 초 였지만, 크랙에서 1 초로 했던 것을 10 초로 늘인 것... 키프레임 간격이 넓으면, 플레이중에 '이동'을 하거나 하면... 그에 대한 반응이 늦어지는 대신에 실 압축률은 증가하게 됩니다.

이렇게 설정 바뀐 것 외에는, MPG4 -> DIV1, MP42 -> DIV2, MP43 -> DIV3 로
코덱아이디(FOURCC 라고 합니다.)를 바꾼 것들...

그리고, 마지막으로, 리소스를 바꾼 것 뿐 입니다.
('글자' 바꾼것들 뿐입니다. MPEG4 코덱을 DivX 코덱이라거나...)

또한 예전에 제가, 뒤에 약간 추가된 것이 있는 듯하다...
라고는 했었습니다만... '완전한 쓰레기'일 뿐입니다.
PE 파일 구조상 완전히 무시하는...(보통 디버그정보 등을 넣는 곳)
동일합니다. 설정 다른 것 빼고는...
fast motion 코덱...이라는 것은, MP43 를 DIV4 로 바꾸고,
설정을 Crispness 를 0% 로 한 정도입니다만... 약간 구버전의 코덱이기 때문에
바이너리 비교는 불가능합니다.(구버전이 없어서...)

1. AVI 파일재생
대부분의 AVI파일은 MPG4-3포멧입니다. 원래는 ASF용 포맷방식이었는데 이걸 일반 AVI화일에 사용한 것입니다.
(제가 ASF보다 AVI를 선호하는 이유는 같은 화질의 ASF보다 약 1/5이상 더 용량이 적습니다. ASF:120M -> AVI:96M 그리고 안정적이고 더 빠르고 파일복구가 가능합니다. )
제일 먼저 AVI화일을 플래이 하기 위해서는 그에 필요한 프로그램을 다운 받으셔야 합니다. 제일 간단한 windows media player 6.x 버전을 자료실에서 다운 받습니다. 그리고 설치합니다. 이미 설치하셨다면 다시 설치하실 필요가 없습니다.
AVI 파일을 보기위해서는 mpg4ds32.ax라는 파일이 필요합니다. 이 파일이 윈도우 시스템 디랙토리(c:/windows/system/)에 위치해야 합니다.
이 파일은 시스템 파일이기 때문에 숨겨져 있어서 일반 윈도우 설정에서는 파일을 보실수가 없습니다.
먼저 "시작 -> 설정 -> 폴더옵션 -> 보기 -> (숨김파일)모든파일 표시"를 선택합니다.
각종 자료실에서 mpg4ds32.ax라는 파일을 다운 받습니다.
이제 다운받은 mpg4ds32.ax파일을 "c:windowssystem" 디랙토리에 카피합니다.
만약 같은 파일이 존재한다면 덮어쓰기를 선택하십시오.

-windows media player 6.0를 설치한다
-폴더옵션의 보기에서 모든 파일보기를 선택한다.
-mpg4ds32.ax라는 파일을 자료실에서 다운받는다.
-다운받은 mpg4ds32.ax파일을 "c:windowssystem" 디랙토리에 카피한다.
+ 이래도 안될 경우!!
맨 처음 실행할 경우 안될수도 있습니다.
그럼..먼저 ASF코덱을 받는다.(인터넷을 연결한 상태에서 ASF파일을 실행시키면 됩니다.)
그리고 AVI코덱을 받는다.(인터넷을 연결한 상태에서 AVI파일을 실행시킨다.)
코덱을 다운 받았는데도 실행이 안된다??라는 표시가 나오면 위 순서에 따라 mpg4ds32.ax파일을 덮어쓰십시오.
+ 참고 Windows NT/Windows 2000
제가 NT와 2000이 없어서 잘모르겠지만 같은 방법으로
"c:windowssystem32" 와 "windowssystem32dllcache"
디랙토리에 mpg4ds32.ax파일을 복사하면 된다는군여.
+ 참고 mpg4ds32.ax파일에 대해
이건 코덱파일입니다. 등록정보를 보시면 코덱의 버전정보를 아실수 있을겁니다.
이왕이면 최신코덱으로 깔아 보시는 것이 좋을겁니다.

참고로 avi에관련된 코덱을 전부다 설치해야만 볼 수 있습니다.
어떤 형식으로 포맷되어 있는지 모르기 때문이죠

2. DAT파일 재생
DAT 파일은 Window media player로 실행하실 수 있습니다.
최신버전을 설치하시는 것이 좋습니다. 참고로 재생이 되지 않는 것은 Xing mpeg player로 보실 수 있습니다.

3. MOV파일 재생
Quick Time player를 써보세요 거의 모든 mov파일은 다 재생이 됩니다.
아주 안정적이라 할수 있습니다. 확실히 동영상의 표준답다고 할까요..
또 등록을 할경우 mov -> avi화일로 바꿀 수 있습니다

4. RA, RM파일보기
Real player 라는 프로그램을 사용하면 됩니다 300kbps이상은 Real player 7.0이상에서만 작동됩니다

5. SMI재생, 자막 파일재생!!
*.smi 파일들은 대부분이 자막파일입니다. Real 용과 AVI용 두가지가 있습니다.

- Real용은 실행화일까지 모두 3가지 파일로 이루어져 있습니다.
예를들면 nadia.rm 이라는 파일의 경우 nadia.rm nadia.rt nadia.smi라는 3가지 파일로 나누어져 있습니다.
nadia.rm : 자막이 없는 동영상 파일
nadia.rt : 실질적인 자막파일
nadia.smi : 자막파일과 동영상파일을 묶어주는 파일
이 경우 nadia.smi파일에 적혀있는 설정과 동영상&자막파일의 파일명이 일치해야합니다.
만약 일치하지 않는다면 파일명을 변경하거나. 메모장으로 nadia.smi파일을 열어 변경하실수 있습니다.
간단한 예를들면 "nadia.smi"의 아래부분을 정확히 적어주셔야 합니다.
<video src="nadia.rm" id="Video" region="Video1" title="Video"/>
<text src="nadia.rt" id="Caption" region="Text1" title="Caption"/>
자막을 보실려면 nadia.smi파일을 real player로 실행하시면 됩니다.

- AVI파일의 경우 모두 2가지 파일로 이루어져 있습니다.
예를 들면 kurumi.avi파일 의 경우 kurumi.avi kurumi.smi 라는 2가지 파일로 나누어져 있습니다.
kurumi.avi : 자막이 없는 동영상 파일
kurumi.smi : 실질적인 자막파일
이때 자막파일(smi파일)은 동영상 파일과 파일명이 일치해야 합니다.
자막을 보시려면 같은 이름의 자막파일과 동영상파일을 같은 디랙토리에 놓고 windows media player의 보기에서 캡션기능를 선택합니다.(alt+v -> alt-a)
이제 동영상 파일을 windows media player를 이용하여 실행시키면 됩니다.

- ASF파일의 경우!!
이 경우 왜 안되는지는 잘 모르지만 파일명을 AVI파일로 바꾸시고 위 AVI파일의 경우처럼 하시면 됩니다.
윈도우에서는 파일명을 바꿀 때 아주 불편합니다. 저 같은 경우에는 도스를 이용하여 파일명을 바꿉니다.
예를 들어 파일명이 kurumi.asf라면 도스를 열고 파일이 있는 디랙토리로(c:video)이동합니다. 그 후 ren명령어를 이용하여 파일명의 확장자(asf)를 avi로 바꿉니다.
c:windowscd c:video
c:videoren kurumi.asf kurumi.avi
(혹시 cd나 ren같은 기본 명령어를 모르시는 것은 아니겠죠 ^^;;).

6. VIV파일 재생!!
vivo player를 사용합니다. (각종 자료실에 있습니다.) vivo offline이라는 프로그램도 있지만 이것보다 vivo player가 더 좋더군요(vivo offline의 경우 비주얼 런타임을 깔아야 한다니..)
VIV 압축률도 뛰어난 편이고 RM이나 ASF의 경우 서버가 필요한데 반해 VIVO는 별도의 서버가 필요없으며 단지 웹서버만 있으면 작동된다고 하네요.
즉 html문서에 애플릿처럼 삽입되서 작동시킬 수 있습니다.
제가 아는 바로는 윈도우95에서 더 안정적이라고 하더군여.
자세한 것은 ""

7. RAM, ASX 목록 파일 재생
이런 파일 보신적이 있으시죠?
이건 본래 실시간 파일을 위해 경로파일을 만든 것인데요..
이런 목록을 오프라인 상태에서 유용하게 사용하실수 있네요.
(인터넷에서는 짜증이 나네요.-_-;; 저장 못하게 막아놓고)
RAM : Realplayer용 목록파일,
ASX : windows media player용 목록파일, (AVI도 되는 군요)
+ 사용법
저 같은 경우 여러 가지의 비디오 파일을 묶어서 보기 편하게 만듭니다.
물론 경로는 상대경로로 하는 것이 좋겠구요.
이걸 간단히 만들어 주는 프로그램이 여러 자료실에 올라와 있을겁니다.
( video playlist editer : 찾기 힘드실지도 모르겠네요..)
만약 프로그램이 없을 경우에는 메모장으로 간단하게 만들 수 있죠.
파일 경로나 파일명을 넣으면 됩니다.
간단한 예를 들면
- 파일명이 RM , RA일 경우
egg1.rm , egg2.rm , egg3.rm이라는 3개의 파일이 있을 경우
메모장을 열고
이렇게 차례대로 쓴후에 egg.ram이라는 파일명으로 저장하시면 됩니다.

- AVI나 ASF의 경우도 RM과 사용법이 거의 똑같습니다.
egg1.asf , egg2.asf , egg3.asf이라는 3개의 파일의 경우
마찬가지로 메모장을 열고
ASF Path   ←이것만 더 써주면 되요.
이렇게 차례대로 쓴후에 egg.asx라는 파일명으로 저장하시면 됩니다.
+ 절대경로를 사용하면 편하기는 하지만 경로가 바뀌면 쓰질 못합니다.
(위에 꺼는 상대경로임..)

8. VOB파일 재생
DVD 돌비 디지털 파일, POWER DVD2.5를 사용하시면 DVD롬이 없이도 소프트적으로 재생해줍니다.
그 외에도 소프트적으로 실행해주는 프로그램이 제가 알기에는 유명한 것이 3가지 정도있다고 들었습니다. (power DVD로 재생이 되지 않으면 딴 것을 써야겠지요)
+ 참고 : 각각의 DVD소프트의 장단점 (
1) PowerDVD V2.5
최적화 그래픽 칩셋 :
ATi Rage Pro chipsets (Rage 128은 지원이 안됨)
SiS6326 DVD
S3 Savage3D/Savage4 chipsets
4채널 지원 사운드 카드 칩셋 :
Fortemedia FM801A
Cmedia CMI8338/8738
FIC Maestro-2E
Sound Blaster Live 계열의 카드
PCI128, PCI64
K-128 (훈테크 사트 디오에 사용된 DSP)
장 점
4채널 다운믹싱 지원
몇 종류의 사운드 칩셋에서 6채널 출력 지원 (ForteMedia 801 등)
샤블 라이브! 계열의 사운드 카드에서 AC-3 출력 (with Liveware 3.0)
설치 및 사용이 편리
아나몰픽 2.35 : 1 화면을 1.85 : 1로 확대 가능
전폭적으로 개선된 화질
단 점
CPU의 자원을 많이 차지
REWIND 기능이 지원되지 않는다!
챕터 선택이 프론트 메뉴에 없어 매우 불편

2) WinDVD V2.0 (2K)
최적화 그래픽 칩셋 :
ATI Rage Pro
SiS6326 DVD
S3 Savage3D/Savage4 chipsets
4채널 지원 사운드 카드 칩셋 :
SB Live! 계열
ForteMedia 801
장 점
낮은 CPU 점유율에 비해 높은 화질 구현
4채널 다운믹싱 지원 (SB Live!, MX300 등)
iDCT 가속 지원
Windows 2000(?) / Windows NT 지원
단 점
멀티미디어 코덱(codec)을 독점하기 때문에 MP3 파일 재생 등에 문제 발생
번들이 제공되는 하드웨어 제조사에 따라 상이한 버전 존재
윈DVD로 유명한 인터비디오에서 리눅스용 소프트플레이어를 발표했다더군요.
제품명은 LinDVD..

3) Cinemaster Engine (주의: cinemaster engine은 단지 디코딩 엔진일 뿐이다!.)
최적화 그래픽 칩셋 :
ATi Rage Pro/ATI Rage 128 chipsets
Intel Whitney/Portola
ST Riva128DV
S/PDIF 디지탈 출력지원 사운드 카드
Vortex2 칩 기반의 카드 (MX300, Xitel Storm Platinum)
SB Live! (with Live!Ware 2.0) 
장 점
현재 가장 빠른 디코딩 엔진이다.
ATI의 Hardware Motion Compensation과 iDCT 가속을 지원한다.
Pentium-III의 Streaming SIMD 지원
몇 종류의 사운드 카드에서 S/PDIF 디지탈 출력 지원
단 점
오버레이를 지원하지 않는 그래픽 카드 (예를 들면, Millenium II)에서는 작동이 되지 않는다. 몇 종류의 듀얼 레이어 타이틀(예를 들면, Bug's Life)에서 메뉴가 보이지 않는다.
시네마스터의 프론트 엔드 (Front End) 플레이어
QI (Cinemaster) PLAYER V1.6 < >.

1. AVI나 ASF편집툴
동영상 툴을 몇 개 소개 해 보겠습니다.
자주 사용되는 툴은 Virtual Dub, Stream Anywhere 라는 프로그램 등이 있습니다.

- Windows Media Tools
마이크로소프트사에서 만든 공개 인코딩 프로그램!!
주로 AVI화일을 ASF화하는데 쓰입니다. MPG는 사용불가능 합니다.
이것도 마찬가지로 MP3같은 압축 음성은 지원을 안하네요.
그외 부수적인 유틸 몇개가 있군요.
1) Windows Media Encoder
2) Windows Media ASF Indexer : ASF에 자체적으로 자막을 넣을수 있더군요.
3) Windows Media Author
4) Windows Media command-line utilites : 이건 도스용이구요. 도움말을 확인하세요,

- Virtual Dub
이 프로그램은 공개이고 mpg를 asf이나 압축된 avi파일로 바꿀 수 있습니다.
virtual dub을 깔기 전에 먼저 window media tool를 깔아야 사용 가능합니다. windows media tool를 설치후에 코덱 파일 mpg4c32.dll이라는 파일을 "c:windowssystem"의 디랙토리에 카피 해야 합니다
바로 DAT화일을 편집할수 없기 때문에 vcdcutter이나 이외 다른 mpg프로그램을 이용하여
DAT -> MPG한후에 편집하셔야 합니다.

- Stream Anywhere
이 프로그램은 정확히 공개가 아닙니다. (과자가 필요하다고 할까요..)
이 프로그램은 DAT파일이나 mpg파일을 읽어서 바로 asf나 rm으로 바꿀수 있습니다.
하지만 DAT의 경우 읽는 속도가 아주 느립니다. 마찬가지로 vcdcutter로 DAT->MPG하신후에 편집하시는 것이 좋습니다

2. AVI <-> ASF
- ASF -> AVI
대부분 저는 ASF->AVI로 바꾸는데 사용하고 있습니다.
물론 용량이 AVI가 더 적기 때문입니다. virtualdub을 사용하시면
화질의 변화없이 변환 가능 합니다.
먼저 virtual dub을 설치 합니다.
예를들면 egg.asf라는 파일을 virtualdub을 사용하여 열고 video -> direct stream copy를 선택하고 마찬가지로 audio -> direct stream copy를 선택합니다.
file -> save avi를 선택 하고 저장하면
egg.asf -> egg.avi로 저장할수 있습니다.

- AVI -> ASF
이 경우에는 Windows Media tools를 사용해야 합니다.
windows media tools에서 command-line utilities 라는 것이 있습니다.
자세한 것은 windows media tool의 도움말 항목을 참고하십시요.
dos창을 열고 윈도우 메이아 툴이 설치된 디랙토리를 이동합니다.
예를들면 다음과 같이 이동합니다.
C:Program FilesWindows Media ComponentsTools
C:ProgramFilesWindows MediaComponentsToolsvidtoasf
여기서 명령어 "vidtoasf" 명령어를 치면 사용법이 나옵니다.
간단히 말해서..형식은 이런식으로 하시면 됩니다.
VidToASF -in {filename.avi |} -out filename.asf
즉, 비디오 파일이 egg.avi파일일 경우에
"vidtoasf -in egg,avi -out egg.asf"
+ 주의!! 오디오 포맷이 압축포멧의 경우 지원을 하지 않더군요..
- 오디오 포맷이 MP3의 경우
이 경우 코덱을 깔아주면 해결됩니다.
제가 올린 goldwave용 mp3코덱을 깔아주시면 변경이 가능합니다.
- 오디오 포맷이 windows media v2일 경우
Virtual Dub을 사용하여 사운드 부분만 재포맷을 해주어야 합니다.
사운드를 MP3로 재 포맷을 해주면 용량도 거의 변화 없을 겁니다

이 경우는 비디오 시디를 압축할 때 쓰는 방법입니다. 먼저 vcdcutter을 받으세요. 물론 이경우도 vcdcutter는 일반사용자는 사용에 제약이있어서 키를 입력해야합니다. (즉 과자가 필요함)
- vcdcutter
DAT -> MPG 하거나 하나의 MPG를 여러조각으로 나누는 것이 가능합니다.
먼저 압축하기전에 mpg로 변경해야 합니다.
물론 충분한 하드공간이 필요합니다.
이 변경된 mpg를 VirtualDub이나 Stream anywhere로 ASF화 합니다.

- VirualDub
편집용이 , ASF -> MPG4-AVI 프래임 래이트가 잘 맞는다.
사운드와 비디오를 자를수 한꺼번에 편집가능
+ 참고
고 용량의 동영상을 압축할 때 사운드가 느려지는 현상이 있다고 하네요.
이 경우 옵션을 맞추면 해결된다고 합니다.
( Audio -> Interleaving -> "enable audio/video interleaving"의 체크부분을 없앤다. )
But 사운드상 문제..

- Stream Anywhere
편집보다는 주로 ASF를 인코딩하는 것을 목적. mpg을 빠르게 인코딩
사운드와 비디오를 모두 ASF전용으로 포맷. 프래임을 줄이기 용의
예를들면 29.97프래임 -> 15프래임
But 편집에는 약세.. 압축AVI는 지원안함.(당연한가??), 프래임 레이트

4. TIP!!
ASF의 경우는 파일이 손상시에 복구는 불가능하지만 볼수는 있습니다.
(심하게 손상될 경우 볼수 없더군요, 주로 중간에 깨진 경우..뒷부분이..)
그리고 AVI화일의 경우 파일이 손상되었을 경우 복구할 수가 있습니다.
원리는 망가진 부분을 버립니다.
virtualdub을 사용하시면 됩니다.
예를 들면 어떤 55메가 용량의 동영상이 54메가정도만 있을 때 ASF의 경우는 복구는 불가능하지만 볼 수 있습니다. AVI의 경우는 virtualdub으로 편집해서 direct stream copy하시고 저장 하시면 복구가 가능합니다. (이경우엔 10~30초정도 걸리는군요) 하지만 문제점도 있습니다. 이 경우는 사운드의 경우 복구가 불가능 합니다. 즉 사운드가 나오지 않습니다. (사운드도 복구되는 경우가 종종 있지만 ^^;;)
단, AVI화일의 사운드가 MP3포멧이 아닌 ASF의 포맷일경우 사운드도 복구가 가능합니다.
중간에 파일이 씹힌 경우!! 자료전송에 문제가 발생한 경우 AVI화일의 경우는 사운드와 비디오 모두 복구가 가능합니다. ASF의 경우 물론 복구는 불가능하죠

5. RM제작 : 압축된 AVI,ASF -> RM으로..
음..저의 경우에는 RealProduce 7.0을 씁니다. Stream anywhere는 별루 안쓰죠.
그리고 MPG -> RM 하기보다는 압축된 AVI,ASF -> RM으로 만듭니다.
즉, 화질에 비해 용량이 많이 차지하는 경우에 사용합니다.
예를 들면 "23분짜리, 영어자막, 화질 중급, 80메가정도" 이경우에 RM(220bps)로 만들면 한 30메가 정도 밖에 안됩니다.

-Stream anywhere
스트림 에니웨어의 경우 압축된 AVI화일의 경우에 에러가 있더군여 RM의 경우에는 스트림으로 만드시면 에러가 좀 납니다.(가끔씩 런링타임 23분->1시간으로..-_-;;)
주로 MPG -> RM 으로 할경우에 사용하시면 됩니다.(이 경우는 에라가 없군여.)

-Real Producer 7.0
이 경우는 약간 편집을 해주어야 합니다. 왜냐하면 AVI화일을 읽기는 하는데..압축된 음성화일을 읽지 못하더군여. VirtualDub으로 음성화일만 변경시켜주시면 됩니다.

필요한 도구들.,.
1) VitualDub 1.3a
2) RealProducer 7.0

하나) 예를들면 ok.avi라는 파일이 있습니다. 이걸 VirtualDub을 이용하여 엽니다.
Video -> direct stream copy를 선택하고 audio -> full processing mode를 선택합니다.
먼저 audio -> conversion을 선택하여 음성 비율(sampling rate)를 선택합니다.
어짜피 RM로 만들꺼니 그렇게 안높아도 됩니다. 원본과 같게 선택하거나 약간 낮추어 선택하시면 됩니다. (저같은 경우: 22050Hz) audio -> compression을 선택하여 맨위에 있는 <no compression (PCM)>을 선택합니다. 그리고 "save AVI"하면 됩니다.
ASF의 경우도 마찬가지로 똑같이 하시면 됩니다.

둘) 이제 Realproducer 7.0을 엽니다. RealProducer의 경우 맨처음에 설정을 해 주셔야 합니다. Option -> preformance -> video filter -> resize filter -> High Quality Resize를 선택 합니다. new session -> record from file을 선택 합니다.
레코딩 마법사인가..아마 자동으로 체크만 하시면 될겁니다.
file type -> Single-rate for Web servers를 선택!!
Taget audience -> DSL/Cable Modem을 선택합니다. 이경우가 바로 (220bps입니다.)
사운드가 스테레오일 경우 audio format -> stereo music을 선택
video quality -> normal motion video를 선택
파일명을 정한후에 Start버튼을 누르면 무슨 경고문 같은 것이 나오는 데..
이걸 NO하시면 인코딩 됩니다.(yes는 하지 마시길..-_-;;

6. RA, RM파일은 편집 할 수 없나요?
저도 바로 편집할려구 각종 노력을 해보았고 유틸을 찾아 인터넷을 뒤지고 다녀봤지만 그건 불가능 한 것 같습니다. 일반적인 편집으로는 불가능 하고 캡쳐하는 방식으로 사용해야 합니다.
필요한 도구들..

1) realplayer : 전 realplayer plus 7.0 를 기준으로 설명!!
2) hypercam 1.51 : 캡쳐 프로그램. 아무거나 상관은 없습니다. snagit같은것도 좋을듯
3) total recorder : 자료실에 제가 올렸습니다.-_-;받아보세요..
4) goldwave : 이것두 자료실에 있답니다.
5) VirtualDub : 자료실에 있습니다.
6) 충분한 하드용량 - 한 1기가 정도가 편집시에 필요합니다.

첫째) 제가 고생 했던 부분인데 리얼을 그냥 캡쳐하면 보라색화면만 보일것 입니다..
-_-;;알고보니 옵션을 약간 변경해줘야하더군여.
realplayer를 엽니다.
view -> preferences -> performance -> video card compativility 에서
Use optimized video display의 체크부분을 없앱니다.

둘째) hypercam 이나 snagit 같은 프로그램을 상용 자료실에서 다운 받으세요..
hypercam의 경우는 키를 넣어야하니 -_-;; snagit이 좋을 듯하지만.
(hypercam 1.51)
user :
license type - unlimited World-wide license

셋째) 캡쳐를 해야겠죠..screen area에서 select windows로 캡쳐부분을 지정하고
리얼플래이를 실행 시키고 재빨리 start Rec(F2)을 눌러 ^^:; 캡쳐 합시다..
(먼저 캡쳐실행후에 리얼실행하는 것이 편집시 용의합니다.)
캡쳐에는 주로 MJPEG코덱을 씁니다. 압축률도 괜잖고 무엇보다 속도가 괜잖죠.
캡쳐후에는 Virtual Dub으로 MPG4-3코덱으로 다시 인코딩 해야합니다.
picvideo라는 코덱이 있는데요..세어웨어라서..등록을 해야 합니다. 라는 곳에서 구할수 있습니다.

(PICVideo MJPEG Codec 2.1)
Decompressor Name: The GodFader
Ser#: 180673563
Compressor   Name: The GodFader
Ser#: 167486506

넷째) 물론 사운드 캡쳐두 해야지요 ^^;; 왜냐구여? 위 캡쳐프로그램은 비디오만 캡쳐 가능하구요..RA2WAV 2.003가 있스면 그걸루 RM -> WAV 롤 바로 바꿀수 있지만 없다면 자료실에 있는 TOTAL RECODRDER를 사용하시는 것이 좋군여 ^^;; 이건 사운드 캡쳐 프로그램인데..프로그램에서 사운드카드로 가는 데이터를 직접 녹음하기 때문에 깨끗하게 캡쳐 가능합니다. 먼저 total recorder에서 녹음을 누른후 리얼을 실행 합니다.
그러면 사운드가 wav화일로 캡쳐 될것입니다. 하지만 wav화일이 크기가 크기 때문에..
300~400메가 정도 될까 ^^;; 이것을 mp3코덱으로 압축 해주어야 합니다.
그러면 한 15~50메가로 줄어듭니다.(전에 화일은 지워주시구여..)

다섯째) 자료실에 있는 goldwave를 받습니다. 이건 사운드 편집 프로그램 입니다.
이걸로 넷째번에 캡쳐했던 wav화일을 불러와 save as에서 mp3코덱을 선택해서 압축 저장을 합니다.
(모르시면 해보시길 바랍니다..)
이걸루 편집도 할수 있으니 불필요한 부분을 자르세요..

여섯째) 아직 저도 다섯째까지 밖에 안해봤습니다. 먼저 캡쳐한 avi화일(사운드가 없는)에
압축한 wav화일을 끼워 넣어야 하겠죠.. 사운드랑 avi화일의 타임이 일치하지 않으면
-_-;;화면과 사운드가 따로 놀수있습니다.
VirtualDub 으로 시간에 맞게 자릅니다. 이때 비디오를 direc stream copy로 하셔야 합니다.
avi화일을 사운드와 시간을 맞춘후에 VirtualDub을 이용해 avi + wav -> avi화 합니다.
전에 소개했던 avi 유틸모음보다 virtualDub이 더 간단하군여..
예를 들면 : ex.avi ex.wav 화일이 캡쳐한후 손본 화일일 경우..
먼저 VirtualDub으로 ex.avi파일을 불러옵니다. audio -> wav audio 하신후에 ex.wav파일을 불러옵니다. 그리고 video, audio 모두 direct stream copy로 지정하고 저장(save as) 하시면 됩니다.

- Realplayer의 욥션을 변경한다.
- 캡쳐프로그램을 이용하여 캡쳐한다.
- Totalrecorder를 이용하여 사운드를 캡쳐한다.
- 캡쳐한 사운드를 mp3코덱으로 압축한다.
- 비디오와 오디오를 알맞게 편집한다.
- VirtualDub을 이용하여 비디오와 오디오를 결합시킨다

7. 여러개의 MPG파일 합치기
iFilmEdit라는 프로그램을 사용합니다.
이걸 사용하면 여러개의 MPG를 합칠 수 있습니다.
음..하지만 별로 추천할만하지는 않습니다. 왜냐구요? 많은 용량을 차지하고 인코딩시에 많은 시간이 걸리거든요..그냥 MPG -> 압축AVI 해서 VirtualDub으로 합치시는 것이 좋을 듯 합니다.

8. MOV파일 합치기
QuickTime 4.03을 이용합니다. 먼저 Quick Time Installer를 다운 받으셔야 합니다.
그리고 등록을 하셔야 편집이 가능 합니다.이 프로그램은 공개이므로 구하기 쉬울겁니다.
먼저 퀵타임 4.03을 다운 받습니다.
인스톨 후에 등록할경우에는
시작 -> 제어판 -> Quick Time -> Enter Registration
등록, 회사에 모두
그리고 등록 번호에 7171-6095-AE12-3923-E456
(인스톨 중에 등록 가능합니다.)
예를 들어 파일과 파일을 합치려 한다면
egg1.mov파일을 Quicktime으로 불러온후에 스크롤를 맨끝으로 놓습니다. 그리고 egg2.mov파일을 왼쪽 버튼을 사용해 마우스로 끌어다가 화면에 놓으면 붙여넣기가 됩니다.
그후 저장(Save as)하시면 됩니다.(정말 쉽죠?)

9 AVI, ASF파일 합치기
VirtualDub 1.3a을 사용합니다.
이 경우 2개의 파일이 프래임레이트와 사운드 포맷이 일치 해야 합니다.
그렇지 않으면 합칠수가 없습니다.(또한 코덱도 같아야하고...)
예를 들면 egg1.avi ,egg2.avi 파일이 있을 경우 egg1.avi파일을 먼저 불러옵니다.
그 다음 file -> append video segment를 이용해 egg2.avi파일을 불러옵니다.
그리고 Video -> Direct Stream Copy , Audio -> Direct Stream Copy로 맞추고
저장(save AVI)하시면 됩니다.
ASF의 경우는 AVI화일로 바꾼후(위를 참고하세요)
합치시고...다시 ASF화 하시면 됩니다.
+ 또다른 방법 : 출처 - 나우만사동게시판
방법은... smart-rendering을 쓰면됩니다
이 방법은 아쉽게도 ulead 독점특어기술로 알고있는데요
그래서 ulead社의 제품만이 smart-rendering됩니다
그외의 어떤것도 렌더링다시안하고는 붙일수가 없습니다
VE나 VS를 사용해서 두파일을 로딩한후 코덱을 똑같이 잡고 붙이면 되겠습니다.
smart-rendring을 키구요
음성은 demux/mux를 혼합할경우 훨씬 정밀한 작업이 가능합니다
VE : Ulead사의 MediaStudio Pro에 포함된 VideoEditor(VE) 
VS : Ulead사의 VideoStudio

10. VIV파일 제작
VivoActive VideoNow v3.0β를 사용합니다. 별루 좋다고는 말할 수 없군요.
AVI파일 밖에 읽지 못합니다.  사운드 MP3포멧을 지원 하지 않습니다.
관심이 있는 분은 신 버전이 나왔을지 모르니 한번 찾아보시길 바랍니다.

11. ASF에 자막넣기 : ASF 스크립트
ASF로되어있는 파일은 거의 일체형이라고 말할수 있네요. AVI파일의 경우 SMI같은 자막파일이 필요하지만 ASF의 경우 파일에 완전히 삽입된다고 볼수있죠.
ASF파일 실행중에 캡션기능만 키면 바로 작동되구요.
하지만 이런 편리함에도 불구하고
버벅되는 ASF파일을 싫어하는 사람들이 더 많은 편이죠.
MPEG4-AVI의 강세라 할까요?
먼저 Windows media tools라는 프로그램이 필요합니다.
-windows media tools
1) Windows Media Encoder
2) Windows Media ASF Indexer
3) Windows Media Author
에서 2번째를 이용합니다. 먼저 windows media ASF Indexer를 이용하여 파일을 open하신후 Edit Script Commands를 이용해 자막을 삽입하시면 됩니다.
먼저 만들어진 자막TXT파일에서 불러올수도 있는데 TXT의 경우 일정한 형식을 가지고 있어야 합니다.

12. AVI용 자막제작
이 부분에 대해서는 길게 말씀드릴만큼 많이 알지 못합니다.
AVI용 자막은 SMI를 대부분 사용하고 계실텐데..
- hoe.exe
나우누리의 이미정님께서 만드신겁니다.
아주 간편하게 TXT파일을 읽어서 편집 저장하면 SMI파일이 됩니다.
주의 할 것은 버그가 있습니다. 한가지 버그가 있는데.
시간에 있는 ms를 저장된 smi파일에서 모두 지워주셔야 합니다.
일반적인 메모장으로 지우시면 에러가 납니다.
그러니 워드패드로 지우시면 좋겠군요.

13. RM용 자막제작
- makert.exe
하이텔의 mossuply님께서 만드신 것이더군요. 아시다시피 RM용 파일은 모두 3개로 나뉘어 집니다. (위의 smi설명을 참고하세요)
egg.rm , egg.rt , egg.smi 이렇게 3개중에서 egg.rt만 생성 되는 것이니(생성되던가..-_-;;) egg.smi를 따로 만드셔야 될겁니다.
이건 메모장으로 간단히 만드실수 있을겁니다. 전에 만들어진 파일을 변경해주셔도 되구요.

(아래를 보세요) <smil>
        <layout type="text/smil-basic-layout">
                <region id="Video1" title="Video1" left="0" top="0" height="240" width="320" background-color="#ffffff" fit="meet"/>
                <region id="Text1" title="Text1" left="0" top="240" height="90" width="320" background-color="#ffffff" fit="hidden"/>
                <video src="egg.rm" id="Video" region="Video1" title="Video"/>
                <text src="egg.rt" id="Caption" region="Text1" title="Caption"/>
; 붉은 색 부분만 변경 해주시면 됩니다.(그리고 egg.smi로 저장!!)
이것은 상대 경로이므로 같은 파일이 같은 디랙토리에 위치해야 합니다.
+ 참고 (노파심에 예를 써봅니다.)
상대경로 : src="egg.rm"
절대경로 : src="c:eggchinegg.rm"
+ 참고 Realplayer 옵션
view -> clip source 하시면 동영상의 사양을 알 수 있습니다.
(물론 height , width을 확인하실 수 있습니다

14. VOB -> AVI : (의 게시판 글에 첨부)

: Writed by
본 메뉴얼은 에 전적으로 의존하였으며,
실제 테스트 결과를 조금 첨부했습니다.

<필요한 프로그램 및 코덱>
1) DeCSS/DODSRipper ( )
2) VirtualDub ( )
3) FlasKMPEG ( )
4) AVI Plug-in ( )
5) DivX ;-) Codec ( )

<절차 1, 2, 3, 4, 5>
1. Divx 코덱을 설치한다. -- 5)
+ Divx코덱을 꼭 설치할 필요는 없습니다. 그냥 일반 mpg4-3코덱을 사용하셔도 됩니다.

2- DeCSS를 이용해 VOB 파일을 하드 디스크에 카피한다.  -- 1)
+이 과정은 DVD의 시디를 vob파일(DVD 옵젝트 파일)로 변환 하는 과정입니다.
vob소스를 사용할 경우 할필요는 없겠죠.

3- FlaskMPEG와 AVI plug in를 이용해 DivxAVI로 변환한다. -- 3), 4)
Decode Audio Mode
PCM compression for Audio
DivX MPEG-4 Low or High for Video
Keyframe to 10 seconds
Compression Control to 100 (Crispness)
Data rate to 1h30=900 2h=750

4- VirtualDub을 사용하여 AVI의 오디오를 MP3로 압축한다. -- 2)
AVI video file / WAV file
Video -> Direct Stream Copy
Audio -> Interleaving -> 500 ms of audio before video start -> Interleave audio every 500 ms
Audio -> Compression -> Choose MP3 at > 96Kbps (or more)
Audio -> Full Processing Mode
+저 같은 경우는 FlaskMPEG로 오디오까지 압축이 가능했습니다. virtualDub까지 쓸필요가 없더군요.

5. AVI 저장!
1. 테스트를 위해 일단 DVD 타이틀에서 1기가 바이트 이하의 용량을 가진 파일을 선택한다.
2. DeCSS로 1기가 파일의 암호해독시 약 8-10분 소요 (펜티엄 400)
3. AVI 변환시 1기가 당 약 4-5시간 소요 (펜티엄 450)
4. 시간이 문제라면, 300메가 이하의 파일도 테스트 가능하다.
5. 이 변환은 반드시 개인적 목적으로 사용되어야 한다.
물론 여기서는 DVIX라는 코덱을 사용했지만 설정에서 mpeg4-3코덱으로 설정해주시면 자료실에 올라와져 있는 압축AVI파일로 저장하실수 있습니다.
(제가 자료실에 올린 DVIX변환기를 사용하셔도 되구요)
그리고 해상도 설정(가로x세로)의 비율을 거의 비슷한 비율로 맞추시는 것이 좋습니다.
그리고 생각보다 시스템을 많이 탑니다. 325x240이 가장 문안합니다.
그 이상은 화면 깨짐이 심하더군요.. 소스에 따라 틀리기도 합니다.
안그러면 화면이 깨져 보입니다..알아두세요!!!

새로운 비디오 전송 기술 IP Multicasting에 대한 이해
김 대 성
(창성미디어기술영업 대리)
대부분의 사람들이 인터넷을 사용하다 보면 다양한 형태의 자료를 접하게 된다. 텍스트(Text)자료에서 그래픽(Graphic)자료까지, 특히 요즘은 비디오나 오디오로 되어 있는 자료를 다운 받아 실행시키거나 실시간으로 방송되는 내용을 직접 보고 들을 수 있게 되었다. 이런 웹(Web) 사이트(Site)나 홈페이지를 방문하다 보면 자주 나

오는 말이 있다. 디지털 비디오, 스트리밍(Streaming) 전송, 주문형비디오(VOD) 또는 멀티캐스팅(Multicasting) 전송 기술 등 과연 이런 언어들의 의미와 어떤 방법으로 비디오 데이터를 전송하는 것일까? 하고 궁금해 했을 것이다. 우선적으로 사용되고 있는 각가지의 언어에 대한 개념에 대해 설명할 것이다. 그리고 실질적으로 IP multicasting의 전송 방법과 현재 많이 알려진 Mbone에 대한 개념의 설명, 그리고 응용 가능한 분야에 대해 언급 할 것이다. 또 실질적으로 적용되고 있고 사용되고 있는 사례를 분석하면서 앞으로 발전될 방향에 대해 다음과 같이 예상할까 한다.
1. 멀티 캐스팅을 이해하기 위한 기본
1-1 디지털 비디오 형식 중 MPEG 이란

지금 사용되고 있는 디지털 비디오란 기존의 아날로그 비디오 신호를 컴퓨터가 인식할 수 있는 0과 1을 이용해 영상 신호로 압축하는 방법을 말한다. 이런 기본 개념을 이용해 발전 되어진 디지털 비디오 압축 방법은 다양하게 있지만 이번호에서는 주로 전송(비디오 데이터의 이동)에 이용되는 MPEG을 중심으로 설명하겠다.
가. MPEG 이란
MPEG은 Moving Picture Experts Group의 약자로 움직이는 화면의 정보를 부호화하는 것을 나타낸다. MPEG은 88년에 ISO/TC97/WG9에서 처음으로 시작되었다. JPEG이 모두 정지화상의 부호화를 대상으로 하고 있는데 비해 MPEG은 동화상 정보를 부호화 하는 것으로서 동화상의 프레임과 프레임 사이에 존재하는 정보의 중복성을 줄여서 보다 높은 압축율을 얻도록 구성되었다. 또 MPEG은 ISO/IEC 표준화 과정에서 비디오 코딩뿐만 아니라 오디오까지 포함한다. 정보량이 큰 동화상을 저장하거나 통신로를 통해 전송하기 위해서는 정보의 압축을 필요로 하기 때문에 개발되었다고 볼 수 있다. 이런 기본 개발 목표 때문인지 MPEG은 대부분의 비디오 전송 기술에 이용되고 있다. 또 MPEG은 그 사용 범위에 따라 MPEG 1에서부터 MPEG 8까지 세분화되어 규정되어 있다.


나. MPEG 압축 방법과 구조
MPEG의 압축 방법 중 가장 큰 특징이라고 할 수 있는 것은 예측과 보간을 이용한 영상 압축 방법이다. 즉 모든 프레임을 개별 정화상으로 압축하는 것이 아니라, 인접 프레임 사이의 동작 보상을 하는데 있어 예측과 보간을 이용해 이전 화면의 모든 정보를 전부 압축 부호화해 저장했다면 다음 화면의 정보를 저장할 때 앞 화면과 바뀐 부분의 정보(차영상)만을 압축 부호화 한다는 개념이다. 그러나 임의 접근과 같은 VCR식 제어( 빨리 보기, 정지, 되감기, 등의 기능 )가 가능해야 한다는 등의 여러 이유로 MPEG 비디오에

서는 자신이 가지고 있는 정보만으로도 복원될 수 있는 프레임이 규칙적으로 삽입되어야 한다. 이러한 프레임은 JPEG과 아주 유사하게 정화상으로 압축되어 진다. 정화상으로 압축된 프레임을 I프레임, 예측만을 한 프레임을 P프레임, 보간을 한 프레임을 B 프레임이라 한다.
1-2 비디오 스트림(Stream)이란 무엇인가
앞에서 간략하게 MPEG에 대해서 알아 보았다. 동영상을 전송 가능하게 압축하는 기술이 표준 포맷이라는 것을 대충은 알게 되었을 것이라 생각된다. 그럼 동영상 전송을 말할 때 반드시 따라 다니는 스트림(사전적 의미: 흐름, 연속되는 것 )은 무슨 의미이며, 왜 중요한가? 해답은 동영상이란 말에서 찾을 수 있다. 즉 일반 텍스트나 그림과 같은 데이터는 전송 또는 작업 중에 끊어짐 있어도 그리 큰 지장 없으나 동영상 같은 경우 중간 중간에 끊어짐이 발생한다면 데이터의 연속성이 상실되기 때문이다. 그래서 비디오 전송에 있어 비디오 스트림의 전송 능력을 가장 중요시 여기며 동시에 VOD 또는 멀티캐스트를 구축 할 때에도 가장 먼저 결정되어야 할 것이 스트림 숫자이다.
2. VOD 와 멀티 캐스팅 방송
정보통신과 PC의 발전으로 인해 MPEG 파일의 재생이 PC에서 가능해지면서 사람들은 정보의 공유에 대해 생각하게 되었다. 즉 1대의 PC에서 한 개의 파일을 재생하는 것이 아니라 여러 대의 PC에서 1개의 MPEG을 공유해 재생하는 것에 대해 생각하게 된것이다. 또 이런 공유 개념에서 출발해 자기가 필요한 시간에 필요한 비디오 정보를 얻을 수 있는 방법에 대해 연구하기 시작했다.
2-1 VOD 와 유니캐스트(Unicast)
언제든지 필요 할 때 보고싶은 비디오를 볼 수 있는 시스템을 VOD(Video On Demand)시스템이라고 하며 비디오 전송에 사용되는 기술을 유니캐스트(Unicast) 라고 한다. 시간에 제한을 받지 않고 보고 싶은 부분부터 볼 수 있으며 다시 되돌려 보거나 정지 후 다시 볼 수 있는 등 VTR에서 가지고 있는 대부분의 기능을 가지고 있는 전송 방법이다.
2-2 브로드캐스트(Broadcast)와 멀티캐스트(Multicast)
브로드캐스트나 멀티캐스트는 1개의 비디오 자료를 공유해 본다는 개념은 VOD 와 같으나 이용 방법이 일반적으로 사용되는 방송의 개념과 유사하다. 즉 방송되는 시간에 그 방송의 내용을 PC에서 보는 것으로 일반적으로 TV 방송을 시청하는 것으로 생각하면 된다.
3. VOD 와 멀티캐스트의 차이 ( Unicast VS Broadcast VS Multicast )
1개의 비디오 파일을 가지고 여러 명이 동시에 본다는 개념은 VOD나 Multicast 나 동일한 개념이다. 하지만 이들의 전송 방법에서 차이가 많이 있고 이런 차이로 인해 적용 범위도 다르게 나타난다.


3-1 유니캐스트(Unicast) 방식
Unicast 란 VOD 서버 또는 스트리밍(Streaming) S/W에서 비디오를 전송하는 방법이다. 앞에서 언급한 것 같이 필요한 시간에 공급하기 위해서는 요청한 자료를 요청한 사람수 만큼의 비디오 스트림을 보낸다. 이와 같은 방법은 사용자 측면에서 보면 비디오 자료를 다양한 형태로 이용이 가능하고 언제든지 다시 볼 수 있으며 안정적인 데이터 또는 비디오를 볼 수 있다는 장점이 있다.
그러나 네트워크나 시스템 관리자 입장에서 본다면 네트워크(Network)나 비디오 데이터를 전송하는 시스템 관리에 애로점이 있으며 구축비용도 많이 든다.
예) A라는 비디오 파일을 10명이 본다고 가정을 하면 실제적으로 A란 비디오파일을 10번 하드 드라이브에서 일어서 10개의 다른 비디오 스트림으로 연결되어 있는 PC에 비디오데이터를 전송한다. 이때 TCP/IP라는 전송 프로토콜을 이용해 각각의 PC에 전송하기 때문에 데이터전송 안정성은 가지게 되지만 네트워크에는 사용자수 만큼의 데이터들이 이동하게 되어 충분한 대역폭

(Bandwidth)이 보장되어야만 서비스가 가능하다.
하지만, 충분한 대역폭이 보장되었다고 하더라도 비디오 스트림을 공급해주는 서버가 용량이 적다면 그 서비스 또한 불안하게 된다.
유니캐스트 방식의 경우 네트워크의 비효율성이 문제가 될 수 있다. 즉 네트워크에 총 1000대의 PC가 연결되어 있고 단 한번이라도 1000대의 PC가 모두 비디오 데이터를 원한다면 안정적으로 1000대의 PC에 비디오 스트림을 공급할 수 있는 네트워크를 구성해야 하기 때문이다.


3-2 브로드캐스트(Broadcast) 방식
브로드캐스트방식의 전송 방식은 VOD와는 다른 형태를 가진다. 1개의 파일을 네트워크에 연결되어 있는 모든 PC에 전송하는 방법이다. 이 방법의 경우 비디오 데이터를 원하던 원하지 않던 네트워크에 연결되어 있는 모든 PC에 데이터를 전송하는 방법으로 네트워크상의 속도 저하와 동시에 불필요한 자료의 전송 등이 문제가 된다. 또한 네트워크에 연결된 모든 PC는 비디오 데이터에 관심이 있던 없던 간에 그 데이터를 실행해야 한다.
3-2 멀티캐스트(Multicast) 방식
멀티캐스트는 전송 방법에서 브로드캐스트와 유사한 면을 지닌다. 1개의 비디오 스트림으로 여러 PC에 비디오 데이터를 전송하는 것까지는 유사하나 필요한 PC에게만 전송하는 장점이 있다. 그러나 멀티캐스트를 이용해 데이터를 전송하기 위해서는 네트워크 구조 자체가 멀티캐스트를 수용 할 수 있는 장비로 구성되어야 하며 동시에 멀티캐스트 전송용 Application도 필요하다.

지난 호에는 간단하게 디지털 비디오(Digital Video)의 전송에 대해 설명했다. 특히 MPEG 1을 기준으로 유니캐스트(Unicast), 브로드캐스트(Broadcast), 멀티캐스트(Multicast)로 전송하는 방법에 대해 비교·설명했다. 이번 호에서는 IP 멀티캐스팅을 하기 위한 필수조건과 IP멀티캐스팅에서 꼭 필요로 하는 네트워크에 대해 알아보겠다.

1. IP 멀티캐스트(Multicast) 필수 사항
1) IP 멀티캐스트의 필수 사항
IP 멀티캐스트를 위해 데이터(Data) 전송자와 받는 클라이언트(Client)는 멀티 캐스트가 가능한 루터(Router)와 네트워크 상에 존재해야 한다. 멀티캐스트 데이터를 받기 위해서는 다음과 같은 사항이 필요하다.
·IP 멀티캐스트를 보내고 받기 위해서는 TCP/IP 프로토콜 스태크(Protocol Stack)를 지원해야 한다.
·멀티캐스트 그룹에 합류하고 데이터를 받기 위해서는 IGMP(Internet Group Management Protocol)를 지원해야 한다.
·IP 멀티캐스트를 지원하는 프로그램이 있어야 한다.
만약 같은 주소(Address)를 가진 네트워크 상에서 멀티캐스트를 할 경우 위의 사항만이 필요 할 것이다. 하지만 다른 네트워크까지 Multicast 데이터를 전송하기 위해서는 다음과 같은 사항이 필요하다.
·트랜스미터(Transmitter)와 리시버(Receiver)사이에 존재하는 모든 루터(Router)는 반드시 멀티캐스팅이 가능해야 한다. 오래된 루터의 경우 멀티캐스트 프로토콜(Protocol)을 지원하지 않기 때문에 반드시 업그레이드(Upgrade)를 해야 한다.
·방화벽이 있는 경우 IP 멀티캐스트 트래픽(Multicast Traffic)을 위해 재구성해야 한다.


다음 그림은 멀티캐스트의 일반적인 구성도를 나타낸 것이다.
2) IP Multicast의 IP Address
IP Multicast의 경우 D클래스(Class) Internet Protocol Address의 특별한 Multicast 호스트(Host)그룹 IP를 사용한다. Host Group Address의 범위는에서부터 시작돼의 IP Address범위를 가지게 된다. 이 IP범위는 고정(Permanent) IP와 임시(Temporary)IP로 분류돼 있다. 고정 IP 중은 IANA(The Internet Assigned Number Authority)에 의해 모든 IP Multicast Host

<멀티캐스트 일반 구성도>

Group이 직접 Network에 접속하기 위해 할당돼 있고의 경우 LAN 상에 있는 루터에 할당돼 있다.에서부터는 루팅 프로토콜과 다른 Low Level과 유지, 보수 프로토콜로 할당돼 있다. 또 다른 범위의 IP 즉,에서부터는 애플리케이션 프로그램을 위해서 할당돼 있다.

네트워크(Network)와 멀티캐스트(Multicast)의 관계
멀티캐스트 전송에 있어 가장 핵심 사항중의 하나는 네트워크에 관련된 것이다. 아무리 방송 서버나 클라이언트 PC 성능이 좋다고 해도 네트워크 환경이 좋지 않다면 만족할만한 화질의 비디오 데이터를 얻을 수 없다. 또한 네트워크가 멀티캐스트를 지원하지 않는 장비로 구성돼 있다면 멀티캐스트 방법 자체를 사용 할 수 없다.
1) LAN, MBone의 이해
일반적으로 사용하는 네트워크를 LAN(Local Area Network)이라고 하며 일반적으로 멀티캐스팅기법을 사용했던 네트워크환경이었다. 이런 환경에서는 높은 품질로 비디오 데이터의 실시간 전송이 가능하며 동시에 다양한 형태의 사용이 가능했다.
◆ MBone
Multicast Backbone (MBone)은 인터넷 유저에게 Multicast를 전송하기 위한 인터넷의 하부 구조이다. 1992년부터 시작해 지금은 2000개 이상의 서브넷(Subnet)을 가지고 있다.
MBone은 가상의 네트워크로 수많은 Multicast가 가능한 Network User와 연동해 멀티캐스트 데이터를 전송한다. Mbone상에서 멀티캐스트 데이터를 인터넷에 전송할 때에는 멀티캐스트가 가능한 네트워크와 멀티캐스트가 가능하지 않은 네트워크를 지나 이동하게 된다. 이때 멀티캐스트가 가능한 네트워크를 Multicast Island라고 하며 그 이동 경로를 터널(Tunnel)이라고 한다.


2) 네트워크 상에서 IP 멀티캐스팅의 전송 원리
멀티캐스팅은 일반 방송 즉 라디오나 TV와 같은 전송 방법으로 네트워크 상에 비디오, 오디오를 전송한다. 즉 데이터를 받고자 하는 클라이언트가 있을 경우 그 클라이언트에게만 데이터가 전송된다. 그림에서 보면 콘텐츠(Content)서버에서 비디오 데이터를 실시간으로 전송을 하게 되고 네트워크에 설치된 루터를 통해 멀티캐스트 데이터가 다른 네트워크 주소에 데이터를 전송하게 된다. <그림>

<네트워크상의 멀티캐스팅 전송

이 경우 Client PC에는 별도의 장비없이 단순히 네트워크와 연결하는 IP만 부여하는 작업만이 필요하다. 또한 Client는 Multicast 데이터를 받기 위한 세팅(Setting) 작업없이 데이터를 받을 수 있다. 그러나 Multicast 데이터를 전송하는 관리자는 Multicast Data를 전송하기 위해 필수적으로 세팅하고 확인해야 할 사항이 있다. 우선적으로 Multicast 데이터를 전송하기 위해 루터를 Multicast가 가능하도록 세팅해야 하며 동시에 멀티캐스트에 필요한 프로토콜이 지원돼야 한다. 이런 Multicast Protocol을 이용해 Multicast 비디오 데이터는 루터와 루터 사이 또는 다른 구간주소(Segment Address)를 가진 IP Network사이를 이동하면서 데이터를 전송하게 된다.
3. IP Multicast에서 사용되는 Protocol
일반적으로 데이터의 전송에는 TCP/IP를 사용한다. TCP/IP 프로토콜은 일반 데이터의 전송에는 탁월한 전송능력을 가진다. 하지만 멀티캐스트 데이터는 딜레이(Delay)나 중단 없이 전송해야 하며 멀티포인트(Multi-Point)로 전송해야 하는 기능이 있기 때문에 새로운 형태의 프로토콜이 필요하게 되었다.
1) IP Multicast Protocol
◆ SDP ( Session Description Protocol )
MBone에서 사용되는 프로토콜이다. SDP는 클라이언트에게 멀티캐스트 데이터에 포함돼 있는 모든 정보(예: Multicast의 file 이름, 설명, 실행 시간 등)를 받을 수 있게 한다. 특히 SDP는 다양한 형태의 정보를 같이 보낼 수 있기 때문에 넓은 범위에서 사용 가능하다.
◆ IGMP (the Internet Group Management Protocol) IGMP는 멀티캐스트 data를 요구하는 Receiver가 전송되는 Multicast Data를 받기 위해 Multicast Group에 접속하거나 여러 작업을 하기 위한 프로토콜이다. Multicast Group을 사용하는 이유는 크게 몇 가지가 있다.
● Multicast Group에 진입과 탈퇴가 자유롭다. 즉 언제든지 Multicast Data를 받거나 중단 할 수 있다.
● Multicast Group에 접속한 Receiver가 없으면 자동으로 네트워크 상에서 사라지게 된다.
● 그룹은 그 그룹이 구성된 숫자의 조정이 가능하다. 즉 접속 숫자가 많을 경우 자동으로 인지해 그 공간을 늘려 준다.
2) Multicast 루팅(Routing) 프로토콜(Protocol )
Multicast Data를 전송하기 위해서는 다양한 프로토콜이 있어야 하는데 특히 루터에서 사용되는 프로토콜이 중요하다고 할 수 있다. 즉 루터가 Multicast Protocol을 지원하지 않는다면 Multicast Data가 전송되지 않기 때문이다. 이런 루팅 프로토콜은 네트워크 상에 멀티캐스트 데이터가 이동 할 수 있도록 경로를 열어 놓는 작업을 한다. 루팅에 사용되는 멀티캐스트 프로토콜은 다음과 같다.
◆ DVMRP (Distance Vector Multicast Routing Protocol) 멀티캐스트를 전달하기 위해 처음 만들어진 프로토콜이다. DVMRP는 지금 MBone상에서 널리 사용되고 있는 프로토콜이다.
◆ MOSPF (Multicast Open Shortest Path First Protocol) MOSPF는 일반적으로 Single Domain에서 사용한다.
◆ PIM (Protocol-Independent Multicast) 이 프로토콜은 현재 IETF Work Group에서 개발 중인 프로토콜이며 일부 루터에서 이미 지원하고 있는 프로토콜이다. PIM은 두 가지 형태의 Operation Mode로 되어 있다.
·PIM-Dense Mode (PIM-DM)
·PIM-Sparse Mode (PIM-SM)
3) High Level Protocols
◆ RTP (Real-Time Transport Protocol) RTP(Version 2)는 실시간 데이터전송 애플리케이션 프로그램을 지원하기 위해 만들어진 프로토콜이다. RTP는 MBone에서 사용 되고 있으며, IETF RTC1889에 의해 정의되어 있다.
◆ RTCP (Real-Time Control Protocol)
RTCP은 RTP와 연동하여 운영되는 Control Protocol이다. RTCP는 사용되는 애플리케이션의 수행(Performance) 조정 및 환경 검사에 사용한다.
◆ RTSP (Real-Time Streaming Protocol)
RTSP는 다중 데이터(Multiple Data) 전송 조정 목적에 사용 할 계획이다. RTSP는 RSVP와 연동해 사용한다.
◆ RSVP (Resource Reservation Protocol)
RSVP는 인터네트워크(Internetwork) 서비스를 위해 개발된 프로토콜이다.
위에서 언급되지 않았지만 다양한 형태의 프로토콜이 있으며 좀더 효율적인 멀티캐스트 전송을 위해 지금도 개발 중이다. 지금까지 멀티캐스트에 관련된 기술적 내용에 대해 살펴보고 디지털 비디오에서부터 프로토콜까지 IP 멀티캐스트에서 필요한 부분에 대한 개념을 설명했다.
다음에는 IP 멀티캐스트의 이용 범위와 응용 사례, 그리고 프로그램에 대한 비교를 할 것이다

앞에서 IP 멀티캐스팅(Multicasting)에 관련된 용어 설명과 기술적 개념, 또한 멀티캐스팅이 무엇이며, 이를 구현하기 위해서는 어떤 기술적 환경이 필요한지 알아봤다. 이번 호에는 이런 환경을 바탕으로 IP 멀티캐스팅을 이용할 수 있는 범위에 대해 설명하고 동시에 응용 사례와 현재 이용되고 있는 대표적인 프로그램에 대해 알아 보기로 한다.

1. IP 멀티캐스팅의 이용 방법
IP 멀티캐스팅은 그 이용 범위에 따라 다양한 형태의 이용 범위와 응용 범위를 가진다.
● IP 멀티캐스팅 방송
● 원격 강의, 원격 진료
● MPEG 화상회의
● 원격 감시 시스템
1) IP 멀티캐스팅 방송
IP 멀티캐스팅은 앞에서 언급한 바와 같이 일반적인 방송과 비슷하다. 즉 일반 방송이 아날로그 신호를 전파로 변환해 각 가정의 TV 수신기에 동영상을 전달하는 방법을 쓰는 반면, IP 멀티캐스팅은 디지털 영상 신호를 네트워크에 전송하고 PC가 TV를 대신해 동영상을 보여주는 것만 차이가 있다고 보면 된다. 이런 IP 멀티캐스팅 방송 방법은 다양한 형태로 응용돼 쓰이고 있다.
·사내 방송/ 방송국
·학교 방송/ 방송국
·위성/ 일반 방송 내용의 디지털 방송
·인터넷 방송 등의 응용 방법이 있다.
특히 요즘은 사내 또는 학내 방송과 인터넷 방송에 IP 멀티캐스팅방식을 사용해 이미 설치된 네트워크 환경을 최대한 활용, 다양한 서비스를 하려고 하는 경향이 있다.


● 학내 방송 및 사내 방송 형태의 응용 방법
학내 또는 사내에 소규모의 방송국을 설치하고 자체적으로 제작한 내용을 방송한다. 특히 IP 멀티캐스팅을 이용한 방법의 경우 별도의 TV 장치가 필요 없이 PC에서 다른 작업과 동시에 수행할 수 있기 때문에 많은 학교와 회사에서 사용하고 있다.
<그림 3>은 4개의 채널을 동시에 방송 하는 형태를 구성한 예이다. 보편적으로 IP 멀티캐스팅 방송 방법을 이용할 때에는 VOD( Video On Demand ) 와 함께 사용하는 경우가 많다. 이 경우 학내 방송과 원격 교육, 그리고 VOD 서비스가 포함돼 있는 구성도의 형태이다. 또한 사용 목적에 따라 실시간 방송하는 채널의 수는 다양하게 조정이 가능하다.

<그림 3> IP Multicasting 방송 구성의 예

● 인터넷 방송 형태의 응용 방법
인터넷 상에서 많이 사용되고 있는 인터넷 방송국도 앞에서 언급한 학내 방송 응용 사례와 기본 구조면에서는 다를 것이 없다. 단, 인터넷이 다양한 전송속도의 네트워크(모뎀22.8∼56Kbps, ADSL, ISDN, 전용선 등)로 구성돼 있기 때문에 전송되는 데이터 형식은 다른 것을 사용해야 한다. 일반적으로 이더넷 환경(대역폭:10~100Mbps) 이상의 네트워크에서는 MPEG1 또는 MPEG2를 사용하지만 인터넷 상에서는 그 전송 폭을 고려해 ASF, RM, MOV 등의 포맷을 이용한다.


2) 원격 강의와 원격 진료
● 원격 강의 / 원격
진료 단 방향의 IP 멀티캐스팅 방송에서 응용된 부분으로 원격지 간에 방송을 통한 원격 교육 또는 진료 방법에 사용되는 방법이다. 기본적인 구성은 IP 멀티캐스팅 방송과 비슷한 구조를 가지고 있다. 일반적으로 원격 강의 또는 원격 진료의 경우 높은 화질의 비디오 데이터와 동시에 저장성을 요구하기 때문에 MPEG 포맷을 이용해 데이터를 전송하는 경우가 많이 있다. <그림 4>의 경우에는 원격 강의에 대한 기본 구성도를 표시한 것이다.

<그림 4>


3) MPEG 화상회의
코덱(CODEC)을 이용한 기존의 화상회의와 별도로 MPEG을 이용한 화상회의에 IP 멀티캐스팅 방식을 이용할 수 있다. 이 경우 고화질의 화상회의가 가능하며 동시에 회의 내용을 파일로 저장이 가능하다는 장점을 지니고 있다. 일반 화상회의의 경우 코덱 장비를 장착한 PC와 MCU가 있어야 다자간 화상회의가 가능하지만 MPEG 화상회의의 경우 인코딩 보드만 있으면 화상회의가 가능하다. 또한 MPEG 멀티캐스팅으로 화상회의를 할 경우 회의에 참여 하지 않은 사람들도 원하는 경우 회의 내용을 시청할 수 있기 때문에 다양한 형태의 회의 효과를 얻을 수 있다. 하지만 MPEG이라는 파일 포맷의 특징상 대용량의 네트워크 환경에서 가능하다는 단점이 있다.

<그림 5>

<그림 5>의 경우가 화상회의를 할 경우의 구성도이다. 이 구성도의 경우 MPEG2로 화상회의를 하는 경우이기 때문에 전용 회선을 사용해 화상회의를 구축한 경우이다.
4) 원격 감시 시스템
원격 감시 시스템의 경우 원격지에 카메라를 설치하고 감시하는 형태의 시스템이다. 이 경우도 IP 멀티캐스팅 방송의 기법을 이용해 데이터를 전송한다. 보편적으로는 사용되는 방법은 아날로그 형태의 신호를 이용한 감시 장비와 VTR로 구성돼 있으나 이 경우 보관이 어려우며 화질 저하의 우려가 있다. 하지만 IP 멀티캐스팅 방식을 사용하는 경우에는 화질의 저하가 없으며 감시 내용의 저장 관리가 용이하다. 요즘은 많은 부분에서 사용하고 있으며, 특히 인터넷을 이용한 원격 감시시스템이 선보이고 있다.
2. 응용 사례
응용 사례에서는 직접적으로 설치하고 사용하고 있는 사례를 중점적으로 알아본다.
1) IP 멀티캐스팅과 저장 장치의 만남 - 미국 CNN (Cable News Network)의 응용 사례 미국의 대표적인 뉴스 전문 방송국인 CNN은 하루 24시간, 32개의 위성에서 전송되는 엄청난 양의 비디오 데이터를 처리하는데 IP 멀티캐스팅 방법, 스트림(Stream) 방법, 아카이빙(Archiving) 방법을 사용해 처리 하고 있다. 몇 년 전만 해도 거의 불가능하다고 생각했던 다양한 서비스와 즉각적인 서비스가 가능하게 된 것이다.
● CNN의 업무 분석
32개의 위성에서 수신된 데이터는 MPEG2 형태의 디지털 자료로 변환돼 데이터 저장 서버에 저장된다. 이때 MPEG2 파일은 원본 파일과 별도로 MPEG1 파일이 생성된다. MPEG2는 원본 보관용이고 MPEG1은 검색, 재생용으로 사용된다. 검색을 하고 검색 조건에 합당한 이미지를 찾으면 PC에서 MPEG1으로 재생해 내용을 확인한 뒤 정보를 제작국 또는 편집국으로 보낸다. 그러면 제작국이나 편집국에서는 같은 내용의 MPEG2 파일을 접수 받아 편집 또는 위성으로 송출한다. 이런 시스템은 자료의 관리와 보관 뿐 만 아니라 신속한 정보의 창출에 많은 효과를 줬다.
2) 최적의 네트워크 환경을 이용한 교내 서비스(D 대학교 교내 방송 서비스 - 4 채널 )
경북지역 소재의 대학교로 대단위의 학교 캠퍼스를 가지고 있던 D대학교의 경우, 막대한 예산을 들여 설치한 네트워크가 단순 Text의 전송에만 사용 하고 있었다. 이런 네트워크의 활용도를 극대화로 올리고 동시에 다양한 서비스를 위해 IP 멀티캐스팅 방송을 선택해 운영하고 있다.
3) 초고속 통신망을 이용한 원격 강의 및 화상회의
LG전자 종합기술원과 대전 KAIST를 한국 통신 초고속 망을 이용해 원격 강의 및 화상 회의 시스템을 구성했다. 이 경우에는 MPEG2 파일 포맷을 이용하면서 동시에 IP 멀티캐스팅 방식으로 데이터를 전송한다. 평상시에는 원격 교육을 위한 시스템으로 사용하고 필요시에는 화상회의로 이용 하기도 한다.
다음에는 실질적으로 사용되고 있는 프로그램에 대해서 알아보기로 하겠다.

그 동안 IP Multicasting에 관련된 개념에 대한 설명과 기술적 설명 그리고 응용 범위와 응용 사례에 대해 언급했다. 이번 호에는 실질적으로 사용하고 있는 프로그램에 대해 설명하겠다.

Optibase사의 Commotion UDP 프로그램
Commotion UDP는 옵티베이스(Optibase)사의 자체 개발 프로그램으로써 최초 T1,E1에서의 MPEG1 데이터 전송 시스템으로 시작했다. 점차 업그레이드(Upgrade)를 거듭하며 RS-422 포트(Port)를 이용해 MPEG2까지 전송 가능케 했고 현재는 특정 네트워크(Network)에 얽매이지 않고 UDP상에서 모든 전송을 할 수 있게 되었다.
이로 인해 Commotion UDP는 어떠한 Network 환경에서도 자연스럽게 연결이 가능해 여러 형태의 응용분야에 이용되고 있다.
1. Commotion UDP의 특징
1) 단일 및 다중 실시간 전송
● MPEG Commotion UDP는 표준 TCP/IP상의 네트워크를 통해 고품질 MPEG1 & MPEG2를 전송할 수 있는 시스템으로써 UDP네트워크로 연결된 모든 클라이언트(Client)에 고품질의 동영상 전송을 보장한다. ● MPEG Commotion UDP는 윈도95/NT 플랫폼(Flatform)의 모든 PC로부터 구현이 가능하며 사용자의 요청에 따라 가상 IP를 사용하는 가상 그룹 및 전체 네트워크 가입자에게 Uni-cast, Multi-cast, Broad-cast를 지원한다.
2) Professional 입력 & 다양한 출력 형식
● MPEG Commotion UDP는 NTSC 및 PAL 영상의 복수 입력을 지원하며 일반적인 비디오 신호인 컴포지트(Composite), S-VHS부터 엔코더(Encoder)에 따라 Professional 영상 신호인 아날로그 컴포넌트(Analog Component) 및 Digital D-1신호까지 받을 수 있다.
● 동영상 생성 형식은 인터넷을 지원하는 56Kbps의 낮은 대역폭의 화질부터 위성방송을 지원하는 고화질의 15Mbps대역폭까지 다양하게 지원이 가능하다.


3) 구성 및 응용분야
● MPEG Commotion UDP는 전송부와 수신부로 구성되며 전송부는 15M까지의 동영상 자료를 단일 또는 다중 원격 단말에 전송하고 수신부는 동영상 자료를 PC Monitor 및 TV Monitor에서 재생하면서 Local PC에 동영상 자료의 저장이 가능하다.
● 응용분야
·광고 기획사 및 Post Production의 원격 프리젠테이션(Presentation)
·사내 방송 System
·원격 감시 시스템 ·원격강의
·다중 VOD 구축

·동영상 전광판 시스템

2. Commotion UDP
만의 특징
● 별도의 Server를 이용하지 않으므로 1:1부터 1:무한대까지 확장이 가능하다.
● Live영상부터 기존의 저장된 MPEG Data까지 전송이 가능하다.
● 56Kbps∼15Mbps까지의 유연한 Data 대역폭의 지원이 가능하다.
● MPEG1 QSIF, MPEG1 SIF, MPEG2 Half D-1, MPEG2 Full D-1까지 다양한 MPEG 데이터의 전송이 가능하다.
● 한 PC에서 Multi Encoding해 다수의 동영상 Data를 Channel로 분류해 전송이 가능하다.
● 한 PC에서 Multi Decoding이 가능
● Uni_cast, Multi_cast, Broad_cast가 모두 지원된다.
● Receive시 동영상을 부분적으로 Local PC에 저장이 가능하다.
● Receive시 Full 화면 및 (H/W Decoder 사용 시) Full Frame이 가능하다.
● Receive단에서는 Active Movie를 지원하는 모든 Decoder를 지원하므로 MPEG1과 MPEG2 의 지원이 가능하다.
● MPEG1은 별도의 디코더(Decoder)를 이용하지 않고 Active Movie의 S/W Decoding이 가능하다.
● 1:1, 1:100, 1:무한대의 라이센스(License)로 인해 경제적인 시스템 구성이 가능하다.
3. MPEG1을 이용한 Commotion UDP의 실시간 방송의 구성
Optibase의 대표적인 MPEG1 Encoding 보드를 이용한 입력과 구성의 예이다. 특히 MPEG1 쇼사이트(Showsite)의 경우는 Freeview 기능이 내장돼있어 방송되는 내용을 TV를 통해 볼 수 있는 기능도 제공한다.
4. Commotion UDP의 사용 방법
Commotion은 방송을 보내는 트랜스미터(Transmitter)와 리시버(Receiver)로 구성돼있다. 이중 Receiver는 두가지의 형태로 MPEG 데이터를 받을 수 있다.
1) 트랜스미터의 사용 방법
● 트랜스미터의 초기 화면
트랜스미터는 사용자의 관리를 최대한 줄이면서 동시에 최대의 효과를 얻을 수 있도록 구성돼있다.
간단한 형태로 방송을 보낼 수 있도록 구성돼 있는 조작 버튼과 각종의 정보와 방송 진행 상태를 볼 수 있는 정보 창과 베타캠(BetaCam)장비를 사용 할 경우 자동으로 시간에 맞게 방송을 보낼 수 있도록 구성돼 있는 Point 기능 등이 있다. 또한 환경설정 창에서는 다양한 형태의 환경을 설정 할 수 있다.
● 환경 설정 창
·네트워크 설정 창 네트워크의 형태와 전송 보내는 데이터 크기를 정할 수 있다. 또한 여기서는 전달되는 스트림(stream)의 형태를 다양하게 규정 할 수 있다.
·UDP Setting 설정 창
여기서는 전송에 관련된 IP 포트와 Group등에 관련된 정보를 설정 할 수 있다. 특히 여기서는 Unicast, Multicast, Broadcast를 선택해서 방송 할 수 있으며 동시에 가상 IP(D Clase)를 사용해 규정 할 수 있다. 또한 여기서 설정해주는 IP 와 포트 번호는 멀티채널을 구성하는 중요한 구성 요소가 된다.
·일반 환경 설정 창
여기서는 일반적으로 MPEG Encoding 보드에 관련된 사항에 대해서 설정하는 창이다.
·Source 설정 창
이 창은 입력되는 비디오의 환경 설정과 동시에 오디오 입력 형태에 대한 환경 설정을 한다. 이 환경 설정의 경우 MPEG1 과 MPEG2 가 다르게 나타난다.
·Signal Calibration 설정 창
여기서는 입력되는 비디오와 오디오의 소스의 변경에 사용된다. 비디오의 경우 밝기, 컬러 조정, 대조 등의 효과를 주어 최적의 화면을 전송 할 수 있게 한다. 오디오의 경우 사운드의 소리를 조정 할 수 있어 입력 소스에 따라 전송되는 오디오 소리를 조정 할 수 있다.
·Target 설정 창
Target 설정 창의 경우 파일의 속성에 대해 설정하는 창이다. 방송하는 MPEG 데이터에 관련된 상세 Bit rate에 관련된 정보를 설정하며 전송하는 Stream 타입에 대해서도 설정한다.
2) Receiver의 사용 방법
Receiver의 경우는 그 사용 목적에 따라 전용 Play를 사용하기도 하고 WEB 브라우저를 사용하기도 한다. Commotion의 경우 버전 별로 구별돼있다. 3.0버전의 경우 Play을 사용하고, 3.5부터는 웹(WEB) 또는 윈도 미디어(Window Media)를 사용하기도 한다. 특히 WEB 버전의 경우 Active X 기술을 사용하기 때문에 다양한 형태의 Viewer를 WEB에서 구현 할 수 있으며 동시에 사용자의 홈페이지에 맞게 설계 할 수도 있다.
·독자 Player를 쓸 경우
Play 시작 버튼과 정지 버튼 그리고 환경 설정에 관련된 버튼이 있다. 또 독자 Player를 쓸 경우 가장 큰 장점인 저장에 관련된 기능도 포함하고 있다. 저장 버튼이란 실시간으로 방송되고 있는 내용을 각각의 클라이언트가 필요한 부분만 자기의 하드에 저장하는 기능이다. 특히 이 기능은 학교에서 많이 사용 할 수 있다(선생님이나 교수님은 방송되는 내용 중 교육에 필요하다고 생각되는 내용을 자신의 PC HDD에 직접 저장 할 수 있어 교육에 효과를 얻을 수 있다). 또한 Play 되는 화면도 PC나 TV를 선택해서 Play 할 수 있기 때문에 다양한 이용 범위를 가질 수 있다.
·ACTIVE X를 사용 할 경우
일반적으로 사용되는 WEB 브라우저를 사용 할 수 있어 사용자의 환경에 따라 디자인을 다르게 할 수 있다.
※ 이로써 그 동안 IP Multicasting에 관련된 내용에 대해서 부족하나마 알고 있는 부분에 대해서 설명했습니다. 개념의 설명, 응용 범위, 그리고 프로그램까지 최선을 다해 설명했습니다. 마지막까지 관심을 보여주신 여러분께 감사합니다.

새로운 방송 서비스 형태 VOD (2)
김 대 성
(창성미디어기술영업 대리)

디지털 영상 압축 기술의 발전은 초기에 저장 기능을 중심으로 개발됐다. 하지만 현재에는 네트워크의 발전과 전송 기술의 발전으로 인해 단순 저장의 형태에서 벗어나 전송에 초점을 두어 개발되고 있다. 전송 중에 가장 기본이 되고 많이 사용되는 것은 VOD 시스템 또는 스트림(Stream) 방식이라고 할 수 있다.
1. VOD의 기본 개념
VOD는 지난 호에서 언급한 것 같이 Video On Demand의 약자로 동영상이 필요할 때 언제든지 Service를 받을 수 있는 시스템과 서비스를 포함해 말한다. VTR과 TV를 이용해 영상을 보는 일반적인 방법 대신 네트워크와 PC(Set top box)를 이용해 영상을 보는 것이다.
영상 전송의 방법
VOD기술의 핵심은 영상을 어떻게 안정적으로 보내고 동시에 Client는 어떻게 Play를 하느냐에 달려있다. 또한 단순 영상의 전달과 Play 뿐만 아니라 Client가 자유자제로 조정이 가능해야 한다. 즉 일반적으로 VTR을 이용하는 것과 마찬가지로 앞으로 빨리 보기, 뒤로 보기, 정지, 구간 반복 등의 기능이 지원돼야 한다.
Video On Demand는 기본적으로 Unicast란 방식을 이용해서 Data를 전송한다. Unicast는 영상 Data를 요구하는 Client에게 각각의 정보를 전달 해주는 방법으로 전송 되어온 Data의 제어 권한이 각 client에게 있어 마음대로 data를 조정 할 수 있다.


Unicast 방식의 data 전송
Unicast는(Uni: 독립적인, 하나의 유일한, Cast : 전송, 방송)말 의미처럼 각각의 비디오 Data가 전송되어 서비스하는 것을 말한다.
이 방법은 앞에서 언급한 것 같이 각각의 Client에게 통제권이 있어 다양한 조정과 사용 목적을 가질 수 있는 장점이 있으나 서비스 구축비용이 상대적으로 많이 드는 단점이 있다.
예를 들어 동시에 한 개의 같은 data를 100명에게 서비스를 하고자 하는 경우에도 100개의 Data가 네트워크를 통해 전송되기 때문에 네트워크와 VOD 서버의 성능이 매우 우수해야 한다. 특히 대규모의 서비스(대단위 아파트 또는 인텔리전트 빌딩)를 구축하기 위해서는 천문학전인 비용이 든다.
2. VOD
서비스를 위한 필수 사항
VOD 서비스를 하기 위해서는 크게 3가지의 필수적인 장비 또는 프로그램이 필요하다.
1) VOD 서버(Stream 공급 프로그램과 서버) Video Data는 그 자체가 막대한 양의 정보를 가

지고 있으며 동시에 지속적으로 전송 및 전달돼야 한다. 즉 Data 전송 중 끊어짐이 발생한다는 것은 동영상 자체가 멈추는 것을 의미하기 때문이다. 그러므로 계속적으로 영상 Data를 전송하기 위한 특수한 HW나 SW가 있어야 한다.
● 하드웨어(HW) VOD 서버
HW VOD서버란 Video stream을 위한 전문 구조를 가진 서버로 동시에 많은 인원에게 서비스하기 위해 만들어진 서버이다. 특히 고속의 Input/OutPut 하드웨어 구조를 가지고 있기 때문에 많은 인원에게 안정적인 서비스가 가능하다. 하지만 하드웨어의 구조상 그 확장에 한계가 있으며 대규모의 서비스를 위해서는 막대한 비용이 필요하다는 단점이 있다. 초기 VOD서비스는 대부분의 HW VOD System을 채택해 운영했다.
● 소프트웨어(SW) VOD
하드웨어 VOD서버의 구축비용이 높고 확장성의 어려움, 그리고 일반 File서버의 성능 강화로 SW로 VOD를 처리해주는 기술이 활발하게 개발됐다. SW 방식의 경우 특별한 하드웨어 장치 없이 일반 File서버에서 CPU와 HDD만을 이용해서 Video Stream을 공급 해주는 프로그램이다. 이 기술의 가장 핵심은 어떤 방법으로 비디오 Data를 안정적으로 공급하는 냐에 달려 있었다. 하지만 SW VOD의 경우 그 가격대 성능은 우수 하지만 안정적인 서비스를 위해서는 아직도 풀어야 할 기술적 문제들이 많이 있다.
2) 네트워크망
VOD 서버나 SW엔진에서 나오는 비디오 Data를 전송하기 위해서는 그 전달 통로가 있어야 하는데 네트워크가 그런 일을 담당한다. 서버와 동시에 가장 중요한 핵심 요소라고 볼 수 있다. 이유는 아무리 많은 자료를 보관하고 이를 서비스 할 수 있는 서버가 있어도 그 전달 통로인 네트워크가 부실하면 서비스 할 수 없거나 안정적인 서비스를 할 수 없게 된다. 실 예로 인터넷상에서도 모뎀을 사용하는 사용자가 안정적인 비디오 데이터를 받을 수 없는 것과 같은 이유이다.
기본적으로 VOD 서비스는 고화질의 서비스를 하는 경우가 많이 있다. 즉, MPEG1이나 MPEG2로 서비스하는 경우에는 그 정보의 양이 엄청나기 때문에 서비스를 받고자 하는 Client와 공급 Data 포맷을 정할 필요가 있으며 이에 따라 Network를 설정해야 한다.
·MPEG1의 경우 초당 1.5Mbps, 100명에게 서비스 할 경우 네트워크는 최소 200Mbps 이상의 Network을 사용해야 한다.
·MPEG2의 경우 초당 4Mbps 이상, 100명에게 동시에 서비스 할 경우 네트워크는 최 소 800Mbps 이상의 대역폭을 가지고 있어야 한다.
3) Client 프로그램
전송되어 오는 Data를 각각의 Client에서 Play하기 위해서는 전송 Data를 Play 할 수 있는 소프트웨어가 필요하다. 요즘에는 표준으로 Window Media player를 지원하는 형태의 전송 방법과 Data형식을 보낸다. 또 Client가 전송되어오는 data를 Play하기 위해서는 동영상 재생이 가능한 PC를 가지고 있어야 한다. 요즘 대부분의 PC성능은 MPEG2까지 SW로 Play 가 가능하도록 되어 있기 때문에 이 부분에 대해서는 걱정할 필요 없다.

앞으로의 VOD 시스템
미래에는 어떤 형태의 VOD 시스템이 개발될지 예상하는 것은 무척 어렵다. 4년 전(96년) 국내 최초의 VOD 서버는 그 당시 최고의 기술과 부품으로 만들어진 고성능의 하드웨어였다(필자는 97년 2월부터 VOD에 관련된 일을 했다). 당시 VOD 서버는 펜티엄 프로 200Mhz Dual CPU에 256MB이상의 메모리, 그리고 고성능의 SCSI로 구성된 3 Channel RAID 컨트롤러(12GB-7200RPM HDD)로 구성된 시스템이었다. (그 당시의 File서버는 Pentium Pro 200Mhz CPU 1개와 64∼128MB 메모리, 그리고 일반 2∼4GB HDD을 가진 시스템이 최고였다.) 이런 고성능의 하드웨어 VOD는 60∼120명에게 동시에 MPEG1 Data를 서비스하기 위해 만들어진 시스템이었다. 그 후 기술의 개발로 인해 다양한 형태의 VOD 서버가 출시되었다. 또한 고가의 하드웨어에 대처하기 위해 개발된 소프트웨어 VOD 엔진은 VOD 확산에 많은 영향을 주었다. 특히 하드웨어 VOD의 경우 대부분의 부품을 수입해 사용했으나 소프트웨어 VOD의 경우는 오히려 수출까지 하고 있다.


현재 VOD 시스템의 경우 그 사용 범위의 확대로 인해 다양한 형태의 시스템이 출시되고 있으며, 동시에 소프트웨어와 하드웨어 VOD가 가지고 있는 장점만을 살린 시스템 또한 출시되고 있다.
인트라넷에서 인터넷으로
VOD는 기본적으로 고화질의 MPEG 동영상을 전달하는 영상 정보 서비스로 그 동안의 사용 범위가 인트라넷환경(Fast Ethernet 이상의 환경)에 국한되어 있었다. 초기의 인터넷은 정보의 양이 많은 MPEG1·2 데이터를 전송하기 위해서는 적합하지 않았다. 이런 이유로 인해 인터넷상에서 사용되는 VOD(혹은 Stream서비스라고도 함)는 높은 압축률을 가진 다른 형태의 동영상 압축 포맷으로 개발됐고 다양한 형태의 VOD 서비스를 실시하게 되었다. (인터넷에서 사용되고 있는 포맷: ASF, RM, MOV 등)

※참고: (·asf: Microsoft Windows Media Server (WMT)에서 사용되는 포맷 형태로 기본적으로 MPEG4를 지원하는 코덱(Codec)을 포함한다.
·rm: RealServer에서 사용되는 동영상 포맷 형태이다.
·mov: Apple Computer(QuickTime)가 동영상 전송을 위해 만들어낸 Apple용 동영상 압축 표준, 현재에는 PC에서도 동시 사용이 가능하다.
이런 인터넷용 포맷들은 현재 인터넷 방송에 사용되고 있는 포맷들이다.)
하지만, 이런 포맷들은 높은 압축률로 인터넷상의 전송에는 장점을 가지는 반면, MPEG에 비해 동영상의 화질과 음질이 떨어지는 단점을 가지고 있다.
인트라넷에서 디지털 위성 및 방송으로
초기 VOD는 한정적인 지역에서의 서비스만 가능했었다. 하지만 현재는 그 서비스 지역을 확대하기 위해 다양한 방법을 사용하고 있다. 디지털 위성을 사용해, MPEG2 동영상 데이터를 전송하는 방법이나, 초고속 전용망을 이용해 MPEG1을 서비스하는 경우가 점차 늘어가고 있다. 특히 차세대 방법으로 디지털 위성을 이용한 VOD서비스 또는 NVOD 방송이 점차 늘어가고 있으며, 가까운 시일 안에 현실화 될 것으로 보인다. (일본의 경우 디지털 위성을 이용해 Near VOD서비스를 실시하고 있다)
일반적인 VOD System의 구성
일반적으로 VOD는 다음과 같은 구성을 가지고 있다. 물론 사용하고자 하는 목적과 기능에 따라 기능 및 구성에 차이가 있으며, 또 구축비용에 따라 구성의 차이가 날 수도 있다.
① VOD Engine (또는 Stream Engine, Server Program)
② Network 및 분산 처리(Load Balanced) 관리 프로그램
③ Data Base 관리프로그램
④ Broadcast(Multicast) 방송 프로그램
⑤ Scheduler(시간표 작성) 프로그램
⑥ 동영상 제작/편집 프로그램
⑦ Client Viewer 프로그램
⑧ SDK(Software Development Kit)
위의 구성 요소는 서비스 하고자 하는 내용 및 대상, 서비스 인원 등에 의해 결정되며, 필요에 따라 다양하게 구축 할 수 있다.
1) VOD Engine (Stream Engine, Server Program)
동영상을 전송해주는 핵심적인 부분으로 VOD Engine 또는 Streamer, Stream Server 등의 이름으로 불린다. 일반적으로 VOD 엔진의 구성은 H/W와 S/W로 구분 할 수 있으나 현재에는 그 구분이 거이 없어지는 추세이다. VOD 엔진은 각각의 프로그램에 따라 약간의 차이가 있을 수 있겠지만, 대부분의 경우
① 서비스되는 네트워크 환경에 대한 설정
② 스트림서버의 관리
③ 서비스 Data 관리
④ 접속되거나 서비스 받고 있는 Client에 대한 정보 및 관리
등의 기능을 가지고 있다. 특히 VOD엔진은 그 안정성이 가장 중요시 된다. 안정성의 차이로 인해 VOD서버의 가격차이가 발생한다고 해도 과언이 아니다. 대규모의 서비스나 유료 서비스, 또는 중요 동영상 관리 서비스를 하기 위해서는 고가의 안정성이 입증된 제품을 사용하는 것이 안정적이다.
2) Network 및 분산 처리 관리 프로그램 (load Balanced )
대규모의 서비스를 하기 위해 반드시 구축돼야 하는 구성 요소이다. 안정적인 서비스를 위해 분산 처리를 주목적으로 사용한다. 동시에 많은 사람들이 자료를 원할 경우, 한대의 서버에 집중되는 것을 분산 처리해, 언제나 안정적인 서비스를 할 수 있도록 하는 프로그램 또는 하드웨어 장비이다. 이런 네트워크 또는 분산 처리 시스템은 현재 인터넷 방송국 구축에도 많이 사용하고 있다. 소프트웨어에는 Microsoft사의 Load Balanced 프로그램 등이 있으며, 하드웨어 방법으로는 SAN장비 혹은 광 채널(또는 SCSI) 외장 RAID구성 방법이 있다.
3) Data Base관리 프로그램
만족스러운 서비스를 위해서는 다양한 종류의 자료가 있어야 하며, 이런 자료를 가장 빠른 시간 안에 검색해서 시청 할 수 있는 기능이 있어야 한다.
Data Base 관리 프로그램은
▲저장되어 있는 자료의 관리
▲동영상과 다른 자료( Text 문서, 이미지, 사운드 등)와의 연동 기능
▲각 주제별 분류 및 검색 기능
▲Index 기능 등의 기능을 가지고 있다.
이런 Data Base는 그 구성과 기능에 따라 가격 차이가 많이 나기 때문에 사용 목적에 따라 신중히 선택해야 한다. Data Base의 경우 반드시 그 Data Base를 지원하는 Data Base Engine(Data Base 엔진 : Access, SQL, Oracle 등)이 있는데 사용자료의 양과 접속자수 등을 고려해 선택하도록 한다.
4) 브로드 캐스팅 방송 프로그램
사용자의 요청에 의해서만 동영상을 전달하는 것이 아니라 실시간으로 동영상을 전달 할 수 있는 기능을 말한다. 이 방법의 경우 일반 TV 방송과 비슷한 개념이다. 단 무선으로 송출하는 것이 아니라 네트워크로 전송한다는 것에 차이가 있다.
요즘의 VOD System은 실시간 방송(Broadcast/ Multicast)을 기본으로 지원하는 구성 형태를 많이 사용하고 있다. 실시간으로 발생되는 Data를 바로 전송 할 수 있다는 것이 가장 큰 장점으로 통한다.
5) Scheduler(시간표 작성) 프로그램
관리자에 의해, 지정된 시간에 지정된 File또는 Live방송을 할 수 있게 해주는 기능이다. 즉, 하루나 일주일 단위의 방송 스케줄을 미리 작성해 저장하면 Data Base의 관리하에 자동으로 방송되는 기능이다. 이 기능이 완벽하게 구현된다면 1일 1인터넷 방송국 설립이 가능해지며, 각종 VOD 및 디지털 방송국의 인력 절감 등의 효과를 얻을 수도 있다. Scheduler는 단순한 방송의 관련 만으로도 작동 할 수도 있고, 모든 서버와 장비를 조정하여 작동 할 수 있다. 이런 기능의 차이는 사용하고자 하는 목적에 따라 구분된다.
6) 동영상 제작/편집 프로그램
VOD서버에 자료를 입력하거나 저장되어 있는 자료를 편집하는 기능을 말한다. 전문 방송 장비의 경우 PC와 통신이 가능하도록 제작되어 있다.(참고 RS-422 port) 이런 경우 PC에서 다양한 형태의 방송장비 조정이 가능해 다양하고 편리한 자료 입력이 가능하다. 편집의 경우에서는 이미 저장되어 있는 File을 불러 새로운 파일을 만들 수 있는 기능(Cut, Paste, Delete, Save 등)을 말한다. 이런 경우 별도의 편집 장비 없이 간단한 작업으로 새로운 파일을 만들거나 수정할 수 있는 장점이 있다. Vsoft의 경우는 편집과 동시에 Bookmark기능이 있어 다양한 형태의 데이터 베이스를 구축 할 수 있는 장점이 있다.
7) Client Viewer 프로그램
Client Viewer 프로그램이란 각각의 고유한 VOD Engine에서 오는 Data를 Play 해주는 것이다. 일반적으로 전송되어 오는 Data는 표준인 MPEG1·2를 사용하지만, 그 밖의 다양한 기능을 수행하기 위한 것들은 VOD Engine에 포함되어 있는 Viewer를 사용한다.
Viewer는 웹 형태로 되어 있는 것도 있고 단독 프로그램 형태로 되어 있는 경우도 있다. 이 경우 사용자의 환경에 맞게 선택해서 사용하면 된다. 일반적으로 VOD Engine 개발 업체는 Client Viewer에 대해서 별도의 라이센스 가격을 산정하고 있는 경우가 많다. 이런 경우 서비스 하고자 하는 인원수에 맞게 사용 라이센스를 구입해야 한다.
8) SDK의 지원
SDK란 Software Development Kit의 약자로 소프트웨어 개발 툴이다. 즉 VOD엔진 및 Client Viewer 중심으로 사용자의 요구나 사용 목적, 환경에 따라 다양하게 개발할 수 있는 환경을 지원하는 것이다.
대부분의 VOD 회사들이 SDK의 지원 범위를 Client Viewer의 변경 정도에만 국한하고 있다. 그 이유는 VOD Engine 프로그램의 도용을 막기 위한 것이다. 하지만, 일부 VOD Engine 제공 업체들은 VOD Engine까지 제공하는 경우도 있다.
VOD 시스템의 결정
VOD 시스템을 결정할 때에는 그 사용 목적과 동시에 서비스 사용자 수가 반드시 정해져 있어야 한다. 그래야만 정확하고 적합한 시스템 구축이 가능하기 때문이다. 또 이런 기본 요소를 먼저 결정하면 좀 더 저렴한 비용에 VOD 시스템을 구축 할 수 있을 것이다.
참 고: VOD Stream Engine 관련 회사 및 제품명
● 국 내:
·창성 미디어 (Digital csm)- Commotion UDP/ Vsoft/ Virage / 3cx
·Soft-On-Net Cats Stream
·Conhan system Inter-Stream
● 국 외
·Site: Vsoft

IPv6에서, 애니캐스트는 단일 송신자와 그룹 내에서 가장 가까운 곳에 있는 일부 수신자들 사이의 통신을 말한다. 이 용어는 단일 송신자와 다중 수신자 사이의 통신인 멀티캐스트, 그리고 단일 송신자와 네트웍 내의 단일 수신자 사이의 통신인 유니캐스트와 대비하여 존재한다.

애니캐스트는 한 호스트가 호스트 그룹을 위해 라우팅 테이블을 효과적으로 갱신할 수 있도록 하기 위해 설계되었다. IPv6는 어떤 게이트웨이 호스트가 가장 가까이 있는지를 결정할 수 있으며, 마치 유니캐스트 통신인 것처럼 그 호스트에 패킷을 보낼 수 있다. 그 호스트는 모든 라우팅 테이블이 갱신될 때까지, 그룹 내의 다른 호스트에게 차례로 애니캐스트할 수 있다.


유니캐스트는 네트웍상에서 단일 송신자와 단일 수신자간의 통신이다. 이 용어는 단일 송신자와 다중 수신자간의 통신인 멀티캐스트나, 또는 네트웍 상의 어떠한 송신자와 가장 가까이 있는 수신자 그룹간의 통신인 애니캐스트 등과 구별하기 위해 존재한다. 이전에 쓰였던 점대점(point-to-point) 통신이라는 용어가 유니캐스트와 의미상으로 비슷하다. 새로운 인터넷 프로토콜 버전 6, 즉 IPv6는 애니캐스트와 멀티캐스트 뿐 아니라, 유니캐스트도 지원한다

인터넷의 전송 방식은 전송에 참여하는 송신자와 수신자 관점에서 나누어 유니캐스트, 브로드캐스트, 멀티캐스트로 구분할 수 있다.

유니캐스트 전송 방식은 하나의 송신자가 다른 하나의 수신자로 데이터를 전송하는 방식으로 일반적인 인터넷 응용프로그램이 모두 유니캐스트 방식을 사용하고 있다. 브로드캐스트 전송방식은 하나의 송신자가 같은 서브네트웍 상의 모든 수신자에게 데이터를 전송하는 방식이다. 반면 멀티캐스트 전송방식은 하나 이상의 송신자들이 특정한 하나 이상의 수신자들에게 데이터를 전송하는 방식으로 인터넷 화상 회의 등의 응용에서 사용한다.


그룹 통신을 위하여 다중 수신자들에게 동일한 데이터를 전송하고자 할 경우 유니캐스트 전송방식을 이용한다면 전송하고자 하는 데이터 패킷을 다수의 수신자에게 각각 여러 번 전송해야 하며, 이러한 동일한 패킷의 중복전송으로 인해 네트웍 효율이 저하된다. 또한 수신자 수가 증가할 경우 이러한 문제점은 더 커지게 된다.

반면 멀티캐스트 전송이 지원되면 송신자는 여러 수신자에게 한 번에 메시지가 전송되도록 하여, 데이터의 중복전송으로 인한 네트웍 자원의 낭비를 최소화할 수 있게 된다.

멀티캐스트 전송이 일반적인 유니캐스트 인터넷 응용 분야와 다른 점은 우선 그 전송 패킷에 있다. 일반적으로 TCP/IP 상의 인터넷 응용 프로그램은 데이터의 송신자가 이를 수신할 수신자의 인터넷 주소를 전송 패킷의 헤더에 표시해 패킷을 전송한다. 그러나 멀티캐스트 전송을 위해서는 헤더에 수신자의 주소 대신 수신자들이 참여하고 있는 그룹 주소를 표시하여 패킷을 전송한다.

멀티캐스트 전송을 위한 그룹 주소는 D-class IP 주소 (∼로 전세계 개개의 인터넷 호스트를 나타내는 A, B, C-class IP 주소와는 달리 실제의 호스트를 나타내는 주소가 아니며, 그룹 주소를 갖는 멀티캐스트 패킷을 전송받은 수신자는 자신이 패킷의 그룹에 속해있는 가를 판단해 패킷의 수용여부를 결정하게 된다.

그러나 현재 인터넷상의 라우터들이 대부분 유니캐스트만을 지원하기 때문에 멀티캐스트 패킷을 전송하기 위하여서는 멀티캐스트 라우터 사이에 터널링(tunneling)이라는 개념을 사용하여 캡슐화(encapsulation)된 패킷을 전송한다. 즉 멀티캐스트 주소를 가진 데이터 패킷 헤더 앞에 멀티캐스트 라우터간에 설정된 터널의 양 끝단의 IP 주소를 덧붙여 라우팅(routing)을 함으로써 멀티캐스트를 지원하지 않는 일반 라우터들을 거칠 때 기존의 유니캐스트 패킷과 같은 방법으로 라우팅되어 최종적으로 터널의 종착지로 전송될 수 있게 하는 것이다.

약 200년 전 프랑스 수학자 푸리에는 임의의 파형(波形)이 직교하는 기본 함수를 써서 무한급수로 전개할 수 있다는 사실을 발견했다. 전기공학 분야에서는 통산 직교함수로서 삼각함수(sin 또는 cos 등)를 쓴다. 이 푸리에의 작업은 통신 이론의 기초를 이룬다.

푸리에에 이어 나이크스트, 샤논 등이 나타나 케이블을 사용하여 데이터를 보낼 때의 기본적인 성질을 밝혀냈다. 상세한 이론은 생략하고 결과만을 소개하면, 케이블을 지나는 파형의 주파수가 작으면 (즉 서서히 변화하는 파형을 사용하면) 데이터의 전송 속도는 늦어진다. 반대로 빨리 변화하는 파형을 사용하면 그만큼 많은 데이터를 보낼 수 있다. 직감적으로 생각해도 당연한 일이다.

푸리에의 이론을 적용하면, 1개 케이블에 2개의 다른 주파수 파형을 싣고 수신 측에서 파형을 직교함수를 사용하여 분리하면 이론적으로는 1개의 케이블로 복수의 신호를 병행적으로 송신할 수 있다. 현실적으로는 통신로에 잡음이 있게 마련이어서 너무 가까운 주파수를 사용하면 수신 단에서의 분리를 정확하게 할 수 없다.

이같이 1개 케이블에 복수의 신호를 겹쳐 송신하는 것을 브로드밴드(broadband) 방식이라 한다. 이에 대하여 이더넷 케이블은 1종류 신호만을 운반하므로 베이스밴드(baseband) 방식이라 한다. 베이스밴드 케이블의 임피던스는 50Ω, 브로드밴드는 75Ω이다.

멀티미디어의 출현에 의해 브로드밴드 방식이 관심을 모으고 있다. 브로드밴드 케이블을 사용하여 가령 6MHz대를 아날로그 TV에 할당하고 300MHz대를 디지털을 디지털 데이터 전송에 할당한다고 하면 이상적인 상태에서 150Mbps의 전송 속도를 얻을 수 있다. 이더넷의 15배, FDDI에 비하여 1.5배의 속도가 실현 가능하다.

브로드밴드 케이블은 앰프의 조정, 튜닝에 유지비가 드는 반면 베이스밴드인 이더넷은 유지비가 안 들어 누구나 쉽게 쓸 수 있다. 브로드밴드는 실시간 제어등 처리시간이 문제인(mission critical)경우에 쓰고, 일반 사무실에서는 이더넷을 쓴다

베이스밴드 방식

베이스밴드 방식은 데이터(정보)를 0, 1로 부호화하여 그대로 전송매체로 보내는 방식을 말합니다. 이 방식은 하나의 채널에 하나의 신호만을 양방향으로 전송하는 원리로서 모뎀(변복조기)이 불필요하기 때문에 비용이 저렴해지지만 전송거리가 짧은(수 Km)것이 단점입니다.

브로드밴드 방식

부호화된 데이터(정보)를 변조기에서 아날로그 신호로 변조하고 필터를 통해서 제한된 주파수 성분만을 전송매체로 보내는 방식을 말합니다. 비트는 반송파의 진폭 및 주파수, 위상을 변화시켜 표현하게 됩니다. 브로드밴드 방식은 다른 주파수 대역을 별도의 채널에 부여하여 1개의 동축케이블9전송매체)에 다중화해서 전송할 수 있으나, 신호는 한쪽 방향만 전송하게 됩니다. 이 방식은 디지털 신호를 아날로그 신호로 변환하기 때문에 모뎀이 필요하므로 베이스밴드 방식보다 비용이 많이 들지만 전송거리는 수십 Km까지 늘릴 수 있는 장점을 가지고 있습니다.

리눅스에서 스트리밍 서비스가 어렵다는 이야기가 많아서 한번 찾아봤습니다.
1. 기본적으로 real 은 되신다는 것을 아실 것이고
2. 미국사이트를 찾아보니 리눅스 스트리밍 전문 서비스들이 있더군요.
이곳에서는 nullsoft 의 shoutcast 를 서버로 사용하더군요.
클라이언트는 윈도우미디어 플레이어대신 winamp을 사용하구요. PC, MAC, LINUX 에서 모두 사용되구요. ( )
가격도 저렴한편이네요. 50메가하드+30기가트래픽에 월11.99달러네요.
3. 오디오스트리밍(MP3) 는 icecast 를 가직고 하나봐요. 셋업하는 방법이 나와있네요 참고하세요.
4 다음은 MPEG4 스트리밍에 관한 내용이고요
5. BYU브로드캐스팅은 TV 라디오와 웬만하게 알려진 파일들은 대부분 제어하는 것 같습니다.
6. 요즘 야후블로그의 비디오나 cj쇼핑에서 나오는 실시간방송은 한국에서 만든 건데
seevideo라는 플레이어로 에서 만들었죠
샘플과 asp파일 자바스크립트 파일을 받으시려면 다음을 방문하세요.
seevideo는 리눅스기반 서버에서만 사용이되고, 클라이언트는 윈도우 사용자들을 위해 개발이 되었는 데, AVI파일을 사용하고 있습니다. 기능은 메디아플레이어에 비해 훨씬 뛰어나지만 플레이중 다른 프로그램을 사용하면 시스템이 불안정해지는 것이 흠이더군요.
7. 가장 강력한 것은 프랑스에서 개발된 VLS streaming 입니다.
VLS는 그간 리눅스의 문제점으로 지적됐던 asf wmv divx avi 등을 스트리밍 할수 있으며, 제작자에의하면 별도의 미디어 서버가 필요없이 리눅스 웹서버에서 바로 작동을 한다고 합니다. VLS는 무료이며 소스가 공개되어 있습니다.
아뭏튼 도움이 되었으면 합니다.
윈도우 메디아 플레이어가 시장을 잡고있으니 리눅스 기반이 흔들리는 것 같습니다.
스트리밍프로그램이나 서비스를 개발하시는 분들께 도움이 되셨으면 합니다.



출처 :









'장난치기' 카테고리의 다른 글

한국인의 급한 성질  (0) 2008.02.22
Web에서 음악을 공짜로 듣기! 놀라운 서비스 songza  (0) 2008.02.21
동영상 용량 줄이기  (0) 2008.02.20
벨 눌러.  (0) 2008.02.18
20대에게 던지는 글  (0) 2008.02.18
탄핵소추권 [ 彈劾訴追權 ]  (0) 2008.02.18

+ Recent posts