29590 ban_at_semiconductor_540x150

Bộ điều khiển máy dựa trên cử chỉ kết hợp với HMI...

Email In PDF.

Kết hợp bộ điều khiển dựa trên cử chỉ và nhận diện giọng nói, được Kinect hỗ trợ cho cảm biến Windows và bộ công cụ nền tảng để phát triển phần mềm (SDK), mở ra con đường cho nhiều ứng dụng tự động hóa phức tạp.

 image001_copy_copy_copy_copy_copy_copy_copy

Với các màn hình cảm ứng được lắp đặt chắc chắn trên sàn nhà máy và các ứng dụng iPad cho công nghiệp, chỉ còn là vấn đề thời gian trước cú bứt phá tiếp theo của điện tử dân dụng- “giao diện người dùng” dựa trên cử chỉ giống như những giao diện dùng cho bảng điều khiển trò chơi Microsoft Xbox 360 và Nintendo Wii- tiến đến điều khiển máy móc. Bộ công cụ phát triển cho phép những nhà phát triển giao diện máy công nghiệp thử nghiệm và đổi mới.

Bryan Brown là một kỹ sư làm việc tại Applied Instrument Technologies, nhà sản xuất dụng cụ phân tích quá trình cho các ngành công nghiệp tinh chế, hóa dầu, dược phẩm và thép có trụ sở tại California. Công việc hàng ngày của ông chủ yếu phát triển sản phẩm với trọng tâm là thiết kế phần mềm và điện tử. Ông đang thể hiện bước đầu tiên hướng tới điều khiển máy công nghiệp dựa trên cử chỉ, sử dụng bộ điều khiển Kinect cho Microsoft XBox 360 kết nối với bộ điều khiển tự động khả trình Opto 22 SNAP-PAC-R2.

Brown giải thích rằng bản chất của bước đầu tiên của bộ điều khiển máy Kinect rất đơn giản. Brown cần thứ gì đó để điều khiển nên ông đã dùng đèn flash như là thiết bị chỉ báo cơ bản để chứng minh. Brown nhận được khá nhiều chỉ trích khi tiêu tốn hàng trăm đô la công nghệ chỉ để bật tắt một chiếc đèn flash, nhưng ông hi vọng rằng mọi người hiểu được mấu chốt của vấn đề.

Phần mềm mà Brown sử dụng được dựa trên bộ công cụ nền tảng để phát triển phần mềm (SDK) Microsoft Research Kinect cho Windows và SNAP PAC.NET OptoMMP Messaging Toolkit. SNAP PAC.NET OptoMMP Messaging Toolkit cho phép các nhà phát triển  .NET nhanh chóng tạo ra ứng dụng cho các sản phẩm Opto 22 dựa trên Ethernet, như là bộ điều khiển SNAP PAC. Bộ điều khiển SNAP-PAC-R2 cho phép điều khiển, liên lạc và xử lý đầu ra/ đầu vào (I/O) trong một gói nhỏ gọn gán trên giá.

Giao diện người dùng tự nhiên

“Kết hợp bộ điều khiển dựa trên cử chỉ và nhận diện giọng nói, được Kinect hỗ trợ cho cảm biến Windows và bộ công cụ nền tảng để phát triển phần mềm (SDK), mở ra cánh cửa cho nhiều ứng dụng tự động hóa phức tạp,” Brown nói. “Tôi cũng hình dung ra các ứng dụng cho điều khiển thiết bị công nghiệp, đặc biệt là khi vận hành trong môi trường độc hại”.

Ví dụ, các kỹ sư dịch vụ hiện trường hạn chế trong việc được tiếp cận với các thiết bị như thiết bị phân tích quá trình được triển khai trong môi trường dễ cháy nổ. Tùy thuộc vào sự phân loại khu vực, các thiết bị giao diện điện tử phải sử dụng rào cản an toàn nội tại (IS) và các biện pháp an toàn khác để ngăn chặn sự sinh tia lửa điện trong môi trường nguy hiểm. “Một thiết bị tương tự như của Kinect sẽ cung cấp một cảm biến tự động có thể được đặt cùng với máy tính công nghiệp và màn hình bên trong vỏ bảo vệ đằng sau cửa sổ ATEX-rated. Chuyên viên kỹ thuật sẽ không cần phải tương tác với bàn phím được bảo vệ IS hay giao diện màn hình cảm ứng mà chỉ cần dùng cử chỉ để điều khiển đơn giản và kiểm soát thiết bị”. Brown giải thích.

 

Phiên bản beta của Kinect cho Windows SDK có thể được download miễn phí cho phát triển ứng dụng phi thương mại. Nó được thiết kế để cho phép các nhà phát triển thử nghiệm với giao diện người dùng tự nhiên (NUI) bao gồm cảm ứng độ sâu, theo dõi chuyển động của con người và nhận diện giọng nói. Phiên bản này làm việc trên hệ điều hành Windows 7 và bao gồm các ổ đĩa và giao diện lập trình ứng dụng (API) cho dòng cảm biến chưa qua xử lý và NUI, các tài liệu về cài đặt, các tài nguyên nguồn. Mặc dù nó được thiết kế cho mục đích phi thương mại nhưng phiên bản thương mại vẫn đang được chờ đợi trong thời gian tới.

Brown bắt đầu bằng việc chỉnh sửa ứng dụng mẫu SkeletonViewer trong bản download Kinect SDK phiên bản beta. “Đầu tiên, bộ ứng dụng OptoMMP được thêm vào như là nguồn tài nguyên cho dự án SkeletonViewer, sau đó code được thêm vào để thu thập thông tin jointID tay trái và tay phải”, ông nói. “Các trục tọa độ này được giao cho một phương thức mới, chuyển đổi vị trí tay thành lệnh điều khiển số, được gửi tới bộ điều khiển PAC-R2”. Tất cả quá trình viết code được thực hiện trên C#, sử dụng Microsoft Visual Studio 2010.

“Khi được thực hiện, chương trình hiển thị một bộ khung điển hình, hình ảnh dòng chiều sâu và hình ảnh video stream của ứng dụng SkeletonViewer gốc. tuy nhiên, video stream hiện nay đã có đối tượng giao diện người dùng xếp chồng để định vị phần thân (hình bầu dục) và điều khiển đầu ra số (hình chữ nhật)”, Brown nói.

Video kết quả của thí nghiệm này đã có trên mạng. Trong đó, Brown đứng trước bộ cảm biến Kinect và màn hình máy tính chỉ ra ông đang đứng trong hình bầu dục. Khi ông ta giơ một tay lên, bàn tay của ông được thấy đã ra bên ngoài vòng của hình bầu dục và đi vào hình chữ nhật. Điều này làm đèn flash bật sáng.

Brown cũng làm thí nghiệm với các thiết bị giải trí như là điều khiển tàu điều khiển bằng radio bằng thiết bị Kinect, module thu thập dữ liệu đo lường tính toán và vài thiết bị giao diện điện tử tùy chỉnh. Video về thí nghiệm này cũng đã có.


Tin mới hơn:
Tin cũ hơn: