기본 콘텐츠로 건너뛰기

[크롬북에서 안드로이드앱 지원에 대한 모든 것 정리]안드로이드앱 실행 데모, 지원일정, 지원 크롬북, 멀티윈도우 지원 등등

본인이 Google Apps 및 ChromeOS 기기 관리 라이센스 공급 비즈니스 관련업에 종사하다보니
이번 2016 Google I/O에서 발표된 내용중에 가장 눈에 띄였던 부분은 당연히 Chromebook에서 Native Andorid App들을 수행할 수 있도록 Google 에서 공식 발표한 것이 아닐까 생각한다.

'Bring Your Android Apps to Chrome OS - Google I/O 2016' 세션에서 공식 소개한 내용들을 총 정리하였다. 

이 발표에 의하면 Chrome 53버전이 정식 릴리스되는 2016년 9월에는 대부분의 크롬북에서 안드로이드앱 스토어인 Google Play Store를 설치하여 대부분의 기존 안드로이드앱들 구매하여 사용할 수 있다고 한다. 단, Chrome 53 개발자 버전은 6월초에 릴리스 될 것이고 3종류의 크롬북 (Acer Chromebook R11, Asus Chromebook Flip, Google Chromebook Pixel (2015) 만이 이때 사용할 수 있다고 발표하고 있다. (이 개발자 버전에서는 Touch Screen 이 되는 크롬북 기기를 우선 대상으로 하는 것으로 보임)
  
이 발표에서는 ChromeOS에서 Android App 들을 어떻게 지원할 수 있게되었는지, 네이티브 안드로이드 앱을 크롬북에 수행시 고려해야할 사항이 무엇이었는지, 향후 릴리스 계획, 지원 크롬북 종류, 실제 크롬북에서 안드로이드앱용 Google Play Store를 설치하여 다양한 기존 안드로이드 앱들을 설치하고 수행하는 데모를 보였다. 

이번 크롬북에서 안드로이드앱 지원의 긍극적인 목표는 기존 Android 앱들의 내부 코드 변경없이 smooth 하게 크롬북에서도 수행이 되도록 하는 것임을 강조.   



크롬북에 설치된 Google Play Store



크롬북에서 안드로이드 앱을 위한 멀티 윈도우 지원을 강조한 데모로, 안드로이드 Gmail 앱을 여러개 동시에 수행하여 데모를 보임
















멀티윈도우 지원시 안드로이드 앱의 화면 'Landscape', 'Portrait', 'Maximized' 모드를 지원한다는 내용


안드로이드 앱중에서 Play Store에서 유료로 결재하는 앱들도 그대로 지원이 된다는 내용. 게임 앱에서 아이템 구매하여 유료로 결재함



Chrome OS 53 의 타임프레임 - 6월에 Dev 버전 발표, 8월에 Beta 출시, 9월에 정식 버전 릴리스



이번 6월에 Dev 버전 출시때 사용이 가능한 크롬북 3종 소개. 나머지 지원되는 크롬북들 목록은 여기를 참조



<위 이미지들 출처 -Google의 'Bring Your Android Apps to Chrome OS - Google I/O 2016'  동영상>

실제로 크롬북 픽셀에서 안드로이드앱인 Photoshop 앱을 설치 수행하는 데모 동영상



안드로이드 포토샵앱에서 편집된 사진을 크롬북에 저장한 후, 안드로이드앱인 MS Word 앱을 수행하여 사진을 페이지에 삽입하는 데모. 이 과정에서 안드로이드용 메신저에서 메지가 동시에 수행 되는 데모가 같이 진행됨




올해 9월이후에 분명해 지는 것은, 대부분의 크롬북에서 Google Play Store에서 공급되는 대부분의 안드로이드 앱을 설치하여 이용할 수 있다는 사실. 

이로인하여 400달러 이상의 안드로이드 OS를 탑재한 타블렛PC들이 점차 사라지고 300달러 미만의 크롬북으로 대치 될 가능성이 높아 보인다.  

국내에서 SBC Technology 가 크롬북의 국내 활성화를 위해서 구글의 지원을 받아 크롬북, 크롬 키오스크, 사이니지 및 크롬 기기 관리 소개등. 자세한 발표 행사를 합니다.  참석 안내는 여기를 참조

---------------------------------------------
Google Apps 전문 블로그 - charlychoi.blogspot.kr
Google Spaces 공유 초대  - https://goo.gl/spaces/uEBpnYXDeDBfUW7aA

댓글

이 블로그의 인기 게시물

[Gemini Deep Research 200% 활용법] Gemini 활용 전문가 팁

  Gemini 활용 전문가 팁 Gemini Deep Research 200% 활용법 AI에게 '알아서' 리서치를 시키는 것을 넘어, '최고의 결과물'을 받아내는 2단계 프롬프트 전략 Google Gemini의 'Deep Research' 기능, 정말 강력하죠. 하지만 "어떻게 질문해야 이 기능을 제대로 쓸 수 있을까?" 고민해 본 적 없으신가요? 원하는 답변 대신 너무 광범위하거나 초점이 맞지 않는 결과를 받아보고 실망한 경험도 있으실 겁니다. 오늘은 이 고민을 한 번에 해결해 드릴, 정말 간단하면서도 강력한  ' 2단계 메타 프롬프팅'  전략을 소개합니다. 이 방법은 AI 전문가가 아닌 일반 사용자 누구나 따라 할 수 있으며, 여러분을 단순한 '질문자'에서 AI의 잠재력을 이끌어내는 '프로젝트 감독'으로 만들어 줄 것입니다. 핵심 아이디어는 이렇습니다. "최고의 리서치 프롬프트를 내가 직접 쓰는 대신,  Gemini에게 '최고의 프롬프트를 만들어달라'고 먼저 요청 하는 것" 입니다. AI가 자기 자신을 가장 잘 아는 원리를 이용하는 거죠! 2단계로 완성하는 '전문가급 리서치' 이제부터 딱 두 단계만 따라 해보세요. 놀라운 결과물을 얻게 될 겁니다. 1  프롬프트 '설계도' 요청하기 먼저, 우리가 어떤 정보를 원하는지 Gemini에게 알려주고, 그에 맞는 완벽한 'Deep Research 실행용 프롬프트'를 만들어달라고 요청합니다. 아래 템플릿을 복사해서 여러분의 주제에 맞게 내용을 채워보세요. # 페르소나 당신은 Google Gemini의 'Deep Research' 기능에 대해 완벽하게 이해하고 있는 최고의 프롬프트 엔지니어입니다. 당신의 임무는 사용자의 연구 목표를 기반으로, Deep Research 기능의 성능을 극한까지 끌어낼 수 있는 가장 효과적이고 정교한 ...

[알아두면 쓸모 있는 구글 문서 팁] 문서 공유시- 사용자 이름 대신에 익명의 동물이 표시 되는 이유와 동물 종류

구글 드라이브에는 다른 유사 서비스에서는 제공하지 않는 구글 만의 유니크한 기능들이 있다 구글 문서를  불특정 다수에게 전체 공개로 공유할 수 있습니다. 불특정인이 구글 문서에 접속한 경우 익명의 동물로 표시됩니다.  ' 웹에 공개' 또는 '링크가 있는 사용자' 공유 설정을 선택하면 인식할 수 없는 이름이나 익명의 동물이 표시될 수 있습니다. 파일에서 인식할 수 없는 이름을 볼 수 있는 몇 가지 이유는 다음과 같습니다. 메일링 리스트와 파일을 공유합니다. Google 계정이 없는 사용자와 파일을 공유하며, 그 사용자가 다른 사용자에게 공유 초대를 전달했습니다. 내 파일을 수정할 수 있는 누군가가 파일을 다른 사용자와 공유했습니다. 다른 사용자가 자신의 Google 계정 이름을 변경했습니다. 공유 설정 페이지에서 해당 사용자 이름 위로 마우스를 이동하여 이메일 주소를 확인하세요. 익명의 동물 다른 사용자에게 개별적으로 보기 또는 수정 권한을 부여하거나 메일링 리스트에 속해 있는 경우에만 사용자 이름이 표시됩니다. 파일 권한을 '링크가 있는 사용자'로 설정하면 파일을 보고 있는 사용자의 이름이 표시되지 않습니다. 대신 다른 사용자가 익명으로 라벨이 지정되어 표시되고 각 익명 사용자는 다양한 익명의 동물로 나열됩니다. 파일 권한을 '링크가 있는 사용자'로 설정했지만 특정 사용자와 파일을 공유하는 경우 파일을 공유한 사용자의 이름이 표시됩니다. 그 외 다른 사용자가 파일을 볼 때는 익명으로 나타납니다. 비공개 파일의 익명 동물 파일 권한을 '링크가 있는 사용자'로 설정한 다음 이를 '특정 사용자'로 변경하면 다음과 같은 경우 여러 익명의 동물이 표시될 수 있습니다. 누군가 파일을 여러 번 여는 경우에는 익명의 동물 목록에서 오래되고 연결이 끊긴 세션을 강제 종료하는 데 조금 시간이 걸릴 수 있습니다. 누군가 온...

[팁] Google Slide 프리젠테이션시 모든 한글폰트가 '굴림체' 로 바뀌는 현상을 해결한 크롬 확장 프로그램 소개

구글 문서도구인 구글 슬라이드를 이용하여 프리젠테이션을 많이 하는 분들을 위한 희소식 현재 구글 슬라이드에서는 슬라이드 편집시 사용한 고유 한글 폰트들은 프리젠테이션 모드로 전환할 경우는 모두 '굴림체' 로 바뀌어 표시가 되는 불편함이 있었습니다. 예). 슬라이드 편집에서 사용한 '궁서체' 한글 폰트는, 프리젠테이션 모드에서는 '굴림체'로 바뀌어 디스플레이됨 예). 슬라이드 편집 모드 - '궁서체' 폰트 사용 프리젠테이션 모드에서 '굴림체' 로 변경됨    따라서, 이러한 현상을 해결하는 크롬 확장 프로그램이 개발 되었습니다.  크롬 확장 프로그램 명 - ShowAsis 입니다. 크 롬 웹스토어 링크 -  https://goo.gl/PVPkZz 이 확장 프로그램을 사용하여 슬라이드 프리젠테이션을 하면, 편집 모드의 폰트 그대로 프리젠테이션시에도 그대로 한글 폰트로 디스플레이 됩니다. 단, 단점은 슬라이드가 애니메이션 슬라이드가 있는 경우는 애니메이션이 동작하지 않습니다. ----------------------- G Suite/Google Apps 전문 블로그 -  charlychoi.blogspot.kr 도서 '기업과 학교를 위한 구글크롬북'

[복잡한 프롬프트 엔지니어링은 이제 그만, 동료와 대화하듯 소통하세요]

AI와 자연스러운 대화법 프롬프트 엔지니어링은 이제 그만, 동료와 대화하듯 소통하세요 핵심 철학 AI는 복잡한 명령어가 필요한 기계가 아닙니다. 자연스러운 대화로 협업하는 지능적인 파트너입니다. 프롬프트 패러다임의 변화 초기 생성형 AI 시대 (2022-2023) 한계:  제한적 추론 능력, 정적 학습 데이터, 단순 패턴 매칭 결과:  복잡한 프롬프트 엔지니어링 기법 필수 Chain-of-Thought   Few-shot Learning   Role Playing 현재 AI 시대 (2024-2025) 발전:  강화된 추론 능력, 실시간 웹 검색, 심층 리서치 결과:  자연스러운 대화만으로 충분한 성능 실시간 검색   고도화된 추론   맥락 이해 🔄 패러다임 전환의 핵심 AI의 능력이 향상되면서  "사용자가 AI에 맞춰야 하는 시대" 에서  "AI가 사용자에게 맞춰주는 시대" 로 변화했습니다. 1 맥락 제공하기 동료에게 업무를 요청할 때처럼, 상황과 배경을 자연스럽게 설명해주세요. "고객 발표용 자료를 만들어야 하는데, 비전문가들이 이해하기 쉽게 설명하고 싶어요." 2 단계적 대화 한 번에 완벽한 결과를 기대하지 말고, 대화를 통해 점진적으로 발전시켜나가세요. "먼저 전체 구조부터 잡아볼까요? 그다음에 세부 내용을 채워넣죠." 3 명확한 의도 표현 복잡한 구조 대신, 왜 이것이 필요한지 목적을 솔직하게 말해주세요. "팀 회의에서 사용할 건데, 논점을 명확하게 정리하고 싶어요." 4 자연스러운 피드백 마음에 들지 않는 부분이 있으면 편하게 수정을 요청하세요. 협업의 일부입니다. "이 부분은 좀 더 구체적으로 설명해줄 수 있을까요? 예시도 넣어주시고요." Before vs After 복잡한 프롬프트 엔지니어링 당신은 10년 이상의 경험을 가진 마케팅 전문가로서 행동하세요. AIDA 프레임워크를 사용하여 포괄적인 마케팅 전략을 수립하세요. 다음을 포함하세요: ...

정보 과잉 시대의 필수 스킬: Deep Research 잘하는 법 (SCOPE 프레임워크 활용)

  정보 과잉 시대의 필수 스킬: Deep Research 잘하는 법 (SCOPE 프레임워크 활용) 영희:  철수 박사님, 안녕하세요! 평소 생성형 AI나 검색형 AI에 관심이 많았는데, 최근에 'Deep Research'라는 개념이 새롭게 떠오르는 것 같더라고요. 박사님은 이 분야 전문가시니, 제가 Deep Research에 대해 좀 자세히 배울 수 있을까요? 철수:  안녕하세요, 영희 씨! 물론입니다. Deep Research는 기존의 AI 검색 방식과는 차원이 다른 심층적인 정보 탐색 및 분석 능력을 의미합니다. 마치 관광 여행과 현지 생활의 차이처럼 생각하시면 이해하기 쉬울 거예요. 일반 AI가 유명 관광지를 빠르게 둘러보는 패키지여행과 같다면, Deep Research는 그 지역에서 몇 달간 살아보며 현지 문화를 깊이 이해하는 경험과 비슷합니다. 영희:  아, 비유가 정말 와닿네요! 그럼 일반 AI와 Deep Research는 구체적으로 어떻게 다른 건가요? 철수:  핵심적인 차이점은 정보를 다루는 깊이와 방식에 있습니다. 일반 AI는 주로 학습된 데이터나 제한적인 검색 결과에 의존하여 즉각적인 답변을 제공하는 반면, Deep Research 에이전트는 자율적으로 다양한 출처를 탐색하고, 여러 단계의 심층적인 조사를 수행합니다. 예를 들어, 일반 AI에게 "비트코인 가격에 영향을 미치는 요인은 무엇인가요?"라고 질문하면, 학습된 데이터를 바탕으로 일반적인 요인들, 예를 들어 공급과 수요, 규제 환경 등을 나열하는 수준의 답변을 얻을 수 있습니다. 하지만 Deep Research 에이전트에게 "2018년부터 현재까지 비트코인 가격과 미국 금리 변동의 상관관계를 분석해주세요. 특히 금리 인상/인하 결정 발표 전후 비트코인 가격 변동 패턴, 시차 효과, 그리고 이 관계가 시간에 따라 어떻게 변화했는지 패턴화해주세요."와 같이 구체적인 질문을 던지면, Deep Research 가 스스로 자료를 조사하고 보기 ...