اپل تجربه جستجوی جدیدی را با Apple Intelligence به نام Apple Visual Intelligence به نمایش گذاشت. به نظر می رسد و شبیه لنز گوگل است، اما از دوربین اصلی آیفون استفاده می کند و مستقیماً در Apple Intelligence تعبیه شده است.
بعلاوه، به نظر می رسد از ارائه دهندگان جستجوی شخص ثالث مانند Google، ChatGPT و Yelp برای نتایج جستجوی خود استفاده می کند – بسته به نوع پرس و جو.
به نظر می رسد. در اینجا چند اسکرین شات است که من از رویداد اپل از دیروز گرفتم، اگر می خواهید آن را تماشا کنید، در این ویدیو از حدود 57 دقیقه شروع می شود:
به دنبال خرید دوچرخه ای هستید که در پیاده روی خود دیدید. بعد از اینکه از آن عکس گرفتید، میگوید «جستجو با Google…»
اگرچه، مثال ارائه شده از نتایج جستجو تا حدودی “پزشکی” به نظر می رسد:
در اینجا نمونهای از یک نتیجه جستجوی محلی است که وقتی شخصی جزئیات بیشتری در مورد رستورانی که در حین راه رفتن با آن برخورد کرده است میخواهد. به نظر می رسد که این نتایج جستجوی محلی را در نقشه های اپل، که به اعتقاد من توسط Yelp و OpenTable ارائه می شود، بالا می برد.
در اینجا یک نمای نزدیک است که گزینه های OpenTable را در Apple Maps نشان می دهد:
سپس در اینجا نمونه ای از عکس گرفتن از یک تکلیف است که در آن از ChatGPT OpenAI برای کمک استفاده می کند:
چرا ما اهمیت می دهیم. به نظر می رسد اپل از هوش مصنوعی به عنوان ابزاری استفاده می کند تا پایه ای برای دستگاه های خود، جایی که با گوگل، OpenAI و سایر ارائه دهندگان جستجو ادغام می شود. واضح است که بر روی هوش مصنوعی و یادگیری ماشینی در دستگاه اپل تاکید شده است، اما به نظر می رسد نتایج از طرف شخص ثالث می آید.
بررسی اولیه بتا از واشنگتن پست نشان می دهد که راه طولانی در پیش دارد. به طور خاص با توهمات، علامتگذاری ایمیلهای هرزنامه بهعنوان اولویت، و مشکلات دیگر مشکل دارد.