ເວີຊັນເບຕ້າຂອງຜູ້ພັດທະນາທີສາມຂອງລະບົບ iOS 13 ເຊື່ອງແກດເຈັດໃໝ່ຫຼາຍຢ່າງ. ຫນຶ່ງໃນນັ້ນແມ່ນການແກ້ໄຂການຕິດຕໍ່ຕາອັດຕະໂນມັດ. ຫຼັງຈາກນັ້ນ, ພາກສ່ວນອື່ນມີຄວາມປະທັບໃຈທີ່ທ່ານກໍາລັງຊອກຫາໂດຍກົງໃນຕາຂອງເຂົາເຈົ້າ.
ໃນປັດຈຸບັນ, ໃນເວລາທີ່ທ່ານຢູ່ໃນການໂທ FaceTime ກັບໃຜຜູ້ຫນຶ່ງ, ເລື້ອຍໆພາກສ່ວນອື່ນສາມາດເຫັນໄດ້ວ່າຕາຂອງເຈົ້າຕົກ. ນີ້ແມ່ນເນື່ອງມາຈາກຄວາມຈິງທີ່ວ່າກ້ອງຖ່າຍຮູບບໍ່ໄດ້ຢູ່ໃນຈໍສະແດງຜົນໂດຍກົງ, ແຕ່ຢູ່ເທິງຂອບເທິງຂອງມັນ. ຢ່າງໃດກໍຕາມ, ໃນ iOS 13, Apple ມາພ້ອມກັບການແກ້ໄຂທີ່ບໍ່ທໍາມະດາ, ບ່ອນທີ່ ARKit 3 ໃຫມ່ມີບົດບາດນໍາຫນ້າ.
ດຽວນີ້ລະບົບປັບຂໍ້ມູນຮູບພາບໃນເວລາຈິງ. ດັ່ງນັ້ນເຖິງແມ່ນວ່າຕາຂອງເຈົ້າຈະຫຼຸດລົງ, iOS 13 ສະແດງໃຫ້ທ່ານເຫັນຄືກັບວ່າເຈົ້າກໍາລັງເບິ່ງໂດຍກົງໃນຕາຂອງຄົນອື່ນ. ນັກພັດທະນາຫຼາຍຄົນທີ່ໄດ້ທົດສອບຄຸນສົມບັດໃຫມ່ໄດ້ປາກົດຢູ່ໃນເຄືອຂ່າຍສັງຄົມແລ້ວ.
ຫນຶ່ງໃນນັ້ນແມ່ນ, ສໍາລັບຕົວຢ່າງ, Will Sigmon, ຜູ້ທີ່ໃຫ້ຮູບພາບທີ່ຊັດເຈນ. ຮູບຊ້າຍສະແດງໃຫ້ເຫັນສະຖານະການມາດຕະຖານໃນລະຫວ່າງການ FaceTime ໃນ iOS 12, ຮູບເບື້ອງຂວາສະແດງໃຫ້ເຫັນການແກ້ໄຂອັດຕະໂນມັດຜ່ານ ARKit ໃນ iOS 13.
ຄຸນນະສົມບັດໃຊ້ ARKit 3, ມັນຈະບໍ່ມີສໍາລັບ iPhone X
Mike Rundle, ຜູ້ທີ່ຢູ່ໃນການໂທ, ມີຄວາມຍິນດີກັບຜົນໄດ້ຮັບ. ຍິ່ງໄປກວ່ານັ້ນ, ມັນແມ່ນລັກສະນະຫນຶ່ງທີ່ລາວຄາດຄະເນກັບຄືນໄປບ່ອນໃນປີ 2017. ໂດຍວິທີທາງການ, ບັນຊີລາຍຊື່ທັງຫມົດຂອງການຄາດຄະເນຂອງລາວແມ່ນຫນ້າສົນໃຈ:
- iPhone ຈະສາມາດກວດຫາວັດຖຸ 3 ມິຕິໃນສິ່ງອ້ອມຂ້າງໄດ້ໂດຍການສະແກນພື້ນທີ່ຢ່າງຕໍ່ເນື່ອງ
- ການຕິດຕາມຕາ, ເຊິ່ງເຮັດໃຫ້ຊອບແວສາມາດຄາດຄະເນການເຄື່ອນໄຫວແລະອະນຸຍາດໃຫ້ການໂຕ້ຕອບຜູ້ໃຊ້ຂອງລະບົບສາມາດຄວບຄຸມໂດຍການເຄື່ອນໄຫວຕາ (Apple ຊື້ SensoMotoric Instruments ໃນປີ 2017, ເຊິ່ງຖືວ່າເປັນຜູ້ນໍາໃນດ້ານນີ້)
- ຂໍ້ມູນຊີວະມິຕິ ແລະ ສຸຂະພາບທີ່ໄດ້ຮັບໂດຍການສະແກນໃບໜ້າ (ກຳມະຈອນຂອງຄົນແມ່ນຫຍັງ, ແລະອື່ນໆ)
- ການແກ້ໄຂຮູບພາບຂັ້ນສູງເພື່ອຮັບປະກັນການຕິດຕໍ່ຕາໂດຍກົງໃນລະຫວ່າງ FaceTime, ສໍາລັບການຍົກຕົວຢ່າງ (ທີ່ໄດ້ເກີດຂຶ້ນໃນປັດຈຸບັນ)
- ການຮຽນຮູ້ເຄື່ອງຈັກຈະຄ່ອຍໆອະນຸຍາດໃຫ້ iPhone ສາມາດນັບວັດຖຸ (ຈໍານວນຄົນໃນຫ້ອງ, ຈໍານວນ pencils ເທິງໂຕະ, ເສື້ອທີເຊີດຂ້ອຍມີຢູ່ໃນຕູ້ເສື້ອຜ້າຂອງຂ້ອຍ ... )
- ການວັດແທກທັນທີຂອງວັດຖຸ, ໂດຍບໍ່ຈໍາເປັນຕ້ອງໃຊ້ໄມ້ບັນທັດ AR (ກໍາແພງຫີນສູງປານໃດ, ... )
ໃນຂະນະດຽວກັນ, Dave Schukin ຢືນຢັນວ່າ iOS 13 ໃຊ້ ARKit ເພື່ອແກ້ໄຂສາຍຕາ. ໃນລະຫວ່າງການຫຼິ້ນຊ້າ, ທ່ານສາມາດຈັບໄດ້ວ່າແວ່ນຕາບິດເບືອນຢ່າງກະທັນຫັນກ່ອນທີ່ຈະໃສ່ຕາ.
ວິທີທີ່ iOS 13 FaceTime Attention Correction ເຮັດວຽກ: ມັນພຽງແຕ່ໃຊ້ ARKit ເພື່ອຈັບແຜນທີ່ / ຕໍາແຫນ່ງຄວາມເລິກຂອງໃບຫນ້າຂອງທ່ານ, ແລະປັບຕາຕາມຄວາມເຫມາະສົມ.
ສັງເກດເຫັນການບິດຂອງເສັ້ນຜ່ານຕາແລະດັງ. pic.twitter.com/U7PMa4oNGN
— Dave Schukin? (@schukin) ເດືອນກໍລະກົດ 3, 2019
ນັກພັດທະນາ Aaron Brager ຫຼັງຈາກນັ້ນເພີ່ມວ່າລະບົບໃຊ້ API ພິເສດທີ່ມີຢູ່ໃນ ARKit 3 ເທົ່ານັ້ນແລະຖືກຈໍາກັດກັບ iPhone XS / XS Max ແລະ iPhone XR ຮຸ່ນຫຼ້າສຸດ. iPhone X ລຸ້ນເກົ່າບໍ່ຮອງຮັບການໂຕ້ຕອບເຫຼົ່ານີ້ ແລະຟັງຊັນຈະບໍ່ມີຢູ່ໃນມັນ.
ທີ່ມາ: 9to5Mac
ເຈົ້າບໍ່ສາມາດອັບເດດຟີດ rss ອື່ນເພື່ອບໍ່ໃຫ້ຜູ້ຊາຍເບິ່ງຂ້ອຍໃນມື້ທີ່ສິບກວ່າໄດ້ບໍ? …