次のコードは、iCloudまたはストリームイメージにもあるイメージをロードします。カメラロール内の画像のみに検索を制限するにはどうすればよいですか?
var assets = PHAsset.fetchAssetsWithMediaType(PHAssetMediaType.Image, options: nil)
いくつかの実験を通じて、ドキュメントに記載されていない隠しプロパティ(assetSource
)を発見しました。基本的には、定期的なフェッチリクエストを実行し、述語を使用してカメラロールからのものをフィルタリングする必要があります。この値は3でなければなりません。
サンプルコード:
//fetch all assets, then sub fetch only the range we need
var assets = PHAsset.fetchAssetsWithMediaType(PHAssetMediaType.Image, options: fetchOptions)
assets.enumerateObjectsUsingBlock { (obj, idx, bool) -> Void in
results.addObject(obj)
}
var cameraRollAssets = results.filteredArrayUsingPredicate(NSPredicate(format: "assetSource == %@", argumentArray: [3]))
results = NSMutableArray(array: cameraRollAssets)
カメラロールとフォトストリームアルバムを追加した後、Apple iOS 8.1で次のPHAssetCollectionSubtype
タイプを追加しました。
PHAssetCollectionSubtypeAlbumMyPhotoStream
(PHAssetCollectionTypeAlbum
と一緒に)-フォトストリームアルバムを取得します。
PHAssetCollectionSubtypeSmartAlbumUserLibrary
(PHAssetCollectionTypeSmartAlbum
と一緒に)-カメラロールアルバムを取得します。
ただし、これがiOS 8.0.xと下位互換性があるかどうかはテストしていません。
私のようにObjective Cコードを検索していて、廃止されたAssetsLibraryのコードを取得しているときに新しいライブラリ/フォトフレームワークの回答を得られなかった場合、これはあなたに役立ちます:Swift
グローバル変数:
var imageArray: [AnyObject]
var mutableArray: [AnyObject]
convenience func getAllPhotosFromCamera() {
imageArray = [AnyObject]()
mutableArray = [AnyObject]()
var requestOptions: PHImageRequestOptions = PHImageRequestOptions()
requestOptions.resizeMode = .Exact
requestOptions.deliveryMode = .HighQualityFormat
requestOptions.synchronous = true
var result: PHFetchResult = PHAsset.fetchAssetsWithMediaType(.Image, options: nil)
NSLog("%d", Int(result.count))
var manager: PHImageManager = PHImageManager.defaultManager()
var images: [AnyObject] = [AnyObject](minimumCapacity: result.count)
// assets contains PHAsset objects.
var ima: UIImage
for asset: PHAsset in result {
// Do something with the asset
manager.requestImageForAsset(asset, targetSize: PHImageManagerMaximumSize, contentMode: .Default, options: requestOptions, resultHandler: {(image: UIImage, info: [NSObject : AnyObject]) -> void in
目的C
グローバル変数:
NSArray *imageArray;
NSMutableArray *mutableArray;
以下の方法が役立ちます:
-(void)getAllPhotosFromCamera
{
imageArray=[[NSArray alloc] init];
mutableArray =[[NSMutableArray alloc]init];
PHImageRequestOptions *requestOptions = [[PHImageRequestOptions alloc] init];
requestOptions.resizeMode = PHImageRequestOptionsResizeModeExact;
requestOptions.deliveryMode = PHImageRequestOptionsDeliveryModeHighQualityFormat;
requestOptions.synchronous = true;
PHFetchResult *result = [PHAsset fetchAssetsWithMediaType:PHAssetMediaTypeImage options:nil];
NSLog(@"%d",(int)result.count);
PHImageManager *manager = [PHImageManager defaultManager];
NSMutableArray *images = [NSMutableArray arrayWithCapacity:[result count]];
// assets contains PHAsset objects.
__block UIImage *ima;
for (PHAsset *asset in result) {
// Do something with the asset
[manager requestImageForAsset:asset
targetSize:PHImageManagerMaximumSize
contentMode:PHImageContentModeDefault
options:requestOptions
resultHandler:^void(UIImage *image, NSDictionary *info) {
ima = image;
[images addObject:ima];
}];
}
imageArray = [images copy]; // You can direct use NSMutuable Array images
}
共有PHCachingImageManager
インスタンスの代わりに独自のPHImageManager
を使用する場合、requestImageForAsset:targetSize:contentMode:options:resultHandler:
を呼び出すときに、PHImageRequestOptions
でオプションを設定して、イメージがローカルであることを指定できます。 。
networkAccessAllowedプロパティ
Photosが要求された画像をiCloudからダウンロードできるかどうかを指定するブール値。
networkAccessAllowed
討論
YESの場合、要求された画像がローカルデバイスに保存されていない場合、PhotosはiCloudから画像をダウンロードします。ダウンロードの進行状況を通知するには、progressHandlerプロパティを使用して、画像のダウンロード中にPhotosが定期的に呼び出すブロックを提供します。 NO(デフォルト)で、画像がローカルデバイスにない場合、結果ハンドラの情報辞書のPHImageResultIsInCloudKey値は、ネットワークアクセスを有効にしない限り画像が利用できないことを示します。
これが役立ちます。使用したAlbumModelの代わりに、独自のデータモデルを使用できます。
func getCameraRoll() -> AlbumModel {
var cameraRollAlbum : AlbumModel!
let cameraRoll = PHAssetCollection.fetchAssetCollections(with: .smartAlbum, subtype: .smartAlbumUserLibrary, options: nil)
cameraRoll.enumerateObjects({ (object: AnyObject!, count: Int, stop: UnsafeMutablePointer) in
if object is PHAssetCollection {
let obj:PHAssetCollection = object as! PHAssetCollection
let fetchOptions = PHFetchOptions()
fetchOptions.sortDescriptors = [NSSortDescriptor(key: "creationDate", ascending: false)]
fetchOptions.predicate = NSPredicate(format: "mediaType = %d", PHAssetMediaType.image.rawValue)
let assets = PHAsset.fetchAssets(in: obj, options: fetchOptions)
if assets.count > 0 {
let newAlbum = AlbumModel(name: obj.localizedTitle!, count: assets.count, collection:obj, assets: assets)
cameraRollAlbum = newAlbum
}
}
})
return cameraRollAlbum
}
私もこれに頭を打ちました。 fetchAssetsWithMediaTypeまたはfetchAssetsInAssetCollectionを使用して、デバイス上のアセットのみをフィルタリングする方法が見つかりませんでした。 requestContentEditingInputWithOptionsまたはrequestImageDataForAssetを使用して、アセットがデバイス上にあるかどうかを判断できますが、これは非同期であり、リスト内のすべてのアセットに対して実行するリソースが多すぎるようです。より良い方法があるはずです。
PHFetchResult *fetchResult = [PHAsset fetchAssetsWithMediaType:PHAssetMediaTypeImage options:nil];
for (int i=0; i<[fetchResult count]; i++) {
PHAsset *asset = fetchResult[i];
[asset requestContentEditingInputWithOptions:nil
completionHandler:^(PHContentEditingInput *contentEditingInput, NSDictionary *info) {
if ([[info objectForKey:PHContentEditingInputResultIsInCloudKey] intValue] == 1) {
NSLog(@"asset is in cloud");
} else {
NSLog(@"asset is on device");
}
}];
}
Appleが提供するObjective-cバージョンは次のとおりです。
-(NSMutableArray *)getNumberOfPhotoFromCameraRoll:(NSArray *)array{
PHFetchResult *fetchResult = array[1];
int index = 0;
unsigned long pictures = 0;
for(int i = 0; i < fetchResult.count; i++){
unsigned long temp = 0;
temp = [PHAsset fetchAssetsInAssetCollection:fetchResult[i] options:nil].count;
if(temp > pictures ){
pictures = temp;
index = i;
}
}
PHCollection *collection = fetchResult[index];
if (![collection isKindOfClass:[PHAssetCollection class]]) {
// return;
}
// Configure the AAPLAssetGridViewController with the asset collection.
PHAssetCollection *assetCollection = (PHAssetCollection *)collection;
PHFetchResult *assetsFetchResult = [PHAsset fetchAssetsInAssetCollection:assetCollection options:nil];
self. assetsFetchResults = assetsFetchResult;
self. assetCollection = assetCollection;
self.numberOfPhotoArray = [NSMutableArray array];
for (int i = 0; i<[assetsFetchResult count]; i++) {
PHAsset *asset = assetsFetchResult[i];
[self.numberOfPhotoArray addObject:asset];
}
NSLog(@"%lu",(unsigned long)[self.numberOfPhotoArray count]);
return self.numberOfPhotoArray;
}
次の詳細を取得できる場所
PHFetchResult *fetchResult = self.sectionFetchResults[1];
PHCollection *collection = fetchResult[6];
**value 1,6 used to get camera images**
**value 1,0 used to get screen shots**
**value 1,1 used to get hidden**
**value 1,2 used to get selfies**
**value 1,3 used to get recently added**
**value 1,4 used to get videos**
**value 1,5 used to get recently deleted**
**value 1,7 used to get favorites**
Appleデモ リンク
あなたの財産を宣言する
@property (nonatomic, strong) NSArray *sectionFetchResults;
@property (nonatomic, strong) PHFetchResult *assetsFetchResults;
@property (nonatomic, strong) PHAssetCollection *assetCollection;
@property (nonatomic, strong) NSMutableArray *numberOfPhotoArray;